JP2019185283A - Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system - Google Patents
Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system Download PDFInfo
- Publication number
- JP2019185283A JP2019185283A JP2018073633A JP2018073633A JP2019185283A JP 2019185283 A JP2019185283 A JP 2019185283A JP 2018073633 A JP2018073633 A JP 2018073633A JP 2018073633 A JP2018073633 A JP 2018073633A JP 2019185283 A JP2019185283 A JP 2019185283A
- Authority
- JP
- Japan
- Prior art keywords
- stereoscopic image
- dimensional model
- image display
- depth
- model generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005070 sampling Methods 0.000 claims abstract description 67
- 230000006835 compression Effects 0.000 claims description 46
- 238000007906 compression Methods 0.000 claims description 46
- 238000000034 method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000001028 reflection method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、3次元モデル生成装置及びそのプログラム、並びに、IP立体像表示システムに関する。 The present invention relates to a three-dimensional model generation apparatus, a program thereof, and an IP stereoscopic image display system.
任意の視点で自由に立体像を視認することが可能な立体像表示方式の一つとして、インテグラルフォトグラフィ(Integral Photography:以下IP)方式が知られている。このIP方式では、実体のある被写体を1台のカメラで撮影し、平面上に配列されたレンズアレイを利用して要素画像を生成する。また、IP方式では、コンピュータグラフィックス(CG)や複数のカメラで撮影された映像から生成した3次元モデルを用いて、要素画像を生成することもできる。 An integral photography (hereinafter referred to as IP) method is known as one of the three-dimensional image display methods capable of visually recognizing a three-dimensional image freely from an arbitrary viewpoint. In this IP method, an actual subject is photographed with one camera, and an element image is generated using a lens array arranged on a plane. In the IP method, an element image can also be generated using a three-dimensional model generated from images taken by computer graphics (CG) or a plurality of cameras.
このIP方式では、表示される立体像の奥行き位置がレンズアレイやピンホール群から離れると、解像度が低下するという奥行き再現範囲の問題が知られている。図9には、観察者がレンズアレイからある距離(視距離L)だけ離間して立体像を視認したときの立体像の奥行き位置と解像度との関係を図示した。図9において、横軸は視点(z=0)から立体像までの距離(立体像の奥行き位置)、縦軸は立体像の解像度(空間周波数)を示す。ここで、立体像の空間周波数とは、再生された立体像を観察したときに単位角度内に再生できる縞の最大数(視覚あたりの解像度)である。例えば、1度あたりで60画素視認可能であれば、空間周波数は30cpd(cycles per degree)である。 In this IP method, there is a known depth reproduction range problem that the resolution decreases when the depth position of the displayed stereoscopic image is separated from the lens array or the pinhole group. FIG. 9 illustrates the relationship between the depth position of the stereoscopic image and the resolution when the observer visually recognizes the stereoscopic image at a certain distance (viewing distance L) from the lens array. In FIG. 9, the horizontal axis indicates the distance from the viewpoint (z = 0) to the stereoscopic image (the depth position of the stereoscopic image), and the vertical axis indicates the resolution (spatial frequency) of the stereoscopic image. Here, the spatial frequency of the stereoscopic image is the maximum number of stripes (resolution per vision) that can be reproduced within a unit angle when the reproduced stereoscopic image is observed. For example, if 60 pixels are visible per degree, the spatial frequency is 30 cpd (cycles per degree).
図9に示すように、IP方式で再生される立体像の解像度は、レンズアレイ位置(z=L)近傍の前後一定の奥行き再現範囲で最大解像度(ナイキスト周波数)を維持し、その範囲を超えると急激に低下する。この最大解像度は、レンズアレイを構成する要素レンズの間隔(ピッチ)で特定され、この奥行き再現範囲を超えた立体像は、レンズアレイの位置から離れるにつれてボケてしまう。これは、IP方式においては、原理的に立体像がボケずに表示可能な奥行き再現範囲が存在することを意味する。 As shown in FIG. 9, the resolution of the stereoscopic image reproduced by the IP method maintains the maximum resolution (Nyquist frequency) in the constant depth reproduction range near the lens array position (z = L) and exceeds that range. And suddenly drops. This maximum resolution is specified by the interval (pitch) of the element lenses constituting the lens array, and a three-dimensional image exceeding the depth reproduction range becomes blurred as the distance from the lens array position increases. This means that, in the IP system, there is a depth reproduction range in which a stereoscopic image can be displayed without blurring in principle.
そこで、多視点カメラを用いたIP立体撮影手法の3次元モデル生成では、この奥行き再現範囲の問題に対応するために、非線形奥行き圧縮技術が提案されている(例えば、特許文献1)。この従来技術は、図10に示すように、3次元モデルの奥行きを非線形に圧縮することで、IP立体像表示装置の奥行き再現範囲に表示対象の3次元モデルを収めるものである。具体的には、この従来技術は、下記の式(9−1)で表される非線形奥行き圧縮関数を用いて、3次元モデルを変換する。 Therefore, in order to cope with the problem of the depth reproduction range, a nonlinear depth compression technique has been proposed in generating a three-dimensional model of the IP stereoscopic photographing method using a multi-viewpoint camera (for example, Patent Document 1). In this prior art, as shown in FIG. 10, the depth of the three-dimensional model is nonlinearly compressed, and the three-dimensional model to be displayed is placed in the depth reproduction range of the IP stereoscopic image display device. Specifically, this conventional technique converts a three-dimensional model using a nonlinear depth compression function expressed by the following equation (9-1).
なお、x,y,zが奥行き圧縮前の座標値であり、x´,y´,z´が奥行き圧縮後の座標値であり、Dが奥行き圧縮後の奥行範囲(IP立体像表示装置の奥行き再現範囲)を表す。
また、図10では、非線形奥行き圧縮関数の変換結果を実線で図示し、参考として、下記の式(9−2)で表される線形奥行き圧縮関数の変換結果を破線で図示した。なお、式(9−2)において、aは予め設定された圧縮率を表す(但し、0<a<1)。
Note that x, y, and z are coordinate values before depth compression, x ′, y ′, and z ′ are coordinate values after depth compression, and D is a depth range after depth compression (of the IP stereoscopic image display device). Depth reproduction range).
In FIG. 10, the conversion result of the nonlinear depth compression function is illustrated by a solid line, and as a reference, the conversion result of the linear depth compression function represented by the following equation (9-2) is illustrated by a broken line. In Expression (9-2), a represents a preset compression rate (where 0 <a <1).
図11(a)の被写体αを多視点カメラで撮影し、IP立体像表示装置で表示するための3次元モデルβを生成する場合を考える。この場合、図11(b)に示すように、非線形奥行き圧縮前の3次元モデルβを、奥行き方向(Z軸方向)で線形にサンプリングしてから奥行推定を行うことが多い。3次元モデルβに非線形奥行き圧縮を適用した場合、図11(c)に示すように、手前が疎に、奥が密にサンプリングされた3次元モデルβが生成されることになる。IP立体像表示装置においては、3次元モデルβの手前側が奥側よりも顕著に観察者に認識される。その結果、手前側が疎にサンプリングされた3次元モデルβの表示は、立体像の品質低下につながる。
なお、図11(b)及び図11(c)では、Z軸方向のサンプリング位置を破線で図示した。
Consider a case where the subject α in FIG. 11A is photographed with a multi-viewpoint camera and a three-dimensional model β to be displayed on an IP stereoscopic image display device is generated. In this case, as shown in FIG. 11B, the depth estimation is often performed after linearly sampling the three-dimensional model β before nonlinear depth compression in the depth direction (Z-axis direction). When nonlinear depth compression is applied to the three-dimensional model β, as shown in FIG. 11C, a three-dimensional model β sampled with a sparse front and a dense back is generated. In the IP stereoscopic image display device, the front side of the three-dimensional model β is recognized more remarkably by the observer than the back side. As a result, the display of the three-dimensional model β in which the front side is sparsely sampled leads to a reduction in quality of the stereoscopic image.
In FIGS. 11B and 11C, the sampling position in the Z-axis direction is indicated by a broken line.
そこで、本発明は、IP立体像表示装置が表示する立体像の品質を向上させる3次元モデル生成装置及びそのプログラム、並びに、IP立体像表示システムを提供することを課題とする。 Therefore, an object of the present invention is to provide a three-dimensional model generation apparatus and program for improving the quality of a stereoscopic image displayed by the IP stereoscopic image display apparatus, and an IP stereoscopic image display system.
前記した課題に鑑みて、本発明に係る3次元モデル生成装置は、非線形奥行き圧縮された被写体の3次元モデルをIP立体像表示装置で立体表示するために、3次元モデルを生成する3次元モデル生成装置であって、パラメータ入力手段と、再現領域設定手段と、線形サンプリング位置算出手段と、非線形サンプリング位置算出手段と、3次元モデル生成手段と、を備える構成とした。 In view of the above-described problems, a 3D model generation apparatus according to the present invention generates a 3D model for stereoscopic display of a 3D model of a subject subjected to nonlinear depth compression on an IP stereoscopic image display apparatus. The generation apparatus is configured to include parameter input means, reproduction region setting means, linear sampling position calculation means, nonlinear sampling position calculation means, and three-dimensional model generation means.
かかる構成によれば、3次元モデル生成装置は、パラメータ入力手段によって、被写体を撮影する多視点カメラのうち予め定めた1台の基準カメラの姿勢及び画角と、IP立体像表示装置の奥行き方向再現範囲及び画面サイズとがパラメータとして入力される。
3次元モデル生成装置は、再現領域設定手段によって、姿勢及び画角で表される基準カメラの撮影領域に、奥行き方向再現範囲及び画面サイズで表されるIP立体像表示装置の再現領域を設定し、再現領域を3次元モデルが配置される仮想空間に設定する。
According to this configuration, the three-dimensional model generation apparatus uses the parameter input unit to determine the posture and angle of view of one reference camera that is predetermined among the multi-viewpoint cameras that photograph the subject, and the depth direction of the IP stereoscopic image display apparatus. The reproduction range and screen size are input as parameters.
The three-dimensional model generation device sets the reproduction region of the IP stereoscopic image display device represented by the depth direction reproduction range and the screen size in the photographing region of the reference camera represented by the posture and the angle of view by the reproduction region setting means. The reproduction area is set in a virtual space where the three-dimensional model is arranged.
3次元モデル生成装置は、線形サンプリング位置算出手段によって、仮想空間に設定された再現領域において、奥行き方向で等間隔の線形サンプリング位置を算出する。
3次元モデル生成装置は、非線形サンプリング位置算出手段によって、線形サンプリング位置から、再現領域の手前側が奥側よりも密の非線形サンプリング位置を算出する。
3次元モデル生成装置は、3次元モデル生成手段によって、多視点カメラが被写体を撮影した多視点画像に対し、非線形サンプリング位置で奥行き推定を行い、3次元モデルを生成する。
The three-dimensional model generation apparatus calculates linear sampling positions at equal intervals in the depth direction in the reproduction region set in the virtual space by the linear sampling position calculation means.
In the three-dimensional model generation device, the nonlinear sampling position calculation unit calculates a nonlinear sampling position where the near side of the reproduction region is denser than the back side from the linear sampling position.
The three-dimensional model generation device generates a three-dimensional model by performing depth estimation at a non-linear sampling position on a multi-view image obtained by photographing a subject by a multi-view camera using a three-dimensional model generation unit.
また、前記した課題に鑑みて、本発明に係るIP立体像表示システムは、前記した3次元モデル生成装置と、3次元モデル生成装置が生成した3次元モデルを非線形奥行き圧縮し、奥行きが圧縮された3次元モデルの立体画像を生成する立体像奥行き圧縮装置と、立体像奥行き圧縮装置が生成した立体画像を立体表示するIP立体像表示装置と、を備える構成とした。 Further, in view of the above-described problems, the IP stereoscopic image display system according to the present invention performs non-linear depth compression on the 3D model generation device and the 3D model generated by the 3D model generation device, and the depth is compressed. A stereoscopic image depth compression device that generates a stereoscopic image of the three-dimensional model, and an IP stereoscopic image display device that stereoscopically displays the stereoscopic image generated by the stereoscopic image depth compression device.
これにより、3次元モデルは、手前側が奥側よりも密にサンプリングされている。従って、この3次元モデルは、非線形奥行き圧縮の際、観察者に認識されやすい手前側から等間隔でサンプリングされることになる。
なお、前記した3次元モデル生成装置は、一般的なコンピュータを前記した各手段として動作させる3次元モデル生成プログラムで実現することもできる。
Thereby, the front side of the three-dimensional model is sampled more densely than the back side. Therefore, this three-dimensional model is sampled at equal intervals from the near side that is easily recognized by the observer during nonlinear depth compression.
The three-dimensional model generation apparatus described above can also be realized by a three-dimensional model generation program that causes a general computer to operate as each of the above-described means.
本発明によれば、非線形奥行き圧縮後に、観察者に認識されやすい手前側から等間隔でサンプリングされる3次元モデルを生成するので、IP立体像表示装置が表示する立体像の品質を向上させることができる。 According to the present invention, after nonlinear depth compression, a three-dimensional model sampled at equal intervals from the front side that is easily recognized by the observer is generated, so that the quality of the stereoscopic image displayed by the IP stereoscopic image display device is improved. Can do.
(実施形態)
[IP立体像表示システムの全体構成]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、本発明の実施形態に係るIP立体像表示システム1の全体構成について、説明する。
図1に示すように、IP立体像表示システム1は、被写体αの立体像γをIP立体像表示装置5で立体表示するものであり、多視点ロボットカメラ(多視点カメラ)2と、3次元モデル生成装置3と、立体像奥行き圧縮装置4と、IP立体像表示装置5と、測距装置6とを備える。
(Embodiment)
[Overall configuration of IP stereoscopic image display system]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
With reference to FIG. 1, the overall configuration of an IP stereoscopic
As shown in FIG. 1, the IP stereoscopic
多視点ロボットカメラ2は、被写体αの多視点画像を撮影し、撮影した多視点画像を3次元モデル生成装置3に出力するものである。本実施形態では、多視点ロボットカメラ2は、マスターカメラ(基準カメラ)2M、及び、6台のリファレンスカメラ21〜26の計7台のロボットカメラで構成されている。また、多視点ロボットカメラ2は、ロボットカメラの輻輳角が許容視差角以下となるベースラインで、ロボットカメラが正六角形状に配置されている。
なお、マスターカメラ2Mとは、カメラマンが操作するロボットカメラのことである。また、リファレンスカメラ21〜26とは、マスターカメラ2Mに追従するように自動制御されるロボットカメラのことである。
The
The master camera 2M is a robot camera operated by a cameraman.
多視点ロボットカメラ2では、カメラマンがマスターカメラ2Mを操作して、注視点を基準とした撮影領域を指定する。すると、多視点ロボットカメラ2は、指定された注視点に向けてリファレンスカメラ21〜26をパン・チルト制御すると共に、この撮影領域が収まる最小画角でリファレンスカメラ21〜26をズーム制御する。このようにして、多視点ロボットカメラ2は、被写体αの多視点画像を撮影する。
In the
なお、注視点とは、3次元空間中の各点の中で、観察者Mに注視させたい被写体αの1点のことを言う。
また、多視点ロボットカメラ2の詳細は、下記の参考文献に記載されているため、これ以上の説明を省略する。
参考文献:池谷他、「多視点ロボットカメラを用いたインテグラル立体撮影技術」、映像情報メディア学会技術報告、2017年11月30日
Note that the gazing point refers to one point of the subject α that the observer M wants to gaze at among the points in the three-dimensional space.
Further, details of the
References: Ikeya et al., “Integral stereoscopic photography using multi-viewpoint robot camera”, IEICE Technical Report, November 30, 2017
3次元モデル生成装置3は、多視点ロボットカメラ2より入力された多視点画像から3次元モデルを生成するものである。
具体的には、3次元モデル生成装置3は、3次元モデルを生成する仮想空間にIP立体像表示装置5の再現領域を設定する。次に、3次元モデル生成装置3は、IP立体像表示装置5の再現領域を奥行き方向に線形にサンプリングする位置を求める。次に、3次元モデル生成装置3は、非線形奥行き圧縮後に等間隔でサンプリングされる3次元モデルを生成するため、手前側が奥側よりも密となる非線形サンプリング位置を求める。そして、3次元モデル生成装置3は、求めた非線形サンプリング位置で奥行き推定を行い、その結果から3次元モデルを生成する。
その後、3次元モデル生成装置3は、生成した3次元モデルを、放送、通信、オフライン等の既知の手法により、立体像奥行き圧縮装置4に出力する。
The three-dimensional
Specifically, the three-dimensional
Thereafter, the three-dimensional
立体像奥行き圧縮装置4は、3次元モデル生成装置3から入力された3次元モデルを非線形奥行き圧縮し、奥行きが圧縮された3次元モデルの要素画像(立体画像)を生成するものである。本実施形態では、立体像奥行き圧縮装置4は、予め設定した変換関数を用いて、観察者MとIP立体像表示装置5との距離(視距離)に応じて、3次元モデルの奥行きを圧縮する。この非線形奥行き圧縮により、手前側が奥側よりも密にサンプリングされた3次元モデルが、所定解像度を満たす奥行き再現範囲内で、等間隔にサンプリングされた3次元モデルに変換される。そして、立体像奥行き圧縮装置4は、圧縮した3次元モデルから要素画像を生成し、生成した要素画像をIP立体像表示装置5に出力する。
なお、立体像奥行き圧縮装置4の詳細は、特開2017−11520号公報に記載されているため、これ以上の説明を省略する。
The stereoscopic image
Note that details of the stereoscopic image
IP立体像表示装置5は、IP方式で立体像γを表示する一般的なIP立体ディスプレイである。このIP立体像表示装置5は、レンズアレイ及び表示素子で構成される画面5aに、立体像奥行き圧縮装置4から入力された要素画像を表示することで、観察者Mに対して立体像γを提示する。
The IP stereoscopic
測距装置6は、IP立体像表示装置5から観察者Mまでの視距離を測定するものである。この測距装置6は、例えば、一般的な距離センサー等で構成することができる。また、測距装置6は、2台のステレオカメラで観察者Mを撮影したカメラ画像から、強膜反射法や角膜・瞳孔反射法で観察者Mの左右の角膜を検出し、三角測量の原理により視距離を測定してもよい。そして、測距装置6は、測定した視距離を立体像奥行き圧縮装置4に出力する。
なお、IP立体像表示システム1は、予め固定の値を視距離(例えば、画面高の3倍等、推奨の視距離)とする形態であってもよい。その場合、IP立体像表示システム1は、測距装置6を構成から省略してもよい。
The
Note that the IP stereoscopic
このようにして、IP立体像表示システム1は、観察者Mの視距離に応じて、所定の解像度を満たした立体像γを表示することができる。このとき、IP立体像表示システム1は、顕著に観察者Mに認識される手前側も含め、等間隔でサンプリングされた3次元モデルの立体像γを表示するので、立体像γの品質を向上させることができる。
In this way, the IP stereoscopic
[3次元モデル生成装置の構成]
図2を参照し、3次元モデル生成装置3の構成について説明する。
図2に示すように、3次元モデル生成装置3は、パラメータ入力手段30と、再現領域設定手段31と、線形サンプリング位置算出手段32と、非線形サンプリング位置算出手段33と、3次元モデル生成手段34とを備える。
[Configuration of 3D model generator]
The configuration of the three-dimensional
As shown in FIG. 2, the three-dimensional
パラメータ入力手段30は、3次元モデルの生成に必要な各種パラメータを入力するものである。本実施形態では、パラメータ入力手段30は、パラメータとして、多視点ロボットカメラ2から、マスターカメラ2Mの姿勢及び画角と、デプスとを取得する。また、3次元モデル生成装置3のユーザが、図示を省略したマウス、キーボード等の操作手段を用いて、IP立体像表示装置5の奥行き方向再現範囲、画面サイズ及び飛び出し量をパラメータ入力手段30に入力する。
その後、パラメータ入力手段30は、入力された各種パラメータを再現領域設定手段31に出力する。
The parameter input means 30 inputs various parameters necessary for generating a three-dimensional model. In the present embodiment, the
Thereafter, the parameter input means 30 outputs the input various parameters to the reproduction area setting means 31.
<パラメータの説明>
図3を参照し、パラメータ入力手段30に入力される各種パラメータについて説明する。
図3に示すように、マスターカメラ2Mの姿勢は、カメラマンがマスターカメラ2Mを操作して被写体αを撮影したときのパン・チルトを表す。また、マスターカメラ2Mの画角θは、カメラマンがマスターカメラ2Mを操作して被写体αを撮影したときの水平方向及び垂直方向の画角を表す。また、デプスdは、マスターカメラ2Mから注視点Pまでの距離を表す。
なお、図3では、X軸が水平方向を表し、Y軸が垂直方向を表し、Z軸が奥行き方向を表す。
<Description of parameters>
Various parameters input to the
As shown in FIG. 3, the attitude of the
In FIG. 3, the X axis represents the horizontal direction, the Y axis represents the vertical direction, and the Z axis represents the depth direction.
IP立体像表示装置5の奥行き方向再現範囲は、IP立体像表示装置5が奥行き方向(Z軸方向)で立体像γ(図1)を再現できる範囲を表す。図4に示すように、IP立体像表示装置5の奥行き方向再現範囲は、IP立体像表示装置5の画面5aを中心とした、手前再現範囲(再現領域ARの手前位置)z´rnから奥再現範囲(再現領域ARの奥側位置)z´rfまでの間を表す。IP立体像表示装置5の画面サイズは、IP立体像表示装置5の画面5aの幅及び高さを表す。IP立体像表示装置5の飛び出し量は、注視点PがIP立体像表示装置5の画面5aから奥行き方向に離れて表示される距離を表す。
The depth direction reproduction range of the IP stereoscopic
図2に戻り、3次元モデル生成装置3の構成について、説明を続ける。
再現領域設定手段31は、マスターカメラ2Mの撮影領域に、IP立体像表示装置5の再現領域を設定し、IP立体像表示装置5の再現領域を3次元モデルが配置される仮想空間に設定するものである。ここで、マスターカメラ2Mの撮影領域は、図3に破線で図示したように、マスターカメラ2Mの姿勢及び画角θで表される、実空間上の領域である。また、IP立体像表示装置5の再現領域は、IP立体像表示装置5の奥行き方向再現範囲及び画面サイズで表される。図4の太線で囲われた領域が、IP立体像表示装置5の再現領域ARである。
Returning to FIG. 2, the description of the configuration of the three-dimensional
The reproduction area setting means 31 sets the reproduction area of the IP stereoscopic
まず、再現領域設定手段31は、デプスd、水平方向の画角θ、画面サイズ(画面幅W)及び飛び出し量Δが含まれる式(1)を用いて、縮尺比kを算出する。この縮尺比kは、仮想空間と実空間とのスケールの比を表す。具体的には、再現領域設定手段31は、パラメータ入力手段30から入力されたデプスd、画角θ、画面サイズW及び飛び出し量Δを式(1)に代入し、縮尺比kを算出する。
First, the reproduction
次に、再現領域設定手段31は、IP立体像表示装置5の再現領域ARを縮尺比kに応じたスケールでマスターカメラ2Mの撮影領域(実空間)に設定する。このとき、実空間上の再現領域ARは、図4に示すように、画面5aにおける幅がkWとなり、実空間上の飛び出し量がkΔとなる。また、奥行き方向再現範囲は、画面5aを中心としてkDとなる。従って、再現領域ARの手前再現範囲z´rn及び奥再現範囲z´rfは、以下の式(2)で表すことができる。
Next, the reproduction
次に、再現領域設定手段31は、3次元モデルを生成する仮想空間のスケールを実空間と等しくし、実空間に規定したIP立体像表示装置5の再現領域ARを仮想空間に同一の位置及びスケールで設定する。
その後、再現領域設定手段31は、IP立体像表示装置5の再現領域AR及び縮尺比kと、各種パラメータとを線形サンプリング位置算出手段32に出力する。
なお、再現領域設定手段31は、水平方向だけでなく、図5に示すように、垂直方向にもIP立体像表示装置5の再現領域ARを設定する。この図5では、θHが垂直方向の画角を表し、Hが画面高さを表す。従って、IP立体像表示装置5の再現領域ARは、図4及び図5では台形状となっているが、実際には四角錐台状の領域となる。
Next, the reproduction
Thereafter, the reproduction
The reproduction area setting means 31 sets the reproduction area AR of the IP stereoscopic
線形サンプリング位置算出手段32は、再現領域設定手段31が設定したIP立体像表示装置5の再現領域ARにおいて、等間隔の線形サンプリング位置を算出するものである。本実施形態では、線形サンプリング位置算出手段32は、奥行き方向で奥再現範囲z´rfを超えない範囲において、線形サンプリング位置を算出する。つまり、線形サンプリング位置算出手段32は、図6に示すように、手前再現範囲z´rnから奥再現範囲z´rfの手前まで、奥行き方向で等間隔に線形サンプリング位置z´rを求める。ここで、線形サンプリング位置z´rの個数は、任意に定めることができる。図6の例では、奥再現範囲z´rfを含めないので、線形サンプリング位置z´rが4個である。
その後、線形サンプリング位置算出手段32は、算出した線形サンプリング位置z´rと、手前再現範囲z´rnと、縮尺比kと、各種パラメータとを非線形サンプリング位置算出手段33に出力する。
The linear sampling position calculation means 32 calculates linear sampling positions at equal intervals in the reproduction area AR of the IP stereoscopic
Thereafter, the linear sampling position calculation means 32 outputs the calculated linear sampling position z ′ r , the near reproduction range z ′ rn , the scale ratio k, and various parameters to the nonlinear sampling position calculation means 33.
非線形サンプリング位置算出手段33は、線形サンプリング位置算出手段32より入力された線形サンプリング位置z´rから、IP立体像表示装置5の再現領域の手前側が奥側よりも密の非線形サンプリング位置を算出するものである。具体的には、非線形サンプリング位置算出手段33は、以下の式(3)に、線形サンプリング位置z´rと、手前再現範囲z´rnと、縮尺比kと、奥行き方向再現範囲Dとを代入し、非線形サンプリング位置zrを算出する。
その後、非線形サンプリング位置算出手段33は、算出した非線形サンプリング位置zr及び各種パラメータを3次元モデル生成手段34に出力する。
Nonlinear sampling position calculating means 33, the linear sampling position calculating means 32 linear sampling position z 'r input from the near side of the reproduction area of IP stereoscopic
Thereafter, the non-linear sampling position calculation means 33 outputs the calculated non-linear sampling position z r and various parameters to the three-dimensional model generation means 34.
3次元モデル生成手段34は、多視点ロボットカメラ2から入力された多視点画像に対し、非線形サンプリング位置算出手段33から入力された非線形サンプリング位置zrで奥行き推定を行い、3次元モデルを生成するものである。本実施形態では、3次元モデル生成手段34は、ステレオマッチングを用いて、多視点画像から3次元モデルを生成する。
3D
まず、3次元モデル生成手段34は、多視点ロボットカメラ2に対し、既知のカメラキャリブレーションを施す。次に、3次元モデル生成手段34は、奥行き推定の対象となる1台のロボットカメラ(以下、対象カメラ2A)と、他のロボットカメラ(以下、参照カメラ2B)とを組み合わせて、カメラペアを6つ設定する。そして、3次元モデル生成手段34は、それぞれのカメラペアのステレオマッチングによって、以下の式(4)に示すように、正規化相互相関(ZNCC)に基づいたコストCを算出し、奥行き推定を行う。
First, the three-dimensional
なお、mはカメラペア番号、pは処理対象の画素、lは奥行き値のラベル、minは最小値を返す関数、R(p)は画素pを中心としたブロック内の画素集合、i,jはブロック内の画素のインデックス、Iは対象カメラ2Aが撮影した視点映像の画素値、I ̄は画素値Iの平均値、I´は参照カメラ2Bが撮影した視点映像の画素値、I´ ̄は画素値I´の平均値、d(l)は奥行き値のラベルに対応した視差値、TDは予め設定した閾値を表す。
また、式(4)では、非線形サンプリング位置算出手段33から入力された非線形サンプリング位置zrが、d(l)に反映される。すなわち、式(4)のd(l)が、非線形サンプリング位置zrでサンプリングされた視差値を表す。
Note that m is a camera pair number, p is a pixel to be processed, l is a depth value label, min is a function that returns a minimum value, R (p) is a pixel set in a block centered on the pixel p, i, j pixel values of the index of the pixels in the block, I is view
In the equation (4), the non-linear sampling position z r input from the non-linear sampling position calculation means 33 is reflected in d (l). That, d of formula (4) (l) is representative of the sampled parallax values in the nonlinear sampling position z r.
そして、3次元モデル生成手段34は、全てのカメラペアのコストCを統合(平均)し、コストボリュームフィルタリング(Cost Volume Filtering)を適用し、統合したコストが最小となる奥行き値を各画素に割り当てる。さらに、3次元モデル生成手段34は、割り当てた奥行き値に基づいて、視点画像の全画素を仮想空間に投影し、3次元点群モデル(3次元モデル)を生成する。
Then, the three-dimensional
その後、3次元モデル生成手段34は、生成した3次元モデルを立体像奥行き圧縮装置4に出力する。
なお、多視点画像から3次元モデルを生成する手法は、前記した参考文献に記載されているため、これ以上の説明を省略する。
Thereafter, the three-dimensional
Note that the method for generating a three-dimensional model from a multi-viewpoint image is described in the above-mentioned reference document, and thus further description thereof is omitted.
ここで、図7(a)の被写体αを多視点ロボットカメラ2で撮影し、IP立体像表示装置5が表示する3次元モデルβを生成する場合を考える。図7(b)に示すように、3次元モデル生成手段34は、手前側が奥側よりも密にサンプリングされた3次元モデルβを生成する。そして、立体像奥行き圧縮装置4は、手前が疎、奥が密となるように非線形奥行き圧縮を行うので、図7(c)に示すように、等間隔にサンプリングされた3次元モデルβを生成できる。
Here, a case where the subject α in FIG. 7A is photographed by the
[IP立体像表示システムの動作]
図8を参照し、IP立体像表示システム1の動作について説明する(適宜図2参照)。
ここで、多視点ロボットカメラ2が多視点画像を撮影し、パラメータが3次元モデル生成装置3に入力されていることとする。
[Operation of IP stereoscopic image display system]
The operation of the IP stereoscopic
Here, it is assumed that the
図8に示すように、再現領域設定手段31は、仮想空間にIP立体像表示装置5の再現領域ARを設定する(ステップS1)。
線形サンプリング位置算出手段32は、ステップS1で設定したIP立体像表示装置5の再現領域ARにおいて、奥行き方向で等間隔の線形サンプリング位置z´rを算出する(ステップS2)。
As shown in FIG. 8, the reproduction area setting means 31 sets the reproduction area AR of the IP stereoscopic
The linear sampling position calculation means 32 calculates linear sampling positions z ′ r equally spaced in the depth direction in the reproduction area AR of the IP stereoscopic
非線形サンプリング位置算出手段33は、ステップS2で算出した線形サンプリング位置z´rから、IP立体像表示装置5の再現領域ARの手前側が奥側よりも密の非線形サンプリング位置zrを算出する(ステップS3)。
3次元モデル生成手段34は、多視点ロボットカメラ2が撮影した多視点画像に対し、ステップS3で算出した非線形サンプリング位置zrで奥行き推定を行い(ステップS4)、3次元モデルβを生成する(ステップS5)。この3次元モデルβは、手前側が奥側よりも密となるように、非線形でサンプリングされている。
Nonlinear sampling position calculating means 33, the linear sampling position z 'r calculated in step S2, the front side of the reproduction area AR of the IP stereoscopic
3D
立体像奥行き圧縮装置4は、ステップS5で生成した3次元モデルβを非線形奥行き圧縮し(ステップS6)、等間隔でサンプリングされた3次元モデルから要素画像を生成する。
IP立体像表示装置5は、立体像奥行き圧縮装置4が生成した要素画像を表示する。
The stereoscopic image
The IP stereoscopic
[作用・効果]
以上のように、本発明の実施形態に係る3次元モデル生成装置3は、非線形奥行き圧縮前、手前側が奥側よりも密にサンプリングされた3次元モデルβを生成する(図7(b))。そして、立体像奥行き圧縮装置4は、非線形奥行き圧縮により、観察者に認識されやすい手前側から等間隔でサンプリングされた3次元モデルβを生成し(図7(c))、この3次元モデルβから要素画像を生成する。従って、IP立体像表示装置5は、高品質な立体像γを表示することができる。
[Action / Effect]
As described above, the three-dimensional
(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、多視点カメラが正六角形状に配置された7台のロボットカメラであることとして説明したが、多視点カメラの台数及び配置はこれに制限されない。例えば、多視点カメラは、一般的なステレオカメラであってもよい。
(Modification)
As mentioned above, although embodiment of this invention was explained in full detail, this invention is not limited to above-described embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
In the above-described embodiment, the multi-view camera is described as seven robot cameras arranged in a regular hexagon. However, the number and arrangement of the multi-view cameras are not limited to this. For example, the multi-view camera may be a general stereo camera.
前記した実施形態では、ステレオマッチングにより3次元モデルを生成することとして説明したが、3次元モデルの生成手法は、これに限定されない。
前記した実施形態では、変換関数により非線形奥行き圧縮を行うこととして説明したが、非線形奥行き圧縮の手法は、これに限定されない。
In the above-described embodiment, it has been described that a three-dimensional model is generated by stereo matching, but the method of generating a three-dimensional model is not limited to this.
In the above-described embodiment, it has been described that nonlinear depth compression is performed by a conversion function, but the nonlinear depth compression method is not limited to this.
前記した実施形態では、3次元モデル生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した3次元モデル生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the three-dimensional model generation apparatus has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as the above-described three-dimensional model generation apparatus. These programs may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.
1 IP立体像表示システム
2 多視点ロボットカメラ(多視点カメラ)
2M マスターカメラ(基準カメラ)
21〜26 リファレンスカメラ
3 3次元モデル生成装置
4 立体像奥行き圧縮装置
5 IP立体像表示装置
6 測距装置
30 パラメータ入力手段
31 再現領域設定手段
32 線形サンプリング位置算出手段
33 非線形サンプリング位置算出手段
34 3次元モデル生成手段
AR 再現領域
M 観察者
P 注視点
α 被写体
β 3次元モデル
γ 立体像
1 IP stereoscopic
2 M master camera (reference camera)
2 1 to 2 6
Claims (5)
前記被写体を撮影する多視点カメラのうち予め定めた1台の基準カメラの姿勢及び画角と、前記IP立体像表示装置の奥行き方向再現範囲及び画面サイズとがパラメータとして入力されるパラメータ入力手段と、
前記姿勢及び前記画角で表される基準カメラの撮影領域に、前記奥行き方向再現範囲及び前記画面サイズで表される前記IP立体像表示装置の再現領域を設定し、当該再現領域を前記3次元モデルが配置される仮想空間に設定する再現領域設定手段と、
前記仮想空間に設定された再現領域において、奥行き方向で等間隔の線形サンプリング位置を算出する線形サンプリング位置算出手段と、
前記線形サンプリング位置から、前記再現領域の手前側が奥側よりも密の非線形サンプリング位置を算出する非線形サンプリング位置算出手段と、
前記多視点カメラが前記被写体を撮影した多視点画像に対し、前記非線形サンプリング位置で奥行き推定を行い、前記3次元モデルを生成する3次元モデル生成手段と、
を備えることを特徴とする3次元モデル生成装置。 A three-dimensional model generation device that generates the three-dimensional model in order to stereoscopically display a three-dimensional model of a subject subjected to nonlinear depth compression on an IP stereoscopic image display device,
Parameter input means for inputting, as parameters, the posture and angle of view of a predetermined reference camera of the multi-viewpoint camera that captures the subject, and the depth direction reproduction range and screen size of the IP stereoscopic image display device; ,
A reproduction region of the IP stereoscopic image display device represented by the depth direction reproduction range and the screen size is set in the photographing region of the reference camera represented by the posture and the angle of view, and the reproduction region is the three-dimensional Reproduction area setting means for setting in the virtual space where the model is placed,
Linear sampling position calculation means for calculating linear sampling positions at equal intervals in the depth direction in the reproduction region set in the virtual space;
From the linear sampling position, a nonlinear sampling position calculation means for calculating a nonlinear sampling position where the near side of the reproduction region is denser than the back side;
3D model generation means for performing depth estimation at the non-linear sampling position on the multi-viewpoint image obtained by capturing the subject by the multi-viewpoint camera, and generating the 3D model;
A three-dimensional model generation device comprising:
前記3次元モデル生成装置が生成した3次元モデルを非線形奥行き圧縮し、奥行きが圧縮された前記3次元モデルの立体画像を生成する立体像奥行き圧縮装置と、
前記立体像奥行き圧縮装置が生成した立体画像を立体表示するIP立体像表示装置と、
を備えることを特徴とするIP立体像表示システム。 The three-dimensional model generation device according to any one of claims 1 to 3,
A stereoscopic image depth compression device that nonlinearly compresses the three-dimensional model generated by the three-dimensional model generation device and generates a stereoscopic image of the three-dimensional model in which the depth is compressed;
An IP stereoscopic image display device that stereoscopically displays a stereoscopic image generated by the stereoscopic image depth compression device;
An IP stereoscopic image display system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018073633A JP2019185283A (en) | 2018-04-06 | 2018-04-06 | Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018073633A JP2019185283A (en) | 2018-04-06 | 2018-04-06 | Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019185283A true JP2019185283A (en) | 2019-10-24 |
Family
ID=68341255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018073633A Pending JP2019185283A (en) | 2018-04-06 | 2018-04-06 | Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019185283A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021111859A (en) * | 2020-01-09 | 2021-08-02 | 日本放送協会 | Stereoscopic image generation device and program thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017011520A (en) * | 2015-06-23 | 2017-01-12 | 日本放送協会 | Stereoscopic image depth conversion device and program therefor |
-
2018
- 2018-04-06 JP JP2018073633A patent/JP2019185283A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017011520A (en) * | 2015-06-23 | 2017-01-12 | 日本放送協会 | Stereoscopic image depth conversion device and program therefor |
Non-Patent Citations (1)
Title |
---|
"2 立体映像 ", NHK技研 研究年報 2016, JPN6021049512, May 2017 (2017-05-01), pages 18 - 23, ISSN: 0004791829 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021111859A (en) * | 2020-01-09 | 2021-08-02 | 日本放送協会 | Stereoscopic image generation device and program thereof |
JP7437941B2 (en) | 2020-01-09 | 2024-02-26 | 日本放送協会 | Stereoscopic image generation device and its program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5887267B2 (en) | 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method | |
JP6734620B2 (en) | Video processing method and video processing apparatus | |
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
TWI547901B (en) | Simulating stereoscopic image display method and display device | |
US9443338B2 (en) | Techniques for producing baseline stereo parameters for stereoscopic computer animation | |
JPH07287761A (en) | Device and method for processing picture | |
JP2000354257A (en) | Image processor, image processing method and program provision medium | |
JP6585938B2 (en) | Stereoscopic image depth conversion apparatus and program thereof | |
JP6406853B2 (en) | Method and apparatus for generating optical field images | |
CN106170086B (en) | Method and device thereof, the system of drawing three-dimensional image | |
JP5522794B2 (en) | Stereoscopic image generating apparatus and program thereof | |
JP6018468B2 (en) | Depth range calculation device and program thereof | |
JPH08115439A (en) | Picture data processor and picture reproduction device | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5840022B2 (en) | Stereo image processing device, stereo image imaging device, stereo image display device | |
JPH07129792A (en) | Method and device for image processing | |
JP2011234142A (en) | Stereoscopic image generation device and its program | |
CN107659772B (en) | 3D image generation method and device and electronic equipment | |
KR20200014631A (en) | Image processing method and apparatus of parallel axis typed stereo camera system for 3d-vision of near objects | |
JP6622621B2 (en) | Multi-view camera control device, program thereof, and multi-view video shooting system | |
JP2019185283A (en) | Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system | |
KR101634225B1 (en) | Device and Method for Multi-view image Calibration | |
JP2011211551A (en) | Image processor and image processing method | |
JP3054312B2 (en) | Image processing apparatus and method | |
JP6076083B2 (en) | Stereoscopic image correction apparatus and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220607 |