JP2019185283A - Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system - Google Patents

Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system Download PDF

Info

Publication number
JP2019185283A
JP2019185283A JP2018073633A JP2018073633A JP2019185283A JP 2019185283 A JP2019185283 A JP 2019185283A JP 2018073633 A JP2018073633 A JP 2018073633A JP 2018073633 A JP2018073633 A JP 2018073633A JP 2019185283 A JP2019185283 A JP 2019185283A
Authority
JP
Japan
Prior art keywords
stereoscopic image
dimensional model
image display
depth
model generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018073633A
Other languages
Japanese (ja)
Inventor
健佑 池谷
Takesuke Iketani
健佑 池谷
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018073633A priority Critical patent/JP2019185283A/en
Publication of JP2019185283A publication Critical patent/JP2019185283A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

To provide a three-dimensional model generation apparatus that improves the quality of a stereoscopic image displayed by an IP stereoscopic image display apparatus.SOLUTION: A three-dimensional model generation apparatus 3 comprises: reproduction area setting means 31 for setting a reproduction area of an IP stereoscopic image display apparatus 5 in a virtual space; linear sampling position calculation means 32 for calculating a linear sampling position in the reproduction area set in the virtual space; non-linear sampling position calculation means 33 for calculating a non-linear sampling position where the near side of the reproduction area is denser than the back side from the linear sampling position; and three-dimensional model generation means 34 for performing depth estimation for a multi-viewpoint image at a non-linear sampling position and generating a three-dimensional generation model.SELECTED DRAWING: Figure 2

Description

本発明は、3次元モデル生成装置及びそのプログラム、並びに、IP立体像表示システムに関する。   The present invention relates to a three-dimensional model generation apparatus, a program thereof, and an IP stereoscopic image display system.

任意の視点で自由に立体像を視認することが可能な立体像表示方式の一つとして、インテグラルフォトグラフィ(Integral Photography:以下IP)方式が知られている。このIP方式では、実体のある被写体を1台のカメラで撮影し、平面上に配列されたレンズアレイを利用して要素画像を生成する。また、IP方式では、コンピュータグラフィックス(CG)や複数のカメラで撮影された映像から生成した3次元モデルを用いて、要素画像を生成することもできる。   An integral photography (hereinafter referred to as IP) method is known as one of the three-dimensional image display methods capable of visually recognizing a three-dimensional image freely from an arbitrary viewpoint. In this IP method, an actual subject is photographed with one camera, and an element image is generated using a lens array arranged on a plane. In the IP method, an element image can also be generated using a three-dimensional model generated from images taken by computer graphics (CG) or a plurality of cameras.

このIP方式では、表示される立体像の奥行き位置がレンズアレイやピンホール群から離れると、解像度が低下するという奥行き再現範囲の問題が知られている。図9には、観察者がレンズアレイからある距離(視距離L)だけ離間して立体像を視認したときの立体像の奥行き位置と解像度との関係を図示した。図9において、横軸は視点(z=0)から立体像までの距離(立体像の奥行き位置)、縦軸は立体像の解像度(空間周波数)を示す。ここで、立体像の空間周波数とは、再生された立体像を観察したときに単位角度内に再生できる縞の最大数(視覚あたりの解像度)である。例えば、1度あたりで60画素視認可能であれば、空間周波数は30cpd(cycles per degree)である。   In this IP method, there is a known depth reproduction range problem that the resolution decreases when the depth position of the displayed stereoscopic image is separated from the lens array or the pinhole group. FIG. 9 illustrates the relationship between the depth position of the stereoscopic image and the resolution when the observer visually recognizes the stereoscopic image at a certain distance (viewing distance L) from the lens array. In FIG. 9, the horizontal axis indicates the distance from the viewpoint (z = 0) to the stereoscopic image (the depth position of the stereoscopic image), and the vertical axis indicates the resolution (spatial frequency) of the stereoscopic image. Here, the spatial frequency of the stereoscopic image is the maximum number of stripes (resolution per vision) that can be reproduced within a unit angle when the reproduced stereoscopic image is observed. For example, if 60 pixels are visible per degree, the spatial frequency is 30 cpd (cycles per degree).

図9に示すように、IP方式で再生される立体像の解像度は、レンズアレイ位置(z=L)近傍の前後一定の奥行き再現範囲で最大解像度(ナイキスト周波数)を維持し、その範囲を超えると急激に低下する。この最大解像度は、レンズアレイを構成する要素レンズの間隔(ピッチ)で特定され、この奥行き再現範囲を超えた立体像は、レンズアレイの位置から離れるにつれてボケてしまう。これは、IP方式においては、原理的に立体像がボケずに表示可能な奥行き再現範囲が存在することを意味する。   As shown in FIG. 9, the resolution of the stereoscopic image reproduced by the IP method maintains the maximum resolution (Nyquist frequency) in the constant depth reproduction range near the lens array position (z = L) and exceeds that range. And suddenly drops. This maximum resolution is specified by the interval (pitch) of the element lenses constituting the lens array, and a three-dimensional image exceeding the depth reproduction range becomes blurred as the distance from the lens array position increases. This means that, in the IP system, there is a depth reproduction range in which a stereoscopic image can be displayed without blurring in principle.

そこで、多視点カメラを用いたIP立体撮影手法の3次元モデル生成では、この奥行き再現範囲の問題に対応するために、非線形奥行き圧縮技術が提案されている(例えば、特許文献1)。この従来技術は、図10に示すように、3次元モデルの奥行きを非線形に圧縮することで、IP立体像表示装置の奥行き再現範囲に表示対象の3次元モデルを収めるものである。具体的には、この従来技術は、下記の式(9−1)で表される非線形奥行き圧縮関数を用いて、3次元モデルを変換する。   Therefore, in order to cope with the problem of the depth reproduction range, a nonlinear depth compression technique has been proposed in generating a three-dimensional model of the IP stereoscopic photographing method using a multi-viewpoint camera (for example, Patent Document 1). In this prior art, as shown in FIG. 10, the depth of the three-dimensional model is nonlinearly compressed, and the three-dimensional model to be displayed is placed in the depth reproduction range of the IP stereoscopic image display device. Specifically, this conventional technique converts a three-dimensional model using a nonlinear depth compression function expressed by the following equation (9-1).

Figure 2019185283
Figure 2019185283

なお、x,y,zが奥行き圧縮前の座標値であり、x´,y´,z´が奥行き圧縮後の座標値であり、Dが奥行き圧縮後の奥行範囲(IP立体像表示装置の奥行き再現範囲)を表す。
また、図10では、非線形奥行き圧縮関数の変換結果を実線で図示し、参考として、下記の式(9−2)で表される線形奥行き圧縮関数の変換結果を破線で図示した。なお、式(9−2)において、aは予め設定された圧縮率を表す(但し、0<a<1)。
Note that x, y, and z are coordinate values before depth compression, x ′, y ′, and z ′ are coordinate values after depth compression, and D is a depth range after depth compression (of the IP stereoscopic image display device). Depth reproduction range).
In FIG. 10, the conversion result of the nonlinear depth compression function is illustrated by a solid line, and as a reference, the conversion result of the linear depth compression function represented by the following equation (9-2) is illustrated by a broken line. In Expression (9-2), a represents a preset compression rate (where 0 <a <1).

Figure 2019185283
Figure 2019185283

特開2017−11520号公報JP 2017-11520 A

図11(a)の被写体αを多視点カメラで撮影し、IP立体像表示装置で表示するための3次元モデルβを生成する場合を考える。この場合、図11(b)に示すように、非線形奥行き圧縮前の3次元モデルβを、奥行き方向(Z軸方向)で線形にサンプリングしてから奥行推定を行うことが多い。3次元モデルβに非線形奥行き圧縮を適用した場合、図11(c)に示すように、手前が疎に、奥が密にサンプリングされた3次元モデルβが生成されることになる。IP立体像表示装置においては、3次元モデルβの手前側が奥側よりも顕著に観察者に認識される。その結果、手前側が疎にサンプリングされた3次元モデルβの表示は、立体像の品質低下につながる。
なお、図11(b)及び図11(c)では、Z軸方向のサンプリング位置を破線で図示した。
Consider a case where the subject α in FIG. 11A is photographed with a multi-viewpoint camera and a three-dimensional model β to be displayed on an IP stereoscopic image display device is generated. In this case, as shown in FIG. 11B, the depth estimation is often performed after linearly sampling the three-dimensional model β before nonlinear depth compression in the depth direction (Z-axis direction). When nonlinear depth compression is applied to the three-dimensional model β, as shown in FIG. 11C, a three-dimensional model β sampled with a sparse front and a dense back is generated. In the IP stereoscopic image display device, the front side of the three-dimensional model β is recognized more remarkably by the observer than the back side. As a result, the display of the three-dimensional model β in which the front side is sparsely sampled leads to a reduction in quality of the stereoscopic image.
In FIGS. 11B and 11C, the sampling position in the Z-axis direction is indicated by a broken line.

そこで、本発明は、IP立体像表示装置が表示する立体像の品質を向上させる3次元モデル生成装置及びそのプログラム、並びに、IP立体像表示システムを提供することを課題とする。   Therefore, an object of the present invention is to provide a three-dimensional model generation apparatus and program for improving the quality of a stereoscopic image displayed by the IP stereoscopic image display apparatus, and an IP stereoscopic image display system.

前記した課題に鑑みて、本発明に係る3次元モデル生成装置は、非線形奥行き圧縮された被写体の3次元モデルをIP立体像表示装置で立体表示するために、3次元モデルを生成する3次元モデル生成装置であって、パラメータ入力手段と、再現領域設定手段と、線形サンプリング位置算出手段と、非線形サンプリング位置算出手段と、3次元モデル生成手段と、を備える構成とした。   In view of the above-described problems, a 3D model generation apparatus according to the present invention generates a 3D model for stereoscopic display of a 3D model of a subject subjected to nonlinear depth compression on an IP stereoscopic image display apparatus. The generation apparatus is configured to include parameter input means, reproduction region setting means, linear sampling position calculation means, nonlinear sampling position calculation means, and three-dimensional model generation means.

かかる構成によれば、3次元モデル生成装置は、パラメータ入力手段によって、被写体を撮影する多視点カメラのうち予め定めた1台の基準カメラの姿勢及び画角と、IP立体像表示装置の奥行き方向再現範囲及び画面サイズとがパラメータとして入力される。
3次元モデル生成装置は、再現領域設定手段によって、姿勢及び画角で表される基準カメラの撮影領域に、奥行き方向再現範囲及び画面サイズで表されるIP立体像表示装置の再現領域を設定し、再現領域を3次元モデルが配置される仮想空間に設定する。
According to this configuration, the three-dimensional model generation apparatus uses the parameter input unit to determine the posture and angle of view of one reference camera that is predetermined among the multi-viewpoint cameras that photograph the subject, and the depth direction of the IP stereoscopic image display apparatus. The reproduction range and screen size are input as parameters.
The three-dimensional model generation device sets the reproduction region of the IP stereoscopic image display device represented by the depth direction reproduction range and the screen size in the photographing region of the reference camera represented by the posture and the angle of view by the reproduction region setting means. The reproduction area is set in a virtual space where the three-dimensional model is arranged.

3次元モデル生成装置は、線形サンプリング位置算出手段によって、仮想空間に設定された再現領域において、奥行き方向で等間隔の線形サンプリング位置を算出する。
3次元モデル生成装置は、非線形サンプリング位置算出手段によって、線形サンプリング位置から、再現領域の手前側が奥側よりも密の非線形サンプリング位置を算出する。
3次元モデル生成装置は、3次元モデル生成手段によって、多視点カメラが被写体を撮影した多視点画像に対し、非線形サンプリング位置で奥行き推定を行い、3次元モデルを生成する。
The three-dimensional model generation apparatus calculates linear sampling positions at equal intervals in the depth direction in the reproduction region set in the virtual space by the linear sampling position calculation means.
In the three-dimensional model generation device, the nonlinear sampling position calculation unit calculates a nonlinear sampling position where the near side of the reproduction region is denser than the back side from the linear sampling position.
The three-dimensional model generation device generates a three-dimensional model by performing depth estimation at a non-linear sampling position on a multi-view image obtained by photographing a subject by a multi-view camera using a three-dimensional model generation unit.

また、前記した課題に鑑みて、本発明に係るIP立体像表示システムは、前記した3次元モデル生成装置と、3次元モデル生成装置が生成した3次元モデルを非線形奥行き圧縮し、奥行きが圧縮された3次元モデルの立体画像を生成する立体像奥行き圧縮装置と、立体像奥行き圧縮装置が生成した立体画像を立体表示するIP立体像表示装置と、を備える構成とした。   Further, in view of the above-described problems, the IP stereoscopic image display system according to the present invention performs non-linear depth compression on the 3D model generation device and the 3D model generated by the 3D model generation device, and the depth is compressed. A stereoscopic image depth compression device that generates a stereoscopic image of the three-dimensional model, and an IP stereoscopic image display device that stereoscopically displays the stereoscopic image generated by the stereoscopic image depth compression device.

これにより、3次元モデルは、手前側が奥側よりも密にサンプリングされている。従って、この3次元モデルは、非線形奥行き圧縮の際、観察者に認識されやすい手前側から等間隔でサンプリングされることになる。
なお、前記した3次元モデル生成装置は、一般的なコンピュータを前記した各手段として動作させる3次元モデル生成プログラムで実現することもできる。
Thereby, the front side of the three-dimensional model is sampled more densely than the back side. Therefore, this three-dimensional model is sampled at equal intervals from the near side that is easily recognized by the observer during nonlinear depth compression.
The three-dimensional model generation apparatus described above can also be realized by a three-dimensional model generation program that causes a general computer to operate as each of the above-described means.

本発明によれば、非線形奥行き圧縮後に、観察者に認識されやすい手前側から等間隔でサンプリングされる3次元モデルを生成するので、IP立体像表示装置が表示する立体像の品質を向上させることができる。   According to the present invention, after nonlinear depth compression, a three-dimensional model sampled at equal intervals from the front side that is easily recognized by the observer is generated, so that the quality of the stereoscopic image displayed by the IP stereoscopic image display device is improved. Can do.

本発明の実施形態に係るIP立体像表示システムの全体構成図である。1 is an overall configuration diagram of an IP stereoscopic image display system according to an embodiment of the present invention. 図1のIP立体像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the IP stereoscopic image display system of FIG. 実施形態におけるマスターカメラの撮影領域を説明する説明図である。It is explanatory drawing explaining the imaging | photography area | region of the master camera in embodiment. 実施形態において、マスターカメラの撮影領域に設定したIP立体像表示装置の再現領域を説明する説明図である。In embodiment, it is explanatory drawing explaining the reproduction area | region of the IP stereoscopic image display apparatus set to the imaging | photography area | region of a master camera. 図4の再現領域を垂直方向で示した説明図である。It is explanatory drawing which showed the reproduction area of FIG. 4 in the perpendicular direction. 実施形態において、線形サンプリング位置の算出を説明する説明図であるIn an embodiment, it is an explanatory view explaining calculation of a linear sampling position. 実施形態において、(a)は被写体を表し、(b)は非線形奥行き圧縮前の3次元モデルにおける非線形サンプリング位置を表し、(c)は非線形奥行き圧縮後の3次元モデルにおけるサンプリング位置を表す図である。In the embodiment, (a) represents a subject, (b) represents a nonlinear sampling position in the three-dimensional model before nonlinear depth compression, and (c) represents a sampling position in the three-dimensional model after nonlinear depth compression. is there. 図2のIP立体像表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the IP stereoscopic image display system of FIG. 従来のIP立体像表示装置において、解像度と奥行き再現範囲の関係を示すグラフである。It is a graph which shows the relationship between the resolution and the depth reproduction range in the conventional IP stereoscopic image display device. 従来の非線形奥行き圧縮技術において、変換前後の奥行き位置の関係を示すグラフである。It is a graph which shows the relationship of the depth position before and behind conversion in the conventional nonlinear depth compression technique. 従来技術において、(a)は被写体を表し、(b)は非線形奥行き圧縮前の3次元モデルにおける非線形サンプリング位置を表し、(c)は非線形奥行き圧縮後の3次元モデルにおけるサンプリング位置を表す図である。In the prior art, (a) represents a subject, (b) represents a nonlinear sampling position in a three-dimensional model before nonlinear depth compression, and (c) represents a sampling position in a three-dimensional model after nonlinear depth compression. is there.

(実施形態)
[IP立体像表示システムの全体構成]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、本発明の実施形態に係るIP立体像表示システム1の全体構成について、説明する。
図1に示すように、IP立体像表示システム1は、被写体αの立体像γをIP立体像表示装置5で立体表示するものであり、多視点ロボットカメラ(多視点カメラ)2と、3次元モデル生成装置3と、立体像奥行き圧縮装置4と、IP立体像表示装置5と、測距装置6とを備える。
(Embodiment)
[Overall configuration of IP stereoscopic image display system]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
With reference to FIG. 1, the overall configuration of an IP stereoscopic image display system 1 according to an embodiment of the present invention will be described.
As shown in FIG. 1, the IP stereoscopic image display system 1 displays a stereoscopic image γ of a subject α in a stereoscopic manner on an IP stereoscopic image display device 5. A model generation device 3, a stereoscopic image depth compression device 4, an IP stereoscopic image display device 5, and a distance measuring device 6 are provided.

多視点ロボットカメラ2は、被写体αの多視点画像を撮影し、撮影した多視点画像を3次元モデル生成装置3に出力するものである。本実施形態では、多視点ロボットカメラ2は、マスターカメラ(基準カメラ)2、及び、6台のリファレンスカメラ2〜2の計7台のロボットカメラで構成されている。また、多視点ロボットカメラ2は、ロボットカメラの輻輳角が許容視差角以下となるベースラインで、ロボットカメラが正六角形状に配置されている。
なお、マスターカメラ2とは、カメラマンが操作するロボットカメラのことである。また、リファレンスカメラ2〜2とは、マスターカメラ2に追従するように自動制御されるロボットカメラのことである。
The multi-viewpoint robot camera 2 captures a multi-viewpoint image of the subject α and outputs the captured multi-viewpoint image to the three-dimensional model generation device 3. In the present embodiment, the multi-viewpoint robot camera 2, the master camera (reference camera) 2 M, and, and a six reference camera 2 1 to 2 6 seven robots camera. The multi-viewpoint robot camera 2 has a baseline in which the convergence angle of the robot camera is equal to or less than the allowable parallax angle, and the robot cameras are arranged in a regular hexagonal shape.
The master camera 2M is a robot camera operated by a cameraman. Reference cameras 2 1 to 26 are robot cameras that are automatically controlled to follow the master camera 2M .

多視点ロボットカメラ2では、カメラマンがマスターカメラ2を操作して、注視点を基準とした撮影領域を指定する。すると、多視点ロボットカメラ2は、指定された注視点に向けてリファレンスカメラ2〜2をパン・チルト制御すると共に、この撮影領域が収まる最小画角でリファレンスカメラ2〜2をズーム制御する。このようにして、多視点ロボットカメラ2は、被写体αの多視点画像を撮影する。 In the multi-viewpoint robot camera 2, the cameraman operates the master camera 2M to designate a shooting area based on the gazing point. Then, the multi-viewpoint robot camera 2 performs pan / tilt control of the reference cameras 2 1 to 26 toward the designated gazing point, and zooms the reference cameras 2 1 to 26 with a minimum angle of view within which this shooting area can be accommodated. Control. In this way, the multi-viewpoint robot camera 2 captures a multi-viewpoint image of the subject α.

なお、注視点とは、3次元空間中の各点の中で、観察者Mに注視させたい被写体αの1点のことを言う。
また、多視点ロボットカメラ2の詳細は、下記の参考文献に記載されているため、これ以上の説明を省略する。
参考文献:池谷他、「多視点ロボットカメラを用いたインテグラル立体撮影技術」、映像情報メディア学会技術報告、2017年11月30日
Note that the gazing point refers to one point of the subject α that the observer M wants to gaze at among the points in the three-dimensional space.
Further, details of the multi-viewpoint robot camera 2 are described in the following references, and thus further explanation is omitted.
References: Ikeya et al., “Integral stereoscopic photography using multi-viewpoint robot camera”, IEICE Technical Report, November 30, 2017

3次元モデル生成装置3は、多視点ロボットカメラ2より入力された多視点画像から3次元モデルを生成するものである。
具体的には、3次元モデル生成装置3は、3次元モデルを生成する仮想空間にIP立体像表示装置5の再現領域を設定する。次に、3次元モデル生成装置3は、IP立体像表示装置5の再現領域を奥行き方向に線形にサンプリングする位置を求める。次に、3次元モデル生成装置3は、非線形奥行き圧縮後に等間隔でサンプリングされる3次元モデルを生成するため、手前側が奥側よりも密となる非線形サンプリング位置を求める。そして、3次元モデル生成装置3は、求めた非線形サンプリング位置で奥行き推定を行い、その結果から3次元モデルを生成する。
その後、3次元モデル生成装置3は、生成した3次元モデルを、放送、通信、オフライン等の既知の手法により、立体像奥行き圧縮装置4に出力する。
The three-dimensional model generation device 3 generates a three-dimensional model from the multi-viewpoint image input from the multi-viewpoint robot camera 2.
Specifically, the three-dimensional model generation device 3 sets a reproduction area of the IP stereoscopic image display device 5 in a virtual space where a three-dimensional model is generated. Next, the three-dimensional model generation device 3 obtains a position where the reproduction region of the IP stereoscopic image display device 5 is linearly sampled in the depth direction. Next, since the three-dimensional model generation apparatus 3 generates a three-dimensional model that is sampled at equal intervals after nonlinear depth compression, the three-dimensional model generation device 3 obtains a nonlinear sampling position where the near side is denser than the far side. Then, the three-dimensional model generation device 3 performs depth estimation at the obtained nonlinear sampling position, and generates a three-dimensional model from the result.
Thereafter, the three-dimensional model generation device 3 outputs the generated three-dimensional model to the stereoscopic image depth compression device 4 by a known method such as broadcasting, communication, or offline.

立体像奥行き圧縮装置4は、3次元モデル生成装置3から入力された3次元モデルを非線形奥行き圧縮し、奥行きが圧縮された3次元モデルの要素画像(立体画像)を生成するものである。本実施形態では、立体像奥行き圧縮装置4は、予め設定した変換関数を用いて、観察者MとIP立体像表示装置5との距離(視距離)に応じて、3次元モデルの奥行きを圧縮する。この非線形奥行き圧縮により、手前側が奥側よりも密にサンプリングされた3次元モデルが、所定解像度を満たす奥行き再現範囲内で、等間隔にサンプリングされた3次元モデルに変換される。そして、立体像奥行き圧縮装置4は、圧縮した3次元モデルから要素画像を生成し、生成した要素画像をIP立体像表示装置5に出力する。
なお、立体像奥行き圧縮装置4の詳細は、特開2017−11520号公報に記載されているため、これ以上の説明を省略する。
The stereoscopic image depth compression device 4 performs nonlinear depth compression on the three-dimensional model input from the three-dimensional model generation device 3, and generates an element image (stereoscopic image) of the three-dimensional model with the compressed depth. In the present embodiment, the stereoscopic image depth compression device 4 compresses the depth of the three-dimensional model according to the distance (viewing distance) between the observer M and the IP stereoscopic image display device 5 using a preset conversion function. To do. By this non-linear depth compression, the three-dimensional model sampled closer to the front side than the back side is converted into a three-dimensional model sampled at equal intervals within a depth reproduction range that satisfies a predetermined resolution. Then, the stereoscopic image depth compression device 4 generates an element image from the compressed three-dimensional model, and outputs the generated element image to the IP stereoscopic image display device 5.
Note that details of the stereoscopic image depth compression device 4 are described in Japanese Patent Application Laid-Open No. 2017-11520, and thus further description thereof is omitted.

IP立体像表示装置5は、IP方式で立体像γを表示する一般的なIP立体ディスプレイである。このIP立体像表示装置5は、レンズアレイ及び表示素子で構成される画面5aに、立体像奥行き圧縮装置4から入力された要素画像を表示することで、観察者Mに対して立体像γを提示する。   The IP stereoscopic image display device 5 is a general IP stereoscopic display that displays a stereoscopic image γ by the IP method. The IP stereoscopic image display device 5 displays the elemental image input from the stereoscopic image depth compression device 4 on a screen 5a composed of a lens array and a display element, thereby giving a stereoscopic image γ to the observer M. Present.

測距装置6は、IP立体像表示装置5から観察者Mまでの視距離を測定するものである。この測距装置6は、例えば、一般的な距離センサー等で構成することができる。また、測距装置6は、2台のステレオカメラで観察者Mを撮影したカメラ画像から、強膜反射法や角膜・瞳孔反射法で観察者Mの左右の角膜を検出し、三角測量の原理により視距離を測定してもよい。そして、測距装置6は、測定した視距離を立体像奥行き圧縮装置4に出力する。
なお、IP立体像表示システム1は、予め固定の値を視距離(例えば、画面高の3倍等、推奨の視距離)とする形態であってもよい。その場合、IP立体像表示システム1は、測距装置6を構成から省略してもよい。
The distance measuring device 6 measures the visual distance from the IP stereoscopic image display device 5 to the observer M. The distance measuring device 6 can be constituted by, for example, a general distance sensor. The distance measuring device 6 detects the left and right corneas of the observer M from the camera images obtained by photographing the observer M with two stereo cameras by the sclera reflection method or the cornea / pupil reflection method, and the principle of triangulation The viewing distance may be measured by Then, the distance measuring device 6 outputs the measured viewing distance to the stereoscopic image depth compression device 4.
Note that the IP stereoscopic image display system 1 may have a form in which a fixed value is set as a viewing distance (for example, a recommended viewing distance such as three times the screen height). In that case, the IP stereoscopic image display system 1 may omit the distance measuring device 6 from the configuration.

このようにして、IP立体像表示システム1は、観察者Mの視距離に応じて、所定の解像度を満たした立体像γを表示することができる。このとき、IP立体像表示システム1は、顕著に観察者Mに認識される手前側も含め、等間隔でサンプリングされた3次元モデルの立体像γを表示するので、立体像γの品質を向上させることができる。   In this way, the IP stereoscopic image display system 1 can display the stereoscopic image γ satisfying a predetermined resolution according to the viewing distance of the observer M. At this time, since the IP stereoscopic image display system 1 displays the stereoscopic image γ of the three-dimensional model sampled at equal intervals including the near side that is noticeably recognized by the observer M, the quality of the stereoscopic image γ is improved. Can be made.

[3次元モデル生成装置の構成]
図2を参照し、3次元モデル生成装置3の構成について説明する。
図2に示すように、3次元モデル生成装置3は、パラメータ入力手段30と、再現領域設定手段31と、線形サンプリング位置算出手段32と、非線形サンプリング位置算出手段33と、3次元モデル生成手段34とを備える。
[Configuration of 3D model generator]
The configuration of the three-dimensional model generation device 3 will be described with reference to FIG.
As shown in FIG. 2, the three-dimensional model generation apparatus 3 includes a parameter input unit 30, a reproduction region setting unit 31, a linear sampling position calculation unit 32, a nonlinear sampling position calculation unit 33, and a three-dimensional model generation unit 34. With.

パラメータ入力手段30は、3次元モデルの生成に必要な各種パラメータを入力するものである。本実施形態では、パラメータ入力手段30は、パラメータとして、多視点ロボットカメラ2から、マスターカメラ2の姿勢及び画角と、デプスとを取得する。また、3次元モデル生成装置3のユーザが、図示を省略したマウス、キーボード等の操作手段を用いて、IP立体像表示装置5の奥行き方向再現範囲、画面サイズ及び飛び出し量をパラメータ入力手段30に入力する。
その後、パラメータ入力手段30は、入力された各種パラメータを再現領域設定手段31に出力する。
The parameter input means 30 inputs various parameters necessary for generating a three-dimensional model. In the present embodiment, the parameter input unit 30 acquires the attitude and angle of view of the master camera 2M and the depth from the multi-viewpoint robot camera 2 as parameters. Further, the user of the three-dimensional model generation apparatus 3 uses the operation means such as a mouse and a keyboard (not shown) to set the depth direction reproduction range, screen size, and pop-out amount of the IP stereoscopic image display apparatus 5 to the parameter input means 30. input.
Thereafter, the parameter input means 30 outputs the input various parameters to the reproduction area setting means 31.

<パラメータの説明>
図3を参照し、パラメータ入力手段30に入力される各種パラメータについて説明する。
図3に示すように、マスターカメラ2の姿勢は、カメラマンがマスターカメラ2を操作して被写体αを撮影したときのパン・チルトを表す。また、マスターカメラ2の画角θは、カメラマンがマスターカメラ2を操作して被写体αを撮影したときの水平方向及び垂直方向の画角を表す。また、デプスdは、マスターカメラ2から注視点Pまでの距離を表す。
なお、図3では、X軸が水平方向を表し、Y軸が垂直方向を表し、Z軸が奥行き方向を表す。
<Description of parameters>
Various parameters input to the parameter input unit 30 will be described with reference to FIG.
As shown in FIG. 3, the attitude of the master camera 2 M represents a pan-tilt when the cameraman photographing an object α by operating the master camera 2 M. Further, the angle θ of the master camera 2 M represents a field angle in the horizontal direction and the vertical direction when the cameraman photographing an object α by operating the master camera 2 M. In addition, the depth d represents the distance from the master camera 2 M to gaze point P.
In FIG. 3, the X axis represents the horizontal direction, the Y axis represents the vertical direction, and the Z axis represents the depth direction.

IP立体像表示装置5の奥行き方向再現範囲は、IP立体像表示装置5が奥行き方向(Z軸方向)で立体像γ(図1)を再現できる範囲を表す。図4に示すように、IP立体像表示装置5の奥行き方向再現範囲は、IP立体像表示装置5の画面5aを中心とした、手前再現範囲(再現領域ARの手前位置)z´rnから奥再現範囲(再現領域ARの奥側位置)z´rfまでの間を表す。IP立体像表示装置5の画面サイズは、IP立体像表示装置5の画面5aの幅及び高さを表す。IP立体像表示装置5の飛び出し量は、注視点PがIP立体像表示装置5の画面5aから奥行き方向に離れて表示される距離を表す。 The depth direction reproduction range of the IP stereoscopic image display device 5 represents a range in which the IP stereoscopic image display device 5 can reproduce the stereoscopic image γ (FIG. 1) in the depth direction (Z-axis direction). As shown in FIG. 4, the depth direction reproduction range of the IP stereoscopic image display device 5 is from the near reproduction range (front position of the reproduction area AR) z ′ rn around the screen 5 a of the IP stereoscopic image display device 5. This represents the range up to the reproduction range (the rear side position of the reproduction region AR) z ′ rf . The screen size of the IP stereoscopic image display device 5 represents the width and height of the screen 5a of the IP stereoscopic image display device 5. The pop-out amount of the IP stereoscopic image display device 5 represents the distance at which the gazing point P is displayed away from the screen 5a of the IP stereoscopic image display device 5 in the depth direction.

図2に戻り、3次元モデル生成装置3の構成について、説明を続ける。
再現領域設定手段31は、マスターカメラ2の撮影領域に、IP立体像表示装置5の再現領域を設定し、IP立体像表示装置5の再現領域を3次元モデルが配置される仮想空間に設定するものである。ここで、マスターカメラ2の撮影領域は、図3に破線で図示したように、マスターカメラ2の姿勢及び画角θで表される、実空間上の領域である。また、IP立体像表示装置5の再現領域は、IP立体像表示装置5の奥行き方向再現範囲及び画面サイズで表される。図4の太線で囲われた領域が、IP立体像表示装置5の再現領域ARである。
Returning to FIG. 2, the description of the configuration of the three-dimensional model generation device 3 will be continued.
The reproduction area setting means 31 sets the reproduction area of the IP stereoscopic image display device 5 in the photographing area of the master camera 2M , and sets the reproduction area of the IP stereoscopic image display device 5 in a virtual space in which the three-dimensional model is arranged. To do. Here, the imaging area of the master camera 2 M, as shown by a broken line in FIG. 3, represented by the position of the master camera 2 M and the angle theta, is a region in the real space. The reproduction area of the IP stereoscopic image display device 5 is represented by the depth direction reproduction range and the screen size of the IP stereoscopic image display device 5. A region surrounded by a thick line in FIG. 4 is a reproduction region AR of the IP stereoscopic image display device 5.

まず、再現領域設定手段31は、デプスd、水平方向の画角θ、画面サイズ(画面幅W)及び飛び出し量Δが含まれる式(1)を用いて、縮尺比kを算出する。この縮尺比kは、仮想空間と実空間とのスケールの比を表す。具体的には、再現領域設定手段31は、パラメータ入力手段30から入力されたデプスd、画角θ、画面サイズW及び飛び出し量Δを式(1)に代入し、縮尺比kを算出する。   First, the reproduction region setting unit 31 calculates the scale ratio k using the equation (1) including the depth d, the horizontal angle of view θ, the screen size (screen width W), and the pop-out amount Δ. The scale ratio k represents the ratio of the scale between the virtual space and the real space. Specifically, the reproduction region setting unit 31 calculates the scale ratio k by substituting the depth d, the angle of view θ, the screen size W, and the pop-out amount Δ input from the parameter input unit 30 into Expression (1).

Figure 2019185283
Figure 2019185283

次に、再現領域設定手段31は、IP立体像表示装置5の再現領域ARを縮尺比kに応じたスケールでマスターカメラ2の撮影領域(実空間)に設定する。このとき、実空間上の再現領域ARは、図4に示すように、画面5aにおける幅がkWとなり、実空間上の飛び出し量がkΔとなる。また、奥行き方向再現範囲は、画面5aを中心としてkDとなる。従って、再現領域ARの手前再現範囲z´rn及び奥再現範囲z´rfは、以下の式(2)で表すことができる。 Next, the reproduction area setting unit 31 sets the reproduction area AR of the IP stereoscopic image display device 5 to the photographing area (real space) of the master camera 2M with a scale corresponding to the scale ratio k. At this time, as shown in FIG. 4, the reproduction area AR in the real space has a width of kW on the screen 5a and a pop-up amount in the real space of kΔ. The depth direction reproduction range is kD with the screen 5a as the center. Therefore, before reproduction range z 'rn and the rear gamut z' rf reproduction region AR can be expressed by the following equation (2).

Figure 2019185283
Figure 2019185283

次に、再現領域設定手段31は、3次元モデルを生成する仮想空間のスケールを実空間と等しくし、実空間に規定したIP立体像表示装置5の再現領域ARを仮想空間に同一の位置及びスケールで設定する。
その後、再現領域設定手段31は、IP立体像表示装置5の再現領域AR及び縮尺比kと、各種パラメータとを線形サンプリング位置算出手段32に出力する。
なお、再現領域設定手段31は、水平方向だけでなく、図5に示すように、垂直方向にもIP立体像表示装置5の再現領域ARを設定する。この図5では、θが垂直方向の画角を表し、Hが画面高さを表す。従って、IP立体像表示装置5の再現領域ARは、図4及び図5では台形状となっているが、実際には四角錐台状の領域となる。
Next, the reproduction region setting unit 31 makes the virtual space scale for generating the three-dimensional model equal to the real space, and sets the reproduction region AR of the IP stereoscopic image display device 5 defined in the real space at the same position and in the virtual space. Set by scale.
Thereafter, the reproduction region setting unit 31 outputs the reproduction region AR and the scale ratio k of the IP stereoscopic image display device 5 and various parameters to the linear sampling position calculation unit 32.
The reproduction area setting means 31 sets the reproduction area AR of the IP stereoscopic image display device 5 not only in the horizontal direction but also in the vertical direction as shown in FIG. In FIG. 5, θ H represents the angle of view in the vertical direction, and H represents the screen height. Therefore, the reproduction area AR of the IP stereoscopic image display device 5 has a trapezoidal shape in FIGS. 4 and 5, but is actually a quadrangular pyramid shaped area.

線形サンプリング位置算出手段32は、再現領域設定手段31が設定したIP立体像表示装置5の再現領域ARにおいて、等間隔の線形サンプリング位置を算出するものである。本実施形態では、線形サンプリング位置算出手段32は、奥行き方向で奥再現範囲z´rfを超えない範囲において、線形サンプリング位置を算出する。つまり、線形サンプリング位置算出手段32は、図6に示すように、手前再現範囲z´rnから奥再現範囲z´rfの手前まで、奥行き方向で等間隔に線形サンプリング位置z´を求める。ここで、線形サンプリング位置z´の個数は、任意に定めることができる。図6の例では、奥再現範囲z´rfを含めないので、線形サンプリング位置z´が4個である。
その後、線形サンプリング位置算出手段32は、算出した線形サンプリング位置z´と、手前再現範囲z´rnと、縮尺比kと、各種パラメータとを非線形サンプリング位置算出手段33に出力する。
The linear sampling position calculation means 32 calculates linear sampling positions at equal intervals in the reproduction area AR of the IP stereoscopic image display device 5 set by the reproduction area setting means 31. In the present embodiment, the linear sampling position calculating means 32, to the extent that in the depth direction does not exceed the inner gamut z 'rf, it calculates a linear sampling position. That is, as shown in FIG. 6, the linear sampling position calculation means 32 obtains linear sampling positions z ′ r at equal intervals in the depth direction from the near reproduction range z ′ rn to the near reproduction range z ′ rf . Here, the number of linear sampling positions z ′ r can be arbitrarily determined. In the example of FIG. 6, since the back reproduction range z ′ rf is not included, the number of linear sampling positions z ′ r is four.
Thereafter, the linear sampling position calculation means 32 outputs the calculated linear sampling position z ′ r , the near reproduction range z ′ rn , the scale ratio k, and various parameters to the nonlinear sampling position calculation means 33.

非線形サンプリング位置算出手段33は、線形サンプリング位置算出手段32より入力された線形サンプリング位置z´から、IP立体像表示装置5の再現領域の手前側が奥側よりも密の非線形サンプリング位置を算出するものである。具体的には、非線形サンプリング位置算出手段33は、以下の式(3)に、線形サンプリング位置z´と、手前再現範囲z´rnと、縮尺比kと、奥行き方向再現範囲Dとを代入し、非線形サンプリング位置zを算出する。
その後、非線形サンプリング位置算出手段33は、算出した非線形サンプリング位置z及び各種パラメータを3次元モデル生成手段34に出力する。
Nonlinear sampling position calculating means 33, the linear sampling position calculating means 32 linear sampling position z 'r input from the near side of the reproduction area of IP stereoscopic image display device 5 calculates the nonlinear sampling position of the dense than the back side Is. Specifically, the non-linear sampling position calculation means 33 substitutes the linear sampling position z ′ r , the near reproduction range z ′ rn , the scale ratio k, and the depth direction reproduction range D into the following equation (3). Then, the non-linear sampling position zr is calculated.
Thereafter, the non-linear sampling position calculation means 33 outputs the calculated non-linear sampling position z r and various parameters to the three-dimensional model generation means 34.

Figure 2019185283
Figure 2019185283

3次元モデル生成手段34は、多視点ロボットカメラ2から入力された多視点画像に対し、非線形サンプリング位置算出手段33から入力された非線形サンプリング位置zで奥行き推定を行い、3次元モデルを生成するものである。本実施形態では、3次元モデル生成手段34は、ステレオマッチングを用いて、多視点画像から3次元モデルを生成する。 3D model generation unit 34, with respect to multi-view images input from the multiview robot camera 2 performs depth estimation nonlinear sampling position z r input from the nonlinear sampling position calculating means 33, to generate a three-dimensional model Is. In the present embodiment, the three-dimensional model generation unit 34 generates a three-dimensional model from the multi-viewpoint image using stereo matching.

まず、3次元モデル生成手段34は、多視点ロボットカメラ2に対し、既知のカメラキャリブレーションを施す。次に、3次元モデル生成手段34は、奥行き推定の対象となる1台のロボットカメラ(以下、対象カメラ2)と、他のロボットカメラ(以下、参照カメラ2)とを組み合わせて、カメラペアを6つ設定する。そして、3次元モデル生成手段34は、それぞれのカメラペアのステレオマッチングによって、以下の式(4)に示すように、正規化相互相関(ZNCC)に基づいたコストCを算出し、奥行き推定を行う。 First, the three-dimensional model generation unit 34 performs known camera calibration on the multi-viewpoint robot camera 2. Next, the three-dimensional model generation means 34 combines one robot camera (hereinafter referred to as the target camera 2 A ) to be depth-estimated with another robot camera (hereinafter referred to as the reference camera 2 B ). Set 6 pairs. Then, the three-dimensional model generation unit 34 calculates the cost C based on the normalized cross-correlation (ZNCC) as shown in the following equation (4) by stereo matching of each camera pair, and performs depth estimation. .

Figure 2019185283
Figure 2019185283

なお、mはカメラペア番号、pは処理対象の画素、lは奥行き値のラベル、minは最小値を返す関数、R(p)は画素pを中心としたブロック内の画素集合、i,jはブロック内の画素のインデックス、Iは対象カメラ2が撮影した視点映像の画素値、I ̄は画素値Iの平均値、I´は参照カメラ2が撮影した視点映像の画素値、I´ ̄は画素値I´の平均値、d(l)は奥行き値のラベルに対応した視差値、Tは予め設定した閾値を表す。
また、式(4)では、非線形サンプリング位置算出手段33から入力された非線形サンプリング位置zが、d(l)に反映される。すなわち、式(4)のd(l)が、非線形サンプリング位置zでサンプリングされた視差値を表す。
Note that m is a camera pair number, p is a pixel to be processed, l is a depth value label, min is a function that returns a minimum value, R (p) is a pixel set in a block centered on the pixel p, i, j pixel values of the index of the pixels in the block, I is view image target camera 2 a is taken, it is an average value of the pixel values I, I'the pixel values of the view image reference camera 2 B is taken, I '¯ the average value of pixel values I', d (l) is the disparity value corresponding to the label of the depth value represents a T D is a threshold set in advance.
In the equation (4), the non-linear sampling position z r input from the non-linear sampling position calculation means 33 is reflected in d (l). That, d of formula (4) (l) is representative of the sampled parallax values in the nonlinear sampling position z r.

そして、3次元モデル生成手段34は、全てのカメラペアのコストCを統合(平均)し、コストボリュームフィルタリング(Cost Volume Filtering)を適用し、統合したコストが最小となる奥行き値を各画素に割り当てる。さらに、3次元モデル生成手段34は、割り当てた奥行き値に基づいて、視点画像の全画素を仮想空間に投影し、3次元点群モデル(3次元モデル)を生成する。   Then, the three-dimensional model generation unit 34 integrates (averages) the costs C of all the camera pairs, applies cost volume filtering, and assigns a depth value that minimizes the integrated cost to each pixel. . Further, the three-dimensional model generation unit 34 projects all pixels of the viewpoint image on the virtual space based on the assigned depth value, and generates a three-dimensional point cloud model (three-dimensional model).

その後、3次元モデル生成手段34は、生成した3次元モデルを立体像奥行き圧縮装置4に出力する。
なお、多視点画像から3次元モデルを生成する手法は、前記した参考文献に記載されているため、これ以上の説明を省略する。
Thereafter, the three-dimensional model generation unit 34 outputs the generated three-dimensional model to the stereoscopic image depth compression device 4.
Note that the method for generating a three-dimensional model from a multi-viewpoint image is described in the above-mentioned reference document, and thus further description thereof is omitted.

ここで、図7(a)の被写体αを多視点ロボットカメラ2で撮影し、IP立体像表示装置5が表示する3次元モデルβを生成する場合を考える。図7(b)に示すように、3次元モデル生成手段34は、手前側が奥側よりも密にサンプリングされた3次元モデルβを生成する。そして、立体像奥行き圧縮装置4は、手前が疎、奥が密となるように非線形奥行き圧縮を行うので、図7(c)に示すように、等間隔にサンプリングされた3次元モデルβを生成できる。   Here, a case where the subject α in FIG. 7A is photographed by the multi-viewpoint robot camera 2 and a three-dimensional model β displayed by the IP stereoscopic image display device 5 is generated is considered. As shown in FIG. 7B, the three-dimensional model generation unit 34 generates a three-dimensional model β in which the front side is sampled more densely than the back side. The stereoscopic image depth compression apparatus 4 performs nonlinear depth compression so that the front side is sparse and the back side is dense, so that a three-dimensional model β sampled at equal intervals is generated as shown in FIG. it can.

[IP立体像表示システムの動作]
図8を参照し、IP立体像表示システム1の動作について説明する(適宜図2参照)。
ここで、多視点ロボットカメラ2が多視点画像を撮影し、パラメータが3次元モデル生成装置3に入力されていることとする。
[Operation of IP stereoscopic image display system]
The operation of the IP stereoscopic image display system 1 will be described with reference to FIG. 8 (see FIG. 2 as appropriate).
Here, it is assumed that the multi-viewpoint robot camera 2 captures a multi-viewpoint image and parameters are input to the three-dimensional model generation device 3.

図8に示すように、再現領域設定手段31は、仮想空間にIP立体像表示装置5の再現領域ARを設定する(ステップS1)。
線形サンプリング位置算出手段32は、ステップS1で設定したIP立体像表示装置5の再現領域ARにおいて、奥行き方向で等間隔の線形サンプリング位置z´を算出する(ステップS2)。
As shown in FIG. 8, the reproduction area setting means 31 sets the reproduction area AR of the IP stereoscopic image display device 5 in the virtual space (step S1).
The linear sampling position calculation means 32 calculates linear sampling positions z ′ r equally spaced in the depth direction in the reproduction area AR of the IP stereoscopic image display device 5 set in step S1 (step S2).

非線形サンプリング位置算出手段33は、ステップS2で算出した線形サンプリング位置z´から、IP立体像表示装置5の再現領域ARの手前側が奥側よりも密の非線形サンプリング位置zを算出する(ステップS3)。
3次元モデル生成手段34は、多視点ロボットカメラ2が撮影した多視点画像に対し、ステップS3で算出した非線形サンプリング位置zで奥行き推定を行い(ステップS4)、3次元モデルβを生成する(ステップS5)。この3次元モデルβは、手前側が奥側よりも密となるように、非線形でサンプリングされている。
Nonlinear sampling position calculating means 33, the linear sampling position z 'r calculated in step S2, the front side of the reproduction area AR of the IP stereoscopic image display device 5 calculates the nonlinear sampling position z r dense than the back side (step S3).
3D model generation unit 34, with respect to the multi-view image multiview robot camera 2 is taken, performs depth estimation nonlinear sampling position z r calculated in step S3 (step S4), and generates a three-dimensional model beta ( Step S5). This three-dimensional model β is sampled non-linearly so that the near side is denser than the far side.

立体像奥行き圧縮装置4は、ステップS5で生成した3次元モデルβを非線形奥行き圧縮し(ステップS6)、等間隔でサンプリングされた3次元モデルから要素画像を生成する。
IP立体像表示装置5は、立体像奥行き圧縮装置4が生成した要素画像を表示する。
The stereoscopic image depth compression apparatus 4 nonlinearly compresses the three-dimensional model β generated in step S5 (step S6), and generates an element image from the three-dimensional model sampled at equal intervals.
The IP stereoscopic image display device 5 displays the element image generated by the stereoscopic image depth compression device 4.

[作用・効果]
以上のように、本発明の実施形態に係る3次元モデル生成装置3は、非線形奥行き圧縮前、手前側が奥側よりも密にサンプリングされた3次元モデルβを生成する(図7(b))。そして、立体像奥行き圧縮装置4は、非線形奥行き圧縮により、観察者に認識されやすい手前側から等間隔でサンプリングされた3次元モデルβを生成し(図7(c))、この3次元モデルβから要素画像を生成する。従って、IP立体像表示装置5は、高品質な立体像γを表示することができる。
[Action / Effect]
As described above, the three-dimensional model generation device 3 according to the embodiment of the present invention generates the three-dimensional model β in which the front side is sampled more densely than the back side before nonlinear depth compression (FIG. 7B). . Then, the stereoscopic image depth compression apparatus 4 generates a three-dimensional model β sampled at equal intervals from the near side that is easily recognized by the observer by nonlinear depth compression (FIG. 7C), and this three-dimensional model β. An element image is generated from Therefore, the IP stereoscopic image display device 5 can display a high-quality stereoscopic image γ.

(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、多視点カメラが正六角形状に配置された7台のロボットカメラであることとして説明したが、多視点カメラの台数及び配置はこれに制限されない。例えば、多視点カメラは、一般的なステレオカメラであってもよい。
(Modification)
As mentioned above, although embodiment of this invention was explained in full detail, this invention is not limited to above-described embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
In the above-described embodiment, the multi-view camera is described as seven robot cameras arranged in a regular hexagon. However, the number and arrangement of the multi-view cameras are not limited to this. For example, the multi-view camera may be a general stereo camera.

前記した実施形態では、ステレオマッチングにより3次元モデルを生成することとして説明したが、3次元モデルの生成手法は、これに限定されない。
前記した実施形態では、変換関数により非線形奥行き圧縮を行うこととして説明したが、非線形奥行き圧縮の手法は、これに限定されない。
In the above-described embodiment, it has been described that a three-dimensional model is generated by stereo matching, but the method of generating a three-dimensional model is not limited to this.
In the above-described embodiment, it has been described that nonlinear depth compression is performed by a conversion function, but the nonlinear depth compression method is not limited to this.

前記した実施形態では、3次元モデル生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した3次元モデル生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In the above-described embodiment, the three-dimensional model generation apparatus has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as the above-described three-dimensional model generation apparatus. These programs may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

1 IP立体像表示システム
2 多視点ロボットカメラ(多視点カメラ)
マスターカメラ(基準カメラ)
〜2 リファレンスカメラ
3 3次元モデル生成装置
4 立体像奥行き圧縮装置
5 IP立体像表示装置
6 測距装置
30 パラメータ入力手段
31 再現領域設定手段
32 線形サンプリング位置算出手段
33 非線形サンプリング位置算出手段
34 3次元モデル生成手段
AR 再現領域
M 観察者
P 注視点
α 被写体
β 3次元モデル
γ 立体像
1 IP stereoscopic image display system 2 Multi-viewpoint robot camera (multi-viewpoint camera)
2 M master camera (reference camera)
2 1 to 2 6 Reference camera 3 Three-dimensional model generation device 4 Stereoscopic image depth compression device 5 IP stereoscopic image display device 6 Distance measuring device 30 Parameter input means 31 Reproduction area setting means 32 Linear sampling position calculation means 33 Nonlinear sampling position calculation means 34 3D model generation means AR reproduction area M observer P gazing point α subject β 3D model γ 3D image

Claims (5)

非線形奥行き圧縮された被写体の3次元モデルをIP立体像表示装置で立体表示するために、前記3次元モデルを生成する3次元モデル生成装置であって、
前記被写体を撮影する多視点カメラのうち予め定めた1台の基準カメラの姿勢及び画角と、前記IP立体像表示装置の奥行き方向再現範囲及び画面サイズとがパラメータとして入力されるパラメータ入力手段と、
前記姿勢及び前記画角で表される基準カメラの撮影領域に、前記奥行き方向再現範囲及び前記画面サイズで表される前記IP立体像表示装置の再現領域を設定し、当該再現領域を前記3次元モデルが配置される仮想空間に設定する再現領域設定手段と、
前記仮想空間に設定された再現領域において、奥行き方向で等間隔の線形サンプリング位置を算出する線形サンプリング位置算出手段と、
前記線形サンプリング位置から、前記再現領域の手前側が奥側よりも密の非線形サンプリング位置を算出する非線形サンプリング位置算出手段と、
前記多視点カメラが前記被写体を撮影した多視点画像に対し、前記非線形サンプリング位置で奥行き推定を行い、前記3次元モデルを生成する3次元モデル生成手段と、
を備えることを特徴とする3次元モデル生成装置。
A three-dimensional model generation device that generates the three-dimensional model in order to stereoscopically display a three-dimensional model of a subject subjected to nonlinear depth compression on an IP stereoscopic image display device,
Parameter input means for inputting, as parameters, the posture and angle of view of a predetermined reference camera of the multi-viewpoint camera that captures the subject, and the depth direction reproduction range and screen size of the IP stereoscopic image display device; ,
A reproduction region of the IP stereoscopic image display device represented by the depth direction reproduction range and the screen size is set in the photographing region of the reference camera represented by the posture and the angle of view, and the reproduction region is the three-dimensional Reproduction area setting means for setting in the virtual space where the model is placed,
Linear sampling position calculation means for calculating linear sampling positions at equal intervals in the depth direction in the reproduction region set in the virtual space;
From the linear sampling position, a nonlinear sampling position calculation means for calculating a nonlinear sampling position where the near side of the reproduction region is denser than the back side;
3D model generation means for performing depth estimation at the non-linear sampling position on the multi-viewpoint image obtained by capturing the subject by the multi-viewpoint camera, and generating the 3D model;
A three-dimensional model generation device comprising:
前記再現領域設定手段は、前記基準カメラから前記被写体までの距離を表すデプスd、前記画角θ、前記画面サイズW、及び、前記IP立体像表示装置の飛び出し量Δが含まれる式(1)を用いて、前記撮影領域と前記再現領域の縮尺比kを算出し、
Figure 2019185283
前記撮影領域に前記縮尺比kに応じた寸法の前記再現領域を設定することを特徴とする請求項1に記載の3次元モデル生成装置。
The reproduction area setting means includes a depth d representing the distance from the reference camera to the subject, the angle of view θ, the screen size W, and the pop-up amount Δ of the IP stereoscopic image display device (1) Is used to calculate the scale ratio k between the shooting area and the reproduction area,
Figure 2019185283
The three-dimensional model generation apparatus according to claim 1, wherein the reproduction region having a size corresponding to the scale ratio k is set in the photographing region.
前記非線形サンプリング位置算出手段は、前記奥行き方向再現範囲D、及び、前記再現領域の手前位置z´rnが含まれる式(3)を用いて、前記非線形サンプリング位置zを算出する
Figure 2019185283
ことを特徴とする請求項2に記載の3次元モデル生成装置。
The non-linear sampling position calculation means calculates the non-linear sampling position z r using Expression (3) including the depth direction reproduction range D and the position z ′ rn in front of the reproduction area.
Figure 2019185283
The three-dimensional model generation apparatus according to claim 2.
コンピュータを、請求項1から請求項3の何れか一項に記載の3次元モデル生成装置として機能させるための3次元モデル生成プログラム。   A three-dimensional model generation program for causing a computer to function as the three-dimensional model generation device according to any one of claims 1 to 3. 請求項1から請求項3の何れか一項に記載の3次元モデル生成装置と、
前記3次元モデル生成装置が生成した3次元モデルを非線形奥行き圧縮し、奥行きが圧縮された前記3次元モデルの立体画像を生成する立体像奥行き圧縮装置と、
前記立体像奥行き圧縮装置が生成した立体画像を立体表示するIP立体像表示装置と、
を備えることを特徴とするIP立体像表示システム。
The three-dimensional model generation device according to any one of claims 1 to 3,
A stereoscopic image depth compression device that nonlinearly compresses the three-dimensional model generated by the three-dimensional model generation device and generates a stereoscopic image of the three-dimensional model in which the depth is compressed;
An IP stereoscopic image display device that stereoscopically displays a stereoscopic image generated by the stereoscopic image depth compression device;
An IP stereoscopic image display system comprising:
JP2018073633A 2018-04-06 2018-04-06 Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system Pending JP2019185283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018073633A JP2019185283A (en) 2018-04-06 2018-04-06 Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018073633A JP2019185283A (en) 2018-04-06 2018-04-06 Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system

Publications (1)

Publication Number Publication Date
JP2019185283A true JP2019185283A (en) 2019-10-24

Family

ID=68341255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018073633A Pending JP2019185283A (en) 2018-04-06 2018-04-06 Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system

Country Status (1)

Country Link
JP (1) JP2019185283A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111859A (en) * 2020-01-09 2021-08-02 日本放送協会 Stereoscopic image generation device and program thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011520A (en) * 2015-06-23 2017-01-12 日本放送協会 Stereoscopic image depth conversion device and program therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011520A (en) * 2015-06-23 2017-01-12 日本放送協会 Stereoscopic image depth conversion device and program therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"2 立体映像 ", NHK技研 研究年報 2016, JPN6021049512, May 2017 (2017-05-01), pages 18 - 23, ISSN: 0004791829 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111859A (en) * 2020-01-09 2021-08-02 日本放送協会 Stereoscopic image generation device and program thereof
JP7437941B2 (en) 2020-01-09 2024-02-26 日本放送協会 Stereoscopic image generation device and its program

Similar Documents

Publication Publication Date Title
JP5887267B2 (en) 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method
JP6734620B2 (en) Video processing method and video processing apparatus
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
TWI547901B (en) Simulating stereoscopic image display method and display device
US9443338B2 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
JPH07287761A (en) Device and method for processing picture
JP2000354257A (en) Image processor, image processing method and program provision medium
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP6406853B2 (en) Method and apparatus for generating optical field images
CN106170086B (en) Method and device thereof, the system of drawing three-dimensional image
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP6018468B2 (en) Depth range calculation device and program thereof
JPH08115439A (en) Picture data processor and picture reproduction device
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP5840022B2 (en) Stereo image processing device, stereo image imaging device, stereo image display device
JPH07129792A (en) Method and device for image processing
JP2011234142A (en) Stereoscopic image generation device and its program
CN107659772B (en) 3D image generation method and device and electronic equipment
KR20200014631A (en) Image processing method and apparatus of parallel axis typed stereo camera system for 3d-vision of near objects
JP6622621B2 (en) Multi-view camera control device, program thereof, and multi-view video shooting system
JP2019185283A (en) Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system
KR101634225B1 (en) Device and Method for Multi-view image Calibration
JP2011211551A (en) Image processor and image processing method
JP3054312B2 (en) Image processing apparatus and method
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607