JP2021196915A - Stereoscopic image depth control device and program thereof - Google Patents

Stereoscopic image depth control device and program thereof Download PDF

Info

Publication number
JP2021196915A
JP2021196915A JP2020103436A JP2020103436A JP2021196915A JP 2021196915 A JP2021196915 A JP 2021196915A JP 2020103436 A JP2020103436 A JP 2020103436A JP 2020103436 A JP2020103436 A JP 2020103436A JP 2021196915 A JP2021196915 A JP 2021196915A
Authority
JP
Japan
Prior art keywords
depth
vertex
stereoscopic image
coordinates
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020103436A
Other languages
Japanese (ja)
Inventor
山斗 宮下
Yamato Miyashita
康仁 澤畠
Yasuhito Sawahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2020103436A priority Critical patent/JP2021196915A/en
Publication of JP2021196915A publication Critical patent/JP2021196915A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a stereoscopic image depth control device capable of adjusting the ratio between the distortion of space and the distortion of shape.SOLUTION: A stereoscopic image depth control device 4 includes: a static vertex coordinate calculation unit 41 that calculates static vertex coordinates, which are coordinates of each vertex included in a three-dimensional model, by static depth compression; a dynamic vertex coordinate calculation unit 42 that calculates dynamic vertex coordinates, which are coordinates of each vertex included in a three-dimensional model according to a viewing position, by dynamic depth compression; a vertex coordinate adjustment unit 43 that adjusts coordinates of each vertex between the static vertex coordinates and the dynamic vertex coordinates based on an adjustment ratio; and an element image generation unit 44 that generates an element image from the three-dimensional model after the coordinates of each vertex are adjusted.SELECTED DRAWING: Figure 3

Description

本発明は、被写体の3次元モデルを奥行き圧縮する立体像奥行き制御装置及びそのプログラムに関する。 The present invention relates to a stereoscopic image depth control device for depth compression of a three-dimensional model of a subject and a program thereof.

インテグラル3Dディスプレイは、要素画像を表示したフラットディスプレイにレンズアレイを重ね合わせて配置したものであり、特別な眼鏡なしで、あたかもそこに物体があるかのような表示が可能である。インテグラル方式は、3次元空間中の光線を再現することで、水平・垂直方向の両眼視差および運動視差を眼鏡なしで自然に提示することができる。また、インテグラル方式は、物体から出る光線を再現することから、3Dディスプレイの主な課題である輻輳と調節が不一致となる問題を回避することができる。 The integral 3D display is a flat display on which an element image is displayed and a lens array is superposed on the display, and it is possible to display as if there is an object there without special glasses. The integral method can naturally present horizontal and vertical binocular parallax and motion parallax without spectacles by reproducing light rays in three-dimensional space. Further, since the integral method reproduces the light beam emitted from the object, it is possible to avoid the problem that the congestion and the adjustment are inconsistent, which is the main problem of the 3D display.

一方で、インテグラル方式のような空間像再生型の3Dディスプレイでは、奥行きの広いシーンの提示が困難という課題がある。具体的には、レンズアレイ面から奥行き方向に離れるほど空間周波数が低下するため、離れた位置に像を表示すると、その像が大きくぼやけてしまう。図8に示すように、インテグラル方式で再生される立体像の解像度(空間周波数γ)は、レンズアレイ位置(z=0)近傍の前後一定の奥行き再現範囲で所定解像度(ナイキスト周波数)を維持し、その範囲を超えると急激に低下する特性を有する。この所定解像度は、レンズアレイを構成する要素レンズの間隔(ピッチ)で特定され、この奥行き再現範囲を超えた立体像は、レンズアレイの位置から離れるにつれてぼやけてしまう。これは、インテグラル方式においては、原理的に立体像がぼやけずに表示可能な奥行き再現範囲が存在することを意味する。 On the other hand, a spatial image reproduction type 3D display such as an integral system has a problem that it is difficult to present a scene with a wide depth. Specifically, since the spatial frequency decreases as the distance from the lens array surface increases in the depth direction, when an image is displayed at a distant position, the image is greatly blurred. As shown in FIG. 8, the resolution (spatial frequency γ) of the stereoscopic image reproduced by the integral method maintains a predetermined resolution (Nyquist frequency) within a constant depth reproduction range in the vicinity of the lens array position (z = 0). However, it has the property of dropping sharply when it exceeds that range. This predetermined resolution is specified by the spacing (pitch) of the element lenses constituting the lens array, and the stereoscopic image exceeding this depth reproduction range becomes blurred as the distance from the position of the lens array increases. This means that in the integral method, in principle, there is a depth reproduction range in which a stereoscopic image can be displayed without blurring.

同一の被写体を撮影した画像などぼやけが生じない領域(奥行き再現範囲)を広げるためには、要素画像の画素ピッチを小さくする必要があり、システム開発の負担となる(非特許文献1)。そこで、図9に示すように、3Dシーンの奥行きを圧縮し、ぼやけを回避する従来手法が提案されている(非特許文献2)。この従来手法では、以下の式(1)に示すように、シーン中の物体(3次元モデルM)を構成する頂点座標p(x,y,z)を頂点座標p´(x´,y´,z´)に変換する。その際、観視者9から見て画面奥から手前方向に移動させ、奥行きの広いシーンをぼやけずに表示可能な狭い範囲に圧縮する。 In order to widen the area (depth reproduction range) where blurring does not occur, such as an image of the same subject, it is necessary to reduce the pixel pitch of the element image, which is a burden on system development (Non-Patent Document 1). Therefore, as shown in FIG. 9, a conventional method of compressing the depth of a 3D scene and avoiding blurring has been proposed (Non-Patent Document 2). In this conventional method, as shown in the following equation (1), the vertex coordinates p (x, y, z) constituting the object (three-dimensional model M) in the scene are set to the vertex coordinates p 0 '(x 0 ', Convert to y 0 ', z 0 '). At that time, the scene is moved from the back of the screen to the front when viewed from the viewer 9, and the scene with a wide depth is compressed into a narrow range that can be displayed without blurring.

Figure 2021196915
Figure 2021196915

なお、式(1)において、f(z)は、図10に示すように、観視者9から見て、ある頂点座標を奥側の奥行き位置zから手前側の奥行き位置z´に移動させる関数である。また、式(1)において、x´,y´の変換は、奥行き圧縮の原点から見て、圧縮の前後で物体の見た目の大きさが変わらないように縮小する変換である。 In addition, in the formula (1), as shown in FIG. 10, f (z) moves a certain apex coordinate from the depth position z on the back side to the depth position z'on the front side when viewed from the viewer 9. It is a function. Further, in the equation (1), the conversion of x 0'and y 0'is a conversion in which the apparent size of the object does not change before and after the compression when viewed from the origin of the depth compression.

なお、pv0(0,0,0)を初期の観視位置(標準観視位置)とする。また、頂点座標がディスプレイに投影された点の水平位置及び垂直位置をそれぞれ(i,j)とする。また、下付きの文字preは圧縮前の頂点の投影を表し、下付きの文字postは圧縮後の頂点の投影を表す。また、下付きの数字0は初期の観視位置の投影を表す。また、下付きの数字1は移動後の観視位置の投影を表す。 In addition, p v0 (0,0,0) is taken as an initial viewing position (standard viewing position). Further, let (i, j) be the horizontal position and the vertical position of the point whose vertex coordinates are projected on the display, respectively. The subscript character pre represents the projection of the vertices before compression, and the subscript character post represents the projection of the vertices after compression. The subscript number 0 represents the projection of the initial viewing position. The subscript number 1 represents the projection of the viewing position after movement.

インテグラル3Dディスプレイの画素間隔および要素レンズの間隔とぼやけが生じずに表示できる奥行き範囲(奥行き再現範囲)とを求め、非線形の奥行き圧縮関数を決定する手法が提案されている(特許文献1)。以後、この従来技術のように、観視位置の移動を考慮せずにシーンの奥行きを静的に圧縮することを「静的な奥行き圧縮」と呼ぶ。 A method for determining a non-linear depth compression function has been proposed by obtaining the pixel spacing and element lens spacing of an integral 3D display and the depth range (depth reproduction range) that can be displayed without blurring (Patent Document 1). .. Hereinafter, statically compressing the depth of the scene without considering the movement of the viewing position as in this conventional technique is referred to as "static depth compression".

この静的な奥行き圧縮では、観視位置を移動した際、物体の形状の歪み (shape distortion)が顕著になる。図11に示すように、初期の観視位置pv0(0,0,0)では、奥行き圧縮の前後において、点p´(x´,y´,z´),p´(x´,y´,z´)は同一位置のままである。その一方、移動後の観視位置pv1(xv1,yv1,zv1)では、奥行き圧縮の前後でディスプレイ上の投影点(ipre1,jpre1),(ipost1,jpost1)がずれてしまい、物体の形状が歪んで見えてしまう。このように、静的な奥行き圧縮では、奥行きの潰された物体を正面から見ても潰れていることには気が付きにくいが、横に回り込んで見ると潰れによる形状の歪みが目立ってしまう。 In this static depth compression, the shape distortion of the object becomes remarkable when the viewing position is moved. As shown in FIG. 11, at the initial viewing position p v0 (0, 0, 0), the points p 0 ′ (x 0 ′, y 0 ′, z 0 ′), p 1 ′ before and after the depth compression. (X 1 ', y 1 ', z 1 ') remain in the same position. On the other hand, at the viewing position p v1 (x v1 , y v1 , z v1 ) after movement , the projection points (i pre1, j pre1 ) and (i post1 , j post1 ) on the display shift before and after the depth compression. The shape of the object looks distorted. In this way, with static depth compression, it is difficult to notice that an object whose depth has been crushed is crushed even when viewed from the front, but when it is turned sideways, the distortion of the shape due to crushing becomes conspicuous.

ここで、形状の歪みを、以下の式(2)に示すように、初期の観視位置及び移動後の観視位置のそれぞれにおける、インテグラル3Dディスプレイに投影した点のずれDshape0,Dshape1と定義する。 Here, the distortion of the shape, as shown in the following equation (2), in each of the viewing position after the initial viewing position and movement, the deviation of the point obtained through projection of the integral 3D display D shape0, D shape1 Is defined as.

Figure 2021196915
Figure 2021196915

このように、静的な奥行き圧縮では、初期の観視位置で形状の歪みが発生せず、Dshape0=0となる。一方、静的な奥行き圧縮では、観視位置が移動すると、Dshape1>0となり、形状の歪みが増加する。 As described above, in the static depth compression, the shape is not distorted at the initial viewing position, and D shape 0 = 0. On the other hand, in static depth compression, when the viewing position moves, D shape1 > 0, and the distortion of the shape increases.

そこで、図12に示すように、観視位置の移動を考慮してシーンの奥行きを動的に圧縮する手法が提案されており、以後、「動的な奥行き圧縮」と呼ぶ(非特許文献3)。この動的な奥行き圧縮では、観視位置をリアルタイムに計測するために、観視者9を赤外線カメラやRGBカメラで撮影して画像処理することが行われている。また、動的な奥行き圧縮では、以下の式(3)に基づいて、物体の頂点座標p(x,y,z)をp´(x´,y´,z´)に変換する。 Therefore, as shown in FIG. 12, a method of dynamically compressing the depth of the scene in consideration of the movement of the viewing position has been proposed, and hereinafter referred to as "dynamic depth compression" (Non-Patent Document 3). ). In this dynamic depth compression, in order to measure the viewing position in real time, the viewer 9 is photographed with an infrared camera or an RGB camera and image processing is performed. In the dynamic depth compression, the vertex coordinates p (x, y, z) of the object are converted to p 1 ′ (x 1 ′, y 1 ′, z 1 ′) based on the following equation (3). do.

Figure 2021196915
Figure 2021196915

この動的な奥行き圧縮では、図12に示すように、奥行き圧縮の前後で投影点(ipre1,jpre1),(ipost1,jpost1)が常に一致するため、形状の歪みが発生しない。これと同様、奥行き圧縮の前後で投影点(ipre0,jpre0),(ipost0,jpost0)も一致する。従って、Dshape0=0、Dshape1=0となる。 In this dynamic depth compression, as shown in FIG. 12, since the projection points (i pre1 , j pre1 ) and (i post1 , j post1 ) always match before and after the depth compression, shape distortion does not occur. Similarly, the projection points (i pre0 , j pre0 ) and (i post0 , j post0 ) also match before and after the depth compression. Therefore, D hape0 = 0 and D happe1 = 0.

一方、この動的な奥行き圧縮では、観視位置を移動した際、本来は空中に静止して見えるはずの物体が、観視位置の移動方向と同じ方向にスライドして見えてしまうことがある。観視位置の移動に応じた空間の歪み(shear distortion)は、2眼立体ディスプレイで撮影カメラ間隔が観視者9の両眼間隔と一致していないときに発生することが知られている(非特許文献4)。ここでは、空間の歪みは、以下の式(4)に示すように定義する。 On the other hand, with this dynamic depth compression, when the viewing position is moved, an object that should originally appear to be stationary in the air may slide in the same direction as the viewing position. .. It is known that spatial distortion according to the movement of the viewing position occurs when the distance between the shooting cameras on the two-lens stereoscopic display does not match the distance between the eyes of the viewer 9 (the distance between the eyes of the viewer 9 does not match). Non-Patent Document 4). Here, the distortion of space is defined as shown in the following equation (4).

Figure 2021196915
Figure 2021196915

前記した空間の歪みと形状の歪みとの間には、トレードオフの関係がある。例えば、静的な奥行き圧縮ではDshear1=0、Dshape1>0であり、動的な奥行き圧縮ではDshear1>0、Dshape1=0となる。 There is a trade-off relationship between the spatial distortion and the shape distortion described above. For example, in static depth compression, D shear1 = 0 and D shape1 > 0, and in dynamic depth compression, D shear1 > 0 and D shape1 = 0.

特開2017−11520号公報Japanese Unexamined Patent Publication No. 2017-11520

Hoshino H, Okano F, Isono H, Yuyama , Analysis of resolution limitation of integral photography, Opt Soc Am, 1998,15(8),2059-2065Hoshino H, Okano F, Isono H, Yuyama, Analysis of resolution limitation of integral photography, Opt Soc Am, 1998,15 (8), 2059-2065 Sawahata Y, Morita , Estimating Depth Range Required for 3-D Displays to Show Depth-Compressed Scenes Without Inducing Sense of Unnaturalness, IEEE Trans Broadcast, 2018,64(2),488-497Sawahata Y, Morita, Estimating Depth Range Required for 3-D Displays to Show Depth-Compressed Scenes Without Inducing Sense of Unnaturalness, IEEE Trans Broadcast, 2018, 64 (2), 488-497 Miyashita Y, Sawahata Y, Katayama M, Komine , Depth boost: Extended depth reconstruction capability on volumetric display, In: ACM SIGGRAPH 2019 Talks, SIGGRAPH 2019,2019Miyashita Y, Sawahata Y, Katayama M, Komine, Depth boost: Extended depth reconstruction capability on volumetric display, In: ACM SIGGRAPH 2019 Talks, SIGGRAPH 2019, 2019 Wartell Z, Hodges LF, Ribarsky , Balancing fusion, image depth and distortion in stereoscopic head-tracked displays, Proc 26th Annu Conf Comput Graph Interact Tech SIGGRAPH 1999, 1999,351-358Wartell Z, Hodges LF, Ribarsky, Balancing fusion, image depth and distortion in stereoscopic head-tracked displays, Proc 26th Annu Conf Comput Graph Interact Tech SIGGRAPH 1999, 1999, 351-358

しかし、前記した従来技術では、3次元映像の奥行き圧縮表現において、空間の歪み及び形状の歪みを調整できる仕組みがなく、どちらか一方の歪みが最大の状態しか選択することができない。 However, in the above-mentioned conventional technique, there is no mechanism for adjusting the distortion of space and the distortion of shape in the depth compression expression of a three-dimensional image, and only one of the states in which the distortion is maximum can be selected.

そこで、本発明は、空間の歪みと形状の歪みとの割合を調整できる立体像奥行き制御装置及びそのプログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide a stereoscopic image depth control device and a program thereof that can adjust the ratio between the distortion of space and the distortion of shape.

前記課題を解決するため、本発明に係る立体像奥行き制御装置は、予め設定した解像度を満たす奥行き再現範囲に収まるように被写体の3次元モデルを奥行き圧縮し、奥行き圧縮された後の3次元モデルから要素画像を生成する立体像奥行き制御装置であって、静的頂点座標算出部と、動的頂点座標算出部と、頂点座標調整部と、要素画像生成部と、を備える構成とした。 In order to solve the above-mentioned problems, the stereoscopic image depth control device according to the present invention performs depth compression of a three-dimensional model of a subject so as to fall within a depth reproduction range satisfying a preset resolution, and then depth-compresses the three-dimensional model. It is a stereoscopic image depth control device that generates an element image from, and has a configuration including a static vertex coordinate calculation unit, a dynamic vertex coordinate calculation unit, a vertex coordinate adjustment unit, and an element image generation unit.

かかる構成によれば、静的頂点座標算出部は、立体像の観視位置の移動を考慮しない静的な奥行き圧縮により、3次元モデルを構成する各頂点の座標である静的頂点座標を算出する。
動的頂点座標算出部は、観視位置の移動を考慮した動的な奥行き圧縮により、観視位置に応じた3次元モデルを構成する各頂点の座標である動的頂点座標を算出する。
頂点座標調整部は、静的な奥行き圧縮と動的な奥行き圧縮との調整割合に基づいて、静的頂点座標と動的頂点座標との間で3次元モデルの頂点座標を調整する。
要素画像生成部は、頂点座標を調整後の3次元モデルから要素画像を生成する。
According to this configuration, the static vertex coordinate calculation unit calculates the static vertex coordinates, which are the coordinates of each vertex constituting the three-dimensional model, by static depth compression that does not consider the movement of the viewing position of the stereoscopic image. do.
The dynamic vertex coordinate calculation unit calculates the dynamic vertex coordinates, which are the coordinates of each vertex constituting the three-dimensional model according to the viewing position, by dynamic depth compression in consideration of the movement of the viewing position.
The vertex coordinate adjustment unit adjusts the vertex coordinates of the three-dimensional model between the static vertex coordinates and the dynamic vertex coordinates based on the adjustment ratio between the static depth compression and the dynamic depth compression.
The element image generation unit generates an element image from the three-dimensional model after adjusting the vertex coordinates.

すなわち、前記した調整割合は、静的な奥行き圧縮に起因した形状の歪みと、動的な奥行き圧縮に起因した空間の歪みとの割合を表している。従って、立体像奥行き制御装置は、頂点座標調整部において、空間の歪みと形状の歪みとの双方を緩和できるように、これら双方の割合を調整することができる。 That is, the above-mentioned adjustment ratio represents the ratio between the distortion of the shape caused by static depth compression and the distortion of space caused by dynamic depth compression. Therefore, the stereoscopic image depth control device can adjust the ratio of both the spatial distortion and the shape distortion in the vertex coordinate adjusting unit.

なお、本発明は、コンピュータを、前記した立体像奥行き制御装置として機能させるためのプログラムで実現することもできる。 The present invention can also be realized by a program for making a computer function as the above-mentioned stereoscopic image depth control device.

本発明は、空間の歪みと形状の歪みとの割合を調整することができる。 The present invention can adjust the ratio of spatial distortion to shape distortion.

第1実施形態に係る立体像表示システムの概略構成図である。It is a schematic block diagram of the stereoscopic image display system which concerns on 1st Embodiment. 第1実施形態において、調整割合入力装置の一例を説明する説明図である。It is explanatory drawing explaining an example of the adjustment ratio input device in 1st Embodiment. 第1実施形態に係る立体像奥行き制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereoscopic image depth control apparatus which concerns on 1st Embodiment. 第1実施形態において、3次元モデルの頂点座標の調整を説明する説明図である。It is explanatory drawing explaining the adjustment of the vertex coordinates of the 3D model in 1st Embodiment. 第1実施形態において、調整割合の設定と形状の歪み及び空間の歪みとの関係を説明する説明図である。In the first embodiment, it is explanatory drawing explaining the relationship between the setting of the adjustment ratio, the distortion of a shape, and the distortion of a space. 第1実施形態に係る立体像奥行き制御装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the stereoscopic image depth control apparatus which concerns on 1st Embodiment. 第2実施形態に係る立体像奥行き制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereoscopic image depth control apparatus which concerns on 2nd Embodiment. 従来のインテグラル3Dディスプレイにおける奥行き再現範囲を説明する説明図である。It is explanatory drawing explaining the depth reproduction range in the conventional integral 3D display. 従来の静的な奥行き圧縮を説明する説明図である。It is explanatory drawing explaining the conventional static depth compression. 従来の静的な奥行き圧縮において、奥行きを圧縮する関数の一例を示すグラフである。It is a graph which shows an example of the function which compresses the depth in the conventional static depth compression. 従来の静的な奥行き圧縮における形状の歪みを説明する説明図である。It is explanatory drawing explaining the distortion of the shape in the conventional static depth compression. 従来の動的な奥行き圧縮を説明する説明図である。It is explanatory drawing explaining the conventional dynamic depth compression.

以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、各実施形態において、同一の手段には同一の符号を付し、説明を省略することがある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, each embodiment described below is for embodying the technical idea of the present invention, and the present invention is not limited to the following unless otherwise specified. Further, in each embodiment, the same means may be designated by the same reference numerals and description thereof may be omitted.

(第1実施形態)
[立体像表示システムの構成]
図1を参照し、第1実施形態に係る立体像表示システム100の構成について説明する。
立体像表示システム100は、被写体の3次元モデルから要素画像を生成し、生成した要素画像を表示するものである。このとき、立体像表示システム100は、後記する立体像奥行き制御装置4において、立体像表示装置1の奥行き再現範囲に収まるように3次元モデルを奥行き圧縮する。図1に示すようには、立体像表示システム100は、立体像表示装置1と、観視位置計測装置2と、調整割合入力装置3と、立体像奥行き制御装置4とを備える。
(First Embodiment)
[Structure of stereoscopic image display system]
With reference to FIG. 1, the configuration of the stereoscopic image display system 100 according to the first embodiment will be described.
The stereoscopic image display system 100 generates an element image from a three-dimensional model of the subject and displays the generated element image. At this time, the stereoscopic image display system 100 depth-compresses the three-dimensional model so as to be within the depth reproduction range of the stereoscopic image display device 1 in the stereoscopic image depth control device 4 described later. As shown in FIG. 1, the stereoscopic image display system 100 includes a stereoscopic image display device 1, a viewing position measuring device 2, an adjustment ratio input device 3, and a stereoscopic image depth control device 4.

立体像表示装置1は、インテグラル方式の立体像を表示する一般的なインテグラル3Dディスプレイである。この立体像表示装置1は、立体像奥行き制御装置4から要素画像を入力し、図示を省略したレンズアレイを介して要素画像を表示することで、観視者9に対して立体像Tを視認させる。 The stereoscopic image display device 1 is a general integral 3D display that displays an integral stereoscopic image. The stereoscopic image display device 1 inputs an element image from the stereoscopic image depth control device 4, and displays the element image via a lens array (not shown) so that the stereoscopic image T is visually recognized by the viewer 9. Let me.

観視位置計測装置2は、観視者9が立体像Tを観視する位置(観視位置)を計測するものである。この観視位置計測装置2は、赤外線カメラやRGBカメラで構成することができる。具体的には、観視位置計測装置2は、2台のRGBカメラで撮影した観視者9のカメラ画像から、強膜反射法や角膜・瞳孔反射法によって、観視者9の左右の角膜をそれぞれ検出し、三角測量の原理により、3次元の観視位置を求め、立体像表示装置1から観視者9までの視距離を計測してもよい。そして、観視位置計測装置2は、計測した観視位置及び視距離を立体像奥行き制御装置4に入力する。 The viewing position measuring device 2 measures a position (viewing position) at which the viewer 9 views the stereoscopic image T. The viewing position measuring device 2 can be configured by an infrared camera or an RGB camera. Specifically, the viewing position measuring device 2 uses the scleral reflex method or the corneal / pupillary reflex method from the camera images of the viewer 9 taken by two RGB cameras to the left and right corneas of the viewer 9. , The three-dimensional viewing position may be obtained by the principle of triangular measurement, and the viewing distance from the stereoscopic image display device 1 to the viewer 9 may be measured. Then, the viewing position measuring device 2 inputs the measured viewing position and viewing distance to the stereoscopic image depth control device 4.

調整割合入力装置3は、調整割合sを観視者9が設定し、この調整割合sを立体像奥行き制御装置4(頂点座標調整部43)に入力するものである。例えば、調整割合入力装置3は、図2に示すように、0から1までの間で調整割合sを任意に設定できるスライダである(0≦s≦1)。この調整割合sは、静的な奥行き圧縮と動的な奥行き圧縮との割合を表している。すなわち、調整割合sは、静的な奥行き圧縮に起因した形状の歪みと、動的な奥行き圧縮に起因した空間の歪みとの割合を表している。 In the adjustment ratio input device 3, the viewer 9 sets the adjustment ratio s, and the adjustment ratio s is input to the stereoscopic image depth control device 4 (vertex coordinate adjustment unit 43). For example, as shown in FIG. 2, the adjustment ratio input device 3 is a slider that can arbitrarily set the adjustment ratio s between 0 and 1 (0 ≦ s ≦ 1). This adjustment ratio s represents the ratio between static depth compression and dynamic depth compression. That is, the adjustment ratio s represents the ratio between the distortion of the shape caused by static depth compression and the distortion of space caused by dynamic depth compression.

立体像奥行き制御装置4は、予め設定した立体像表示装置1の解像度を満たす奥行き再現範囲に収まるように被写体の3次元モデルを奥行き圧縮し、奥行き圧縮された後の3次元モデルから要素画像を生成するものである。このとき、立体像奥行き制御装置4は、調整割合入力装置3から入力した調整割合に基づいて、空間の歪みと形状の歪みとの双方の割合を調整する。
なお、立体像奥行き制御装置4では、図示を省略した3次元モデル生成装置から3次元モデルを入力することとし、この3次元モデルの種類や生成方法は特に制限されない。
The stereoscopic image depth control device 4 depth-compresses the three-dimensional model of the subject so as to fall within the depth reproduction range that satisfies the resolution of the stereoscopic image display device 1 set in advance, and extracts the element image from the three-dimensional model after the depth compression. It is what is generated. At this time, the stereoscopic image depth control device 4 adjusts the ratios of both the spatial distortion and the shape distortion based on the adjustment ratio input from the adjustment ratio input device 3.
In the stereoscopic image depth control device 4, the three-dimensional model is input from the three-dimensional model generation device (not shown), and the type and generation method of the three-dimensional model are not particularly limited.

[立体像奥行き制御装置の構成]
図3を参照し、立体像奥行き制御装置4の構成について説明する。
図3に示すように、立体像奥行き制御装置4は、奥行き圧縮部40と、要素画像生成部44とを備える。
[Structure of stereoscopic image depth control device]
The configuration of the stereoscopic image depth control device 4 will be described with reference to FIG.
As shown in FIG. 3, the stereoscopic image depth control device 4 includes a depth compression unit 40 and an element image generation unit 44.

奥行き圧縮部40は、被写体の3次元モデルを入力し、入力した3次元モデルを奥行き圧縮するものである。図3に示すように、奥行き圧縮部40は、静的頂点座標算出部41と、動的頂点座標算出部42と、頂点座標調整部43とを備える。 The depth compression unit 40 inputs a three-dimensional model of the subject and compresses the input three-dimensional model in depth. As shown in FIG. 3, the depth compression unit 40 includes a static vertex coordinate calculation unit 41, a dynamic vertex coordinate calculation unit 42, and a vertex coordinate adjustment unit 43.

静的頂点座標算出部41は、観視位置の移動を考慮しない静的な奥行き圧縮により、3次元モデルを構成する各頂点の座標である静的頂点座標を算出するものである。ここで、静的頂点座標算出部41は、従来と同様の静的な奥行き圧縮を行うこととする。例えば、静的頂点座標算出部41は、前記した式(1)を用いて、3次元モデルの頂点座標pを静的頂点座標p´に変換する。そして、静的頂点座標算出部41は、算出した3次元モデルの静的頂点座標p´を頂点座標調整部43に出力する。 The static vertex coordinate calculation unit 41 calculates the static vertex coordinates, which are the coordinates of each vertex constituting the three-dimensional model, by static depth compression that does not consider the movement of the viewing position. Here, the static vertex coordinate calculation unit 41 performs static depth compression as in the conventional case. For example, the static vertex coordinate calculation unit 41 converts the vertex coordinate p of the three-dimensional model into the static vertex coordinate p 0 ′ by using the above equation (1). Then, the static vertex coordinate calculation unit 41 outputs the calculated static vertex coordinates p 0 ′ of the three-dimensional model to the vertex coordinate adjustment unit 43.

動的頂点座標算出部42は、観視位置の移動を考慮した動的な奥行き圧縮により、観視位置に応じて、3次元モデルを構成する各頂点の座標である動的頂点座標を算出するものである。ここで、動的頂点座標算出部42は、調整割合入力装置3から入力した観視位置に応じて、従来と同様の動的な奥行き圧縮を行うこととする。例えば、動的頂点座標算出部42は、前記した式(3)を用いて、3次元モデルの頂点座標pを動的頂点座標p´に変換する。そして、動的頂点座標算出部42は、算出した3次元モデルの動的頂点座標p´を頂点座標調整部43に出力する。 The dynamic vertex coordinate calculation unit 42 calculates the dynamic vertex coordinates, which are the coordinates of each vertex constituting the three-dimensional model, according to the viewing position by dynamic depth compression considering the movement of the viewing position. It is a thing. Here, the dynamic vertex coordinate calculation unit 42 performs dynamic depth compression similar to the conventional one according to the viewing position input from the adjustment ratio input device 3. For example, the dynamic vertex coordinate calculation unit 42 converts the vertex coordinates p of the three-dimensional model into the dynamic vertex coordinates p 1 ′ by using the above equation (3). Then, the dynamic vertex coordinate calculation unit 42 outputs the calculated dynamic vertex coordinate p 1 ′ of the three-dimensional model to the vertex coordinate adjustment unit 43.

頂点座標調整部43は、調整割合入力装置3から入力した調整割合sに基づいて、静的頂点座標算出部41から入力した静的頂点座標p´と動的頂点座標算出部42から入力した動的頂点座標p´との間で3次元モデルの頂点座標を調整するものである。そして、頂点座標調整部43は、頂点座標を調整後の3次元モデルを要素画像生成部44に出力する。 The vertex coordinate adjustment unit 43 inputs the static vertex coordinates p 0 ′ input from the static vertex coordinate calculation unit 41 and the dynamic vertex coordinate calculation unit 42 based on the adjustment ratio s input from the adjustment ratio input device 3. The coordinates of the vertices of the three-dimensional model are adjusted with the dynamic coordinates p 1'. Then, the vertex coordinate adjustment unit 43 outputs the three-dimensional model after adjusting the vertex coordinates to the element image generation unit 44.

<頂点座標の調整>
図4及び図5を参照し、頂点座標調整部43による頂点座標の調整を詳細に説明する。
具体的には、頂点座標調整部43は、以下の式(5)を用いて、3次元モデルの頂点座標pmod1´が静的頂点座標p´と動的頂点座標p´との間に位置するように、この頂点座標pmod1´を算出する。このとき、頂点座標調整部43は、観視位置の移動方向の逆方向に頂点座標pmod1´をシフトすればよい。
<Adjustment of vertex coordinates>
With reference to FIGS. 4 and 5, the adjustment of the vertex coordinates by the vertex coordinate adjustment unit 43 will be described in detail.
Specifically, the vertex coordinate adjustment unit 43 uses the following equation (5) to set the vertex coordinate p mod 1 ′ of the three-dimensional model between the static vertex coordinate p 0 ′ and the dynamic vertex coordinate p 1 ′. This vertex coordinate p mod1'is calculated so as to be located at. At this time, the vertex coordinate adjusting unit 43 may shift the vertex coordinate p mod1 ′ in the direction opposite to the moving direction of the viewing position.

Figure 2021196915
Figure 2021196915

図4に示すように、頂点座標pmod1´は、x軸方向及びy軸方向において、調整割合sに応じて、静的頂点座標p´と動的頂点座標p´との間でシフトする。具体的には、調整割合sが0に近づくほど、頂点座標pmod1´が静的頂点座標p´に近くなる一方、調整割合sが1に近づくほど、頂点座標pmod1´が動的頂点座標p´に近くなる。なお、図4において、投影点(imod1,jmod1)は、頂点座標pmod1´をディスプレイに投影した点である。 As shown in FIG. 4, the apex coordinate p mod 1 ′ is shifted between the static apex coordinate p 0 ′ and the dynamic apex coordinate p 1 ′ in the x-axis direction and the y-axis direction according to the adjustment ratio s. do. Specifically, the closer the adjustment ratio s is to 0, the closer the vertex coordinate p mod1 ′ is to the static vertex coordinate p 0 ′, while the closer the adjustment ratio s is to 1, the closer the vertex coordinate p mod1 ′ is to the dynamic vertex. It becomes close to the coordinates p 1'. In FIG. 4, the projection points (i mod1 , j mod1 ) are points where the vertex coordinates p mod1 ′ are projected onto the display.

図5に示すように、調整割合sが0に近づくほど、形状の歪みが大きくなる一方、空間の歪みが小さくなる。図5の例では、調整割合sが0に近づくほど、被写体Aの右側直線が曲線状に歪んでしまう。そして、調整割合s=0の場合、静的な奥行き圧縮と同義となり、形状の歪みだけが発生し、空間の歪みが発生しなくなる。
その一方、調整割合sが1に近づくほど、空間の歪みが大きくなる一方、形状の歪みが小さくなる。図5の例では、調整割合sが1に近づくほど、被写体Bが右側にスライドしてしまう。そして、調整割合s=1の場合、動的な奥行き圧縮と同義となり、空間の歪みだけが発生し、形状の歪みが発生しなくなる。
As shown in FIG. 5, as the adjustment ratio s approaches 0, the distortion of the shape becomes larger, while the distortion of the space becomes smaller. In the example of FIG. 5, as the adjustment ratio s approaches 0, the straight line on the right side of the subject A is distorted in a curved shape. When the adjustment ratio s = 0, it is synonymous with static depth compression, and only shape distortion occurs, and spatial distortion does not occur.
On the other hand, as the adjustment ratio s approaches 1, the distortion of the space becomes larger and the distortion of the shape becomes smaller. In the example of FIG. 5, the closer the adjustment ratio s is to 1, the more the subject B slides to the right. When the adjustment ratio s = 1, it is synonymous with dynamic depth compression, and only spatial distortion occurs, and shape distortion does not occur.

ここで、最適な調整割合sの値は、立体像表示装置1の観視環境によって異なると考えられる。例えば、映画館のような大画面の観視環境では、観視者9が頭部を動かしながら観視することが少ない。このため、空間の歪みよりも形状の歪みを緩和したほうがよいので、調整割合sの値を大きくする。一方、タブレットのような小画面の観視環境では、画面を両手で容易に動かせることから、観視者9が頭部とディスプレイと相対的な位置関係が大きく変わりやすくなる。従って、形状の歪みよりも空間の歪みを緩和した方がよいので、調整割合sの値を小さくする。 Here, it is considered that the value of the optimum adjustment ratio s differs depending on the viewing environment of the stereoscopic image display device 1. For example, in a large-screen viewing environment such as a movie theater, the viewer 9 rarely observes while moving his head. Therefore, since it is better to relax the distortion of the shape rather than the distortion of the space, the value of the adjustment ratio s is increased. On the other hand, in a small screen viewing environment such as a tablet, since the screen can be easily moved with both hands, the relative positional relationship between the head and the display of the viewer 9 is likely to change significantly. Therefore, since it is better to alleviate the distortion of the space rather than the distortion of the shape, the value of the adjustment ratio s is reduced.

さらに、調整割合sの値は、観視環境だけでなく、コンテンツの特徴によっても異なると考えれる。例えば、カメラモーションの大きいコンテンツでは、運動視差を十分に含んでいるために、観視者9が積極的に頭部を動かさないと考えられる。この場合、形状の歪みを優先的に緩和した方がよいので、調整割合sの値を大きくする。一方、多方面から観視するコンテンツでは、観視者9が積極的に頭部を動かすと考えられる。この場合、空間の歪みを優先的に緩和した方がよいので、調整割合sの値を小さくする。例えば、調整法等を用いた視覚心理実験を実施することで、観視環境やコンテンツの種類に応じた最適な調整割合sの値を求めることができる。 Further, it is considered that the value of the adjustment ratio s differs not only depending on the viewing environment but also depending on the characteristics of the content. For example, in a content having a large camera motion, it is considered that the viewer 9 does not actively move the head because the motion parallax is sufficiently included. In this case, since it is better to preferentially alleviate the distortion of the shape, the value of the adjustment ratio s is increased. On the other hand, in the content to be viewed from various directions, it is considered that the viewer 9 actively moves his / her head. In this case, since it is better to preferentially relax the distortion of the space, the value of the adjustment ratio s is reduced. For example, by carrying out a visual psychological experiment using an adjustment method or the like, it is possible to obtain the value of the optimum adjustment ratio s according to the viewing environment and the type of content.

図3に戻り、立体像奥行き制御装置4の説明を続ける。
要素画像生成部44は、頂点座標調整部43より入力した3次元モデルから要素画像を生成するものである。ここで、要素画像生成部44は、光線追跡法などの従来手法を用いて、3次元モデルから要素画像を生成できる。
Returning to FIG. 3, the description of the stereoscopic image depth control device 4 will be continued.
The element image generation unit 44 generates an element image from the three-dimensional model input from the vertex coordinate adjustment unit 43. Here, the element image generation unit 44 can generate an element image from the three-dimensional model by using a conventional method such as a ray tracing method.

光線追跡法とは、立体像表示装置1のレンズアレイを構成する各要素レンズと要素画像の各画素とを結ぶ直線を延長し、延長した直線と3次元モデルの表面との交点の色情報を当該画素の画素値として取得するものである。例えば、光線追跡法は、以下の参考文献1,2に詳細に記載されているため、これ以上の説明を省略する。 The ray tracing method extends a straight line connecting each element lens constituting the lens array of the stereoscopic image display device 1 and each pixel of the element image, and obtains color information at the intersection of the extended straight line and the surface of the three-dimensional model. It is acquired as the pixel value of the pixel. For example, the ray tracing method is described in detail in References 1 and 2 below, and further description thereof will be omitted.

参考文献1:片山、「3次元モデルからインテグラル立体像への変換手法」、日本放送協会、NHK技研R&D、No.128、2011年7月
参考文献2:「3次元モデルからのインテグラル立体像の生成技術」、日本放送協会、NHK技研R&D、No.123、2010年9月
Reference 1: Katayama, "Conversion method from 3D model to integral stereoscopic image", Japan Broadcasting Corporation, NHK Science & Technical Research Laboratories R & D, No. 128, July 2011 Reference 2: "Technology for generating integral stereoscopic images from 3D models", Japan Broadcasting Corporation, NHK Science & Technical Research Laboratories R & D, No. 123, September 2010

また、要素画像生成部44は、光線追跡法以外で要素画像を生成してもよい。例えば、要素画像生成部44は、アレイ状に配置した仮想カメラで3次元モデルを撮影した多視点画像を生成し、この多視点画像を要素画像に変換してもよい(例えば、参考文献3)。
参考文献3:池谷、「多視点カメラを用いたインテグラル立体像の生成手法」、日本放送協会、NHK技研R&D、No.146、2014年8月
Further, the element image generation unit 44 may generate an element image by a method other than the ray tracing method. For example, the element image generation unit 44 may generate a multi-viewpoint image obtained by capturing a three-dimensional model with a virtual camera arranged in an array, and convert the multi-viewpoint image into an element image (for example, Reference 3). ..
Reference 3: Iketani, "Method for generating integral stereoscopic images using a multi-view camera", Japan Broadcasting Corporation, NHK Science & Technical Research Laboratories R & D, No. 146, August 2014

その後、要素画像生成部44は、生成した要素画像を立体像表示装置1に出力する。すると、立体像表示装置1は、レンズアレイを介して要素画像を表示し、観視者9に対して立体像Tを視認させる。 After that, the element image generation unit 44 outputs the generated element image to the stereoscopic image display device 1. Then, the stereoscopic image display device 1 displays the element image via the lens array, and makes the viewer 9 visually recognize the stereoscopic image T.

[立体像奥行き制御装置の動作]
図6を参照し、立体像奥行き制御装置4の動作について説明する。
図6に示すように、ステップS1において、静的頂点座標算出部41は、静的な奥行き圧縮により、3次元モデルの各静的頂点座標を算出する。例えば、静的頂点座標算出部41は、前記した式(1)を用いて、3次元モデルの頂点座標pを静的頂点座標p´に変換する。
[Operation of stereoscopic image depth control device]
The operation of the stereoscopic image depth control device 4 will be described with reference to FIG.
As shown in FIG. 6, in step S1, the static vertex coordinate calculation unit 41 calculates each static vertex coordinate of the three-dimensional model by static depth compression. For example, the static vertex coordinate calculation unit 41 converts the vertex coordinate p of the three-dimensional model into the static vertex coordinate p 0 ′ by using the above equation (1).

ステップS2において、動的頂点座標算出部42は、動的な奥行き圧縮により、観視位置に応じて、3次元モデルの各動的頂点座標を算出する。例えば、動的頂点座標算出部42は、前記した式(3)を用いて、3次元モデルの頂点座標pを動的頂点座標p´に変換する。 In step S2, the dynamic vertex coordinate calculation unit 42 calculates each dynamic vertex coordinate of the three-dimensional model according to the viewing position by dynamic depth compression. For example, the dynamic vertex coordinate calculation unit 42 converts the vertex coordinates p of the three-dimensional model into the dynamic vertex coordinates p 1 ′ by using the above equation (3).

ステップS3において、頂点座標調整部43は、調整割合入力装置3から入力した調整割合sに基づいて、ステップS1で算出した静的頂点座標p´とステップS2で算出した動的頂点座標p´との間で3次元モデルの各頂点の座標を調整する。具体的には、頂点座標調整部43は、前記した式(5)を用いて、3次元モデルの頂点座標pmod1´を算出する。 In step S3, the vertex coordinate adjustment unit 43 has the static vertex coordinates p 0 ′ calculated in step S1 and the dynamic vertex coordinates p 1 calculated in step S2 based on the adjustment ratio s input from the adjustment ratio input device 3. Adjust the coordinates of each vertex of the 3D model to and from ´. Specifically, the vertex coordinate adjustment unit 43 calculates the vertex coordinates p mod1 ′ of the three-dimensional model using the above equation (5).

ステップS4において、要素画像生成部44は、ステップS3で頂点座標を調整した3次元モデルから要素画像を生成する。例えば、要素画像生成部44は、光線追跡法を用いて、3次元モデルから要素画像を生成する。 In step S4, the element image generation unit 44 generates an element image from the three-dimensional model whose vertex coordinates are adjusted in step S3. For example, the element image generation unit 44 generates an element image from a three-dimensional model by using a ray tracing method.

[作用・効果]
第1実施形態に係る立体像奥行き制御装置4は、観視者9が設定した調整割合sに基づいて、空間の歪みと形状の歪みとの双方を緩和できるように、これら双方の割合を調整することができる。すなわち、立体像奥行き制御装置4は、立体像表示装置1において奥行きの広いシーンを表示した際に生じるぼやけを回避するために、シーンの奥行きを圧縮し、その際に発生する形状の歪み及び空間の歪みを観視者9が任意に調整できる。
[Action / Effect]
The stereoscopic image depth control device 4 according to the first embodiment adjusts both ratios so that both spatial distortion and shape distortion can be alleviated based on the adjustment ratio s set by the viewer 9. can do. That is, the stereoscopic image depth control device 4 compresses the depth of the scene in order to avoid blurring that occurs when a scene with a wide depth is displayed on the stereoscopic image display device 1, and the distortion and space of the shape generated at that time. The distortion of the viewer 9 can be arbitrarily adjusted.

(第2実施形態)
図7を参照し、第2実施形態に係る立体像表示システム100Bについて、第1実施形態と異なる点を説明する。
図7に示すようには、立体像表示システム100Bは、立体像表示装置1と、観視位置計測装置2と、調整割合入力装置3と、立体像奥行き制御装置4Bとを備える。なお、立体像奥行き制御装置4Bの各手段は、第1実施形態と同様のため、説明を省略する。
(Second Embodiment)
With reference to FIG. 7, the stereoscopic image display system 100B according to the second embodiment will be described as different from the first embodiment.
As shown in FIG. 7, the stereoscopic image display system 100B includes a stereoscopic image display device 1, a viewing position measuring device 2, an adjustment ratio input device 3, and a stereoscopic image depth control device 4B. Since each means of the stereoscopic image depth control device 4B is the same as that of the first embodiment, the description thereof will be omitted.

[立体像奥行き制御装置の構成]
第2実施形態において、立体像奥行き制御装置4Bは、最適な調整割合sを学習する点が第1実施形態と異なる。このため、立体像奥行き制御装置4Bは、奥行き圧縮部40B、要素画像生成部44と、履歴DB記憶部45と、学習モデル生成部46と、調整割合取得部47と、スイッチ48とを備える。また、奥行き圧縮部40Bは、静的頂点座標算出部41と、動的頂点座標算出部42と、頂点座標調整部43Bとを備える。
なお、静的頂点座標算出部41、動的頂点座標算出部42及び要素画像生成部44は、第1実施形態と同様のため、説明を省略する。
[Structure of stereoscopic image depth control device]
In the second embodiment, the stereoscopic image depth control device 4B is different from the first embodiment in that it learns the optimum adjustment ratio s. Therefore, the stereoscopic image depth control device 4B includes a depth compression unit 40B, an element image generation unit 44, a history DB storage unit 45, a learning model generation unit 46, an adjustment ratio acquisition unit 47, and a switch 48. Further, the depth compression unit 40B includes a static vertex coordinate calculation unit 41, a dynamic vertex coordinate calculation unit 42, and a vertex coordinate adjustment unit 43B.
Since the static vertex coordinate calculation unit 41, the dynamic vertex coordinate calculation unit 42, and the element image generation unit 44 are the same as those in the first embodiment, the description thereof will be omitted.

履歴DB記憶部45は、履歴データベースを記憶するものである。この履歴データベースは、調整割合sと立体像Tの奥行き位置と視距離との関係を示すデータベースである。例えば、履歴データベースとしては、リレーショナルデータベースがあげられる。 The history DB storage unit 45 stores the history database. This history database is a database showing the relationship between the adjustment ratio s, the depth position of the stereoscopic image T, and the viewing distance. For example, a relational database can be mentioned as a history database.

学習モデル生成部46は、履歴データベースを参照し、調整割合sを立体像Tの奥行き位置と視距離との関係で表した学習モデルを生成するものである。ここで、学習モデル生成部46は、図示を省略したメモリに学習モデルを記憶することとする。 The learning model generation unit 46 refers to the history database and generates a learning model in which the adjustment ratio s is represented by the relationship between the depth position of the stereoscopic image T and the viewing distance. Here, the learning model generation unit 46 stores the learning model in a memory (not shown).

<学習モデルの生成>
以下、学習モデル生成部46による学習モデルの生成を詳細に説明する。
例えば、学習モデルは、以下の式(6)に示すように、調整割合sを立体像Tの奥行き位置tと視距離tとの関係で表した線形モデルである。なお、式(6)では、α,β,βが所定の係数を表している。
<Generation of learning model>
Hereinafter, the generation of the learning model by the learning model generation unit 46 will be described in detail.
For example, the learning model is a linear model in which the adjustment ratio s is expressed by the relationship between the depth position t 1 and the viewing distance t 2 of the stereoscopic image T, as shown in the following equation (6). In equation (6), α, β 1 , and β 2 represent predetermined coefficients.

Figure 2021196915
Figure 2021196915

この場合、学習モデル生成部46は、最適化問題として、式(6)の係数α,β,βを求めればよい。具体的には、学習モデル生成部46は、以下の式(7)を最小二乗法で解いて、係数α,β,βを求める。なお、式(7)では、s(n),t1(n),t2(n)の添え字nが、履歴データベースに格納されたn番目のレコードを表している(但し、n=0,1,2,…)。 In this case, the learning model generation unit 46 may obtain the coefficients α, β 1 and β 2 of the equation (6) as an optimization problem. Specifically, the learning model generation unit 46 solves the following equation (7) by the least squares method to obtain the coefficients α, β 1 , and β 2 . In equation (7), the subscript n of s (n) , t 1 (n) , and t 2 (n) represents the nth record stored in the history database (however, n = 0). , 1, 2, ...).

Figure 2021196915
Figure 2021196915

図7に戻り、立体像奥行き制御装置4Bの説明を続ける。
調整割合取得部47は、奥行き位置及び視距離を入力し、入力した奥行き位置及び視距離に対応する調整割合sを学習モデルから取得するものである。ここで、調整割合取得部47は、観視位置計測装置2から視距離を入力し、映像制作者が予め指定した奥行き位置を観視者9が入力する。このように、調整割合取得部47は、観視者9の観視環境に対応した奥行き位置及び視距離を学習モデルに入力することで、観視者9の観視環境に適した調整割合sを学習モデルから取得できる。
Returning to FIG. 7, the description of the stereoscopic image depth control device 4B will be continued.
The adjustment ratio acquisition unit 47 inputs the depth position and the viewing distance, and acquires the adjustment ratio s corresponding to the input depth position and the viewing distance from the learning model. Here, the adjustment ratio acquisition unit 47 inputs the viewing distance from the viewing position measuring device 2, and the viewer 9 inputs the depth position designated in advance by the video creator. In this way, the adjustment ratio acquisition unit 47 inputs the depth position and the viewing distance corresponding to the viewing environment of the viewer 9 into the learning model, so that the adjustment ratio s suitable for the viewing environment of the viewer 9 Can be obtained from the learning model.

スイッチ48は、調整割合入力装置3から入力した調整割合s、又は、調整割合取得部47が取得した調整割合sの何れか一方を選択し、選択した一方の調整割合sを頂点座標調整部43Bに出力するものである。ここでは、観視者9が、スイッチ48が何れの調整割合sを選択するか手動で設定できる。なお、図7の例では、スイッチ48は、調整割合取得部47が取得した調整割合sを選択している。 The switch 48 selects either the adjustment ratio s input from the adjustment ratio input device 3 or the adjustment ratio s acquired by the adjustment ratio acquisition unit 47, and sets the selected adjustment ratio s as the vertex coordinate adjustment unit 43B. It is output to. Here, the viewer 9 can manually set which adjustment ratio s the switch 48 selects. In the example of FIG. 7, the switch 48 selects the adjustment ratio s acquired by the adjustment ratio acquisition unit 47.

頂点座標調整部43Bは、スイッチ48から入力した調整割合sに基づいて、3次元モデルの頂点座標を調整するものである。すなわち、頂点座標調整部43Bは、調整割合入力装置3から入力した調整割合s、又は、調整割合取得部47が取得した調整割合sに基づいて、3次元モデルの頂点座標を調整する。なお、頂点座標の調整自体は、第1実施形態と同様のため、これ以上の説明を省略する。 The vertex coordinate adjustment unit 43B adjusts the vertex coordinates of the three-dimensional model based on the adjustment ratio s input from the switch 48. That is, the apex coordinate adjustment unit 43B adjusts the apex coordinates of the three-dimensional model based on the adjustment ratio s input from the adjustment ratio input device 3 or the adjustment ratio s acquired by the adjustment ratio acquisition unit 47. Since the adjustment of the vertex coordinates itself is the same as that of the first embodiment, further description thereof will be omitted.

[作用・効果]
第2実施形態に係る立体像奥行き制御装置4Bは、観視者9の観視環境に適した調整割合sを取得できるので、観視者9の観視環境に合わせて、空間の歪みと形状の歪みとの割合を自動的に調整することができる。これにより、立体像奥行き制御装置4Bは、利便性を向上させることができる。
[Action / Effect]
Since the stereoscopic image depth control device 4B according to the second embodiment can acquire the adjustment ratio s suitable for the viewing environment of the viewer 9, the distortion and shape of the space are matched to the viewing environment of the viewer 9. The ratio with the distortion of is automatically adjusted. Thereby, the stereoscopic image depth control device 4B can improve the convenience.

(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明はこれに限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、学習モデルが線形モデルであることとして説明したが、これに限定されない。例えば、機械学習や深層学習により学習モデルを学習してもよい。
(Modification example)
Although each embodiment of the present invention has been described in detail above, the present invention is not limited to this, and includes design changes and the like within a range that does not deviate from the gist of the present invention.
In the above-described embodiment, the learning model has been described as a linear model, but the learning model is not limited to this. For example, a learning model may be learned by machine learning or deep learning.

前記した実施形態では、立体像奥行き制御装置を独立したハードウェアとして説明したが、これに限定されない。コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した立体像奥行き制御装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the stereoscopic image depth control device has been described as independent hardware, but the present invention is not limited thereto. Hardware resources such as a CPU, a memory, and a hard disk included in a computer can also be realized by a program that operates as the stereoscopic image depth control device described above. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.

1 立体像表示装置
2 観視位置計測装置
3 調整割合入力装置
4,4B立体像奥行き制御装置
40 奥行き圧縮部
41 静的頂点座標算出部
42 動的頂点座標算出部
43,43B 頂点座標調整部
44 要素画像生成部
100 立体像表示システム
1 Solid image display device 2 Viewing position measuring device 3 Adjustment ratio input device 4, 4B Solid image depth control device 40 Depth compression unit 41 Static vertex coordinate calculation unit 42 Dynamic vertex coordinate calculation unit 43, 43B Vertex coordinate adjustment unit 44 Element image generator 100 Stereoscopic image display system

Claims (5)

予め設定した解像度を満たす奥行き再現範囲に収まるように被写体の3次元モデルを奥行き圧縮し、奥行き圧縮された後の前記3次元モデルから要素画像を生成する立体像奥行き制御装置であって、
立体像の観視位置の移動を考慮しない静的な奥行き圧縮により、前記3次元モデルを構成する各頂点の座標である静的頂点座標を算出する静的頂点座標算出部と、
前記観視位置の移動を考慮した動的な奥行き圧縮により、前記観視位置に応じた前記3次元モデルを構成する各頂点の座標である動的頂点座標を算出する動的頂点座標算出部と、
前記静的な奥行き圧縮と前記動的な奥行き圧縮との調整割合に基づいて、前記静的頂点座標と前記動的頂点座標との間で前記3次元モデルの頂点座標を調整する頂点座標調整部と、
前記頂点座標を調整後の前記3次元モデルから前記要素画像を生成する要素画像生成部と、
を備えることを特徴とする立体像奥行き制御装置。
It is a stereoscopic image depth control device that compresses the depth of a 3D model of a subject so as to be within the depth reproduction range that satisfies a preset resolution, and generates an element image from the 3D model after the depth compression.
A static vertex coordinate calculation unit that calculates static vertex coordinates, which are the coordinates of each vertex constituting the 3D model, by static depth compression that does not consider the movement of the viewing position of the stereoscopic image.
With a dynamic vertex coordinate calculation unit that calculates dynamic vertex coordinates that are the coordinates of each vertex constituting the three-dimensional model according to the viewing position by dynamic depth compression considering the movement of the viewing position. ,
A vertex coordinate adjustment unit that adjusts the vertex coordinates of the three-dimensional model between the static vertex coordinates and the dynamic vertex coordinates based on the adjustment ratio between the static depth compression and the dynamic depth compression. When,
An element image generation unit that generates the element image from the three-dimensional model after adjusting the vertex coordinates,
A stereoscopic image depth control device characterized by being equipped with.
前記頂点座標調整部は、以下の式(5)に示すように、
Figure 2021196915
前記調整割合sに基づいて、前記静的頂点座標p´と前記動的頂点座標p´との間で前記3次元モデルの頂点座標pmod1´を調整することを特徴とする請求項1に記載の立体像奥行き制御装置。
The vertex coordinate adjustment unit is as shown in the following equation (5).
Figure 2021196915
Claim 1 is characterized in that the vertex coordinates p mod 1 ′ of the three-dimensional model are adjusted between the static vertex coordinates p 0 ′ and the dynamic vertex coordinates p 1 ′ based on the adjustment ratio s. The stereoscopic image depth control device described in 1.
前記調整割合を前記立体像の奥行き位置と視距離との関係で表した学習モデルを生成する学習モデル生成部と、
前記奥行き位置及び前記視距離を入力し、入力した前記奥行き位置及び前記視距離に対応する前記調整割合を前記学習モデルから取得する調整割合取得部と、を備え、
前記頂点座標調整部は、前記調整割合取得部が取得した調整割合に基づいて、前記3次元モデルの頂点座標を調整することを特徴とする請求項1又は請求項2に記載の立体像奥行き制御装置。
A learning model generation unit that generates a learning model in which the adjustment ratio is represented by the relationship between the depth position of the stereoscopic image and the viewing distance.
It is provided with an adjustment ratio acquisition unit for inputting the depth position and the viewing distance and acquiring the adjustment ratio corresponding to the input depth position and the viewing distance from the learning model.
The stereoscopic image depth control according to claim 1 or 2, wherein the vertex coordinate adjustment unit adjusts the vertex coordinates of the three-dimensional model based on the adjustment ratio acquired by the adjustment ratio acquisition unit. Device.
前記頂点座標調整部は、前記調整割合を入力し、入力した前記調整割合に基づいて、前記3次元モデルの頂点座標を調整することを特徴とする請求項1又は請求項2に記載の立体像奥行き制御装置。 The three-dimensional image according to claim 1 or 2, wherein the vertex coordinate adjusting unit inputs the adjustment ratio and adjusts the vertex coordinates of the three-dimensional model based on the input adjustment ratio. Depth control device. コンピュータを、請求項1から請求項4の何れか一項に記載の立体像奥行き制御装置として機能させるためのプログラム。 A program for causing a computer to function as the stereoscopic image depth control device according to any one of claims 1 to 4.
JP2020103436A 2020-06-16 2020-06-16 Stereoscopic image depth control device and program thereof Pending JP2021196915A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020103436A JP2021196915A (en) 2020-06-16 2020-06-16 Stereoscopic image depth control device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020103436A JP2021196915A (en) 2020-06-16 2020-06-16 Stereoscopic image depth control device and program thereof

Publications (1)

Publication Number Publication Date
JP2021196915A true JP2021196915A (en) 2021-12-27

Family

ID=79195656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020103436A Pending JP2021196915A (en) 2020-06-16 2020-06-16 Stereoscopic image depth control device and program thereof

Country Status (1)

Country Link
JP (1) JP2021196915A (en)

Similar Documents

Publication Publication Date Title
US7983477B2 (en) Method and apparatus for generating a stereoscopic image
US8358332B2 (en) Generation of three-dimensional movies with improved depth control
JP4351996B2 (en) Method for generating a stereoscopic image from a monoscope image
Schmidt et al. Multiviewpoint autostereoscopic dispays from 4D-Vision GmbH
CN108141578B (en) Presentation camera
Devernay et al. Stereoscopic cinema
CN102075694A (en) Stereoscopic editing for video production, post-production and display adaptation
US11849102B2 (en) System and method for processing three dimensional images
JP2003187261A (en) Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium
US8094148B2 (en) Texture processing apparatus, method and program
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
US11415935B2 (en) System and method for holographic communication
EP3526639A1 (en) Display of visual data with a virtual reality headset
Naimark Elements of real-space imaging: a proposed taxonomy
JP6166985B2 (en) Image generating apparatus and image generating program
CN109961395B (en) Method, device and system for generating and displaying depth image and readable medium
JP2021196915A (en) Stereoscopic image depth control device and program thereof
KR20170033293A (en) Stereoscopic video generation
KR101939243B1 (en) Stereoscopic depth adjustment and focus point adjustment
Regalbuto Remote Visual Observation of Real Places through Virtual Reality Headsets
KR101907127B1 (en) Stereoscopic video zooming and foreground and background detection in a video
JP2022181292A (en) Three-dimensional video generation device and program of the same
Tian et al. Comfort evaluation of 3D movies based on parallax and motion
JP7336871B2 (en) All-dome video processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507