JP2018186319A - Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program - Google Patents

Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program Download PDF

Info

Publication number
JP2018186319A
JP2018186319A JP2017085000A JP2017085000A JP2018186319A JP 2018186319 A JP2018186319 A JP 2018186319A JP 2017085000 A JP2017085000 A JP 2017085000A JP 2017085000 A JP2017085000 A JP 2017085000A JP 2018186319 A JP2018186319 A JP 2018186319A
Authority
JP
Japan
Prior art keywords
display
stereoscopic image
content
display control
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017085000A
Other languages
Japanese (ja)
Other versions
JP6814686B2 (en
Inventor
建 井阪
Ken Isaka
建 井阪
高田 英明
Hideaki Takada
英明 高田
長田 秀信
Hidenobu Osada
秀信 長田
誉宗 巻口
Takamune Makiguchi
誉宗 巻口
広夢 宮下
Hiromu Miyashita
広夢 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017085000A priority Critical patent/JP6814686B2/en
Publication of JP2018186319A publication Critical patent/JP2018186319A/en
Application granted granted Critical
Publication of JP6814686B2 publication Critical patent/JP6814686B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic image display control device capable of allowing a viewer to perceive stereoscopic image without wearing any glasses with a simple device configuration.SOLUTION: A stereoscopic image display control device 1 comprises: a motion update part 13 configured to display a piece of content on a display part of a content display device 3; and a shielded object parameter calculation part 12 configured to form a semi-shielding state in which a display object image included in the content, which can be seen by one eye but cannot be seen by the other eye of a viewer on the display part of the shield object display device 2 disposed between the content display device 3 and the viewer of the content.SELECTED DRAWING: Figure 2

Description

本発明は、観察者に立体画像を知覚させる技術に関する。   The present invention relates to a technique for making an observer perceive a stereoscopic image.

立体表示方式の基礎となるメガネあり方式では、同一画面内に視差画像を表示し、メガネに備わる光学フィルタで右眼用画像と左眼用画像に分離して、右眼と左眼にそれぞれ透過させることにより、両眼視差による奥行き情報を観察者に伝達するという方法が採られている。   In the glasses-equipped method, which is the basis of the stereoscopic display method, a parallax image is displayed on the same screen, separated into a right-eye image and a left-eye image by an optical filter provided in the glasses, and transmitted to the right eye and the left eye, respectively. Thus, a method of transmitting depth information based on binocular parallax to an observer is employed.

メガネあり方式では、観察者が空間内を自由に移動しても、画像分離機能を持つ光学フィルタも共に移動するので、任意の位置・場所で画像の立体視が可能であり、同時に複数の人数で立体画像を鑑賞することもできる。しかし、メガネの装着は観察者に負担がかかり、メガネを常に装着しているとは限らないので、立体視が可能な利用場面は限られてしまう。それ故、メガネを必要としないメガネなし方式が要請されている。   With the glasses-equipped method, even if the observer moves freely in the space, the optical filter with the image separation function also moves, so stereoscopic images can be viewed at any position and location, and multiple people You can also enjoy stereoscopic images. However, wearing eyeglasses puts a burden on the observer and does not always wear eyeglasses, so the usage scenes that allow stereoscopic viewing are limited. Therefore, there is a demand for a method without glasses that does not require glasses.

メガネあり方式では、観察者の眼の直前に光学フィルタがあるため、画面からの視差画像を観察者の視点で分離可能である。一方、メガネなし方式では、光学フィルタを観察者の眼の直前に配置することができず、その代わりに、表示装置の画面直前に光学フィルタを備え付け、観察者から離れた位置で視差画像を分離して、空間内に設定された観察者の視点に対して、表示装置側から右眼用画像と左眼用画像を届けるという方法が採られている。   In the glasses-equipped method, since there is an optical filter in front of the observer's eyes, the parallax image from the screen can be separated from the observer's viewpoint. On the other hand, in the glassesless method, the optical filter cannot be placed in front of the observer's eye, but instead, an optical filter is provided in front of the screen of the display device to separate the parallax images at a position away from the observer. Then, a method of delivering the right eye image and the left eye image from the display device side to the observer's viewpoint set in the space is employed.

特開2016−161912号公報Japanese Patent Laying-Open No. 2006-161912

しかし、従来のメガネなし方式の場合、観察者から離れた位置で視差画像を分離するため、右眼用画像と左眼用画像を観察者の右眼と左眼にそれぞれ届けるには、画面から放射される視差画像の光線に指向性を持たせる必要があり、ハードウェア的にもソフトウェア的にも表示コストが極めて高い。例えば、特許文献1に記載された「光線の指向性と滑らかな運動視差をもつ裸眼立体映像表示方法」の場合、特殊なスクリーンと複数のプロジェクタを利用しなければならない。   However, in the case of the conventional glassesless method, the parallax image is separated at a position away from the observer, so that the right eye image and the left eye image can be delivered to the observer's right eye and left eye respectively from the screen. It is necessary to give directivity to the rays of the emitted parallax image, and the display cost is extremely high both in terms of hardware and software. For example, in the case of the “autostereoscopic image display method having light beam directivity and smooth motion parallax” described in Patent Document 1, a special screen and a plurality of projectors must be used.

本発明は、上記事情を鑑みてなされたものであり、観察者にメガネを装着させることなく簡易な装置構成で立体画像を知覚させることを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to make a viewer perceive a three-dimensional image with a simple device configuration without wearing glasses.

以上の課題を解決するため、請求項1に係る立体画像表示制御装置は、コンテンツを第1表示装置の表示部に表示するコンテンツ表示制御部と、前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成する立体画像形成制御部と、を備えることを特徴とする。   In order to solve the above problems, a stereoscopic image display control device according to claim 1 includes a content display control unit that displays content on a display unit of a first display device, the first display device, and an observer of the content. A display target image included in the content is formed on the display unit of the second display device installed between the viewers in a semi-shielded state that is visible to one eye of the observer and not visible to the other eye. A stereoscopic image formation control unit.

請求項2に係る立体画像表示制御装置は、請求項1に記載の立体画像表示制御装置において、前記第2表示装置は、表示部の透過度又は透過領域を変更可能な透過型表示装置であることを特徴とする。   A stereoscopic image display control device according to a second aspect is the stereoscopic image display control device according to the first aspect, wherein the second display device is a transmissive display device capable of changing a transmittance or a transmissive region of a display unit. It is characterized by that.

請求項3に係る立体画像表示制御装置は、請求項1又は2に記載の立体画像表示制御装置において、前記立体画像形成制御部は、前記コンテンツに関連するオブジェクト画像を用いて前記第2表示装置の表示部に前記表示対象画像を遮蔽するための遮蔽領域を形成することを特徴とする。   The stereoscopic image display control device according to claim 3 is the stereoscopic image display control device according to claim 1 or 2, wherein the stereoscopic image formation control unit uses the object image related to the content to display the second display device. A shielding region for shielding the display target image is formed on the display unit.

請求項4に係る立体画像表示制御装置は、請求項1乃至3のいずれかに記載の立体画像表示制御装置において、前記第2表示装置は、透過性の表示部を備える透過型表示装置であって、前記立体画像形成制御部は、前記表示対象画像が前記観察者の一方の片眼には見え、前記他方の片眼には見えないように、前記表示対象画像を遮蔽するために当該透過型表示装置に表示するオブジェクト画像の位置、大きさ又は形状を変更することを特徴とする。   A stereoscopic image display control device according to a fourth aspect is the stereoscopic image display control device according to any one of the first to third aspects, wherein the second display device is a transmissive display device including a transmissive display unit. Then, the stereoscopic image formation control unit performs the transmission to shield the display target image so that the display target image is visible to one eye of the observer and not visible to the other eye. The position, size, or shape of the object image displayed on the mold display device is changed.

請求項5に係る立体画像表示制御方法は、立体画像表示制御装置で行う立体画像表示制御方法において、前記立体画像表示制御装置は、コンテンツを第1表示装置の表示部に表示するステップと、前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成するステップと、を行うことを特徴とする。   The stereoscopic image display control method according to claim 5 is a stereoscopic image display control method performed by a stereoscopic image display control device, wherein the stereoscopic image display control device displays content on a display unit of a first display device; On the display unit of the second display device installed between the first display device and the viewer of the content, the display target image included in the content is visible to one eye of the viewer, and the other piece And a step of forming a semi-shielding state invisible to the eyes.

請求項6に係る立体画像表示制御プログラムは、請求項1乃至4のいずれかに記載の立体画像表示制御装置としてコンピュータを機能させることを特徴とする。   A stereoscopic image display control program according to a sixth aspect causes a computer to function as the stereoscopic image display control apparatus according to any one of the first to fourth aspects.

本発明によれば、観察者にメガネを装着させることなく簡易な装置構成で立体画像を知覚させることができる。   According to the present invention, a stereoscopic image can be perceived with a simple apparatus configuration without causing an observer to wear glasses.

本発明による表示対象の見え方の例を示す図である。It is a figure which shows the example of the appearance of the display target by this invention. 立体画像表示制御システムの全体構成を示す図である。It is a figure which shows the whole structure of a three-dimensional image display control system. 実空間の例を示す図である。It is a figure which shows the example of real space. 実空間の例を示す図である。It is a figure which shows the example of real space. 立体画像表示制御装置の動作フローを示す図である。It is a figure which shows the operation | movement flow of a stereo image display control apparatus. 実空間における各オブジェクトの位置関係を示す上面図である。It is a top view which shows the positional relationship of each object in real space. 図6の実空間に対応するバーチャル空間における各オブジェクトの位置関係を示す上面図である。It is a top view which shows the positional relationship of each object in the virtual space corresponding to the real space of FIG. 実空間における各オブジェクトの位置関係(遮蔽オブジェクト表示デバイスとして平面スクリーンを用いた場合)を示す上面図である。It is a top view which shows the positional relationship (when a flat screen is used as a shielding object display device) of each object in real space.

<発明の概要>
従来のメガネなし方式の場合、コンテンツ内の表示対象に立体感を与えるために特殊なスクリーンと複数のプロジェクタを用いるので、表示コストが極めて高い。この原因は、「観察者のそれぞれの眼に対応する独立した各画像(右眼用画像と左眼用画像)を同時に生成し、それらの画像に指向性を持たせる」という方法にある。
<Outline of the invention>
In the case of the conventional glassesless system, a special screen and a plurality of projectors are used to give a stereoscopic effect to the display target in the content, so that the display cost is extremely high. The cause of this is a method of “simultaneously generating independent images (right-eye image and left-eye image) corresponding to each eye of the observer and giving these images directivity”.

一方、本発明は、「コンテンツ内の表示対象に対して観察者の両眼視差を利用することは行わず、単眼性の奥行き手がかりのみで表示対象の奥行きを判断させる」という方法を採る。両眼視差を利用しないため、コンテンツを右眼用画像と左眼用画像に分離することや、右眼と左眼でコンテンツ内の同一画像領域を見せることは行わない。   On the other hand, the present invention employs a method of “not using the binocular parallax of the observer for the display target in the content, but determining the depth of the display target only with a monocular depth cue”. Since binocular parallax is not used, the content is not separated into a right-eye image and a left-eye image, and the same image region in the content is not shown by the right eye and the left eye.

具体的には、コンテンツを表示するコンテンツ表示デバイスと、そのコンテンツを観察する観察者との中間地点付近に遮蔽オブジェクト表示デバイスを設置する。そして、表示中・再生中のコンテンツに含まれる表示対象を、遮蔽オブジェクト表示デバイスにおいて、観察者の一方の片眼には遮蔽せず、他方の片眼には遮蔽する。つまり、非遮蔽・遮蔽による単眼視点画像を利用することにより、単眼性の奥行き手がかりのみで表示対象に立体感を与えるようにする。   Specifically, a shielding object display device is installed near an intermediate point between a content display device that displays content and an observer who observes the content. Then, the display target included in the content being displayed / reproduced is not shielded by one eye of the observer and is shielded by the other eye in the shielding object display device. That is, by using a monocular viewpoint image that is not occluded or occluded, a stereoscopic effect is given to the display target with only monocular depth cues.

これにより、観察者にメガネを装着させることなく、かつ、2台の汎用的な表示デバイスからなる簡易な装置構成で、観察者に対して立体画像を知覚させることができる。   Accordingly, the observer can perceive a stereoscopic image with a simple apparatus configuration including two general-purpose display devices without causing the observer to wear glasses.

<発明の提案技術>
本発明では、次の技術を提案する。
<Proposed technology of invention>
In the present invention, the following technique is proposed.

(第1の提案技術)
1つ目は、「コンテンツ表示デバイスと観察者との間に遮蔽オブジェクトを設け、観察者にコンテンツに対する両眼視差処理をとらせず、単眼視点画像により観察者に与えるコンテンツの立体感を増強する技術」を提案する。
(First proposed technology)
The first is that “a shielding object is provided between the content display device and the viewer so that the viewer does not perform binocular parallax processing on the content, and the stereoscopic effect of the content given to the viewer by the monocular viewpoint image is enhanced. "Technology" is proposed.

人間の通常生活する環境では、対象物が片方の眼だけに見えるが、もう片方の眼には見えない半遮蔽状態が自然に存在している。例えば、図1に示すように、コンテンツ内の対象物の前方に遮蔽オブジェクトが存在すると、観察者の片方の眼では対象物が見えず、もう片方の眼では対象物が見える状態となる。この半遮蔽状態を利用すれば、これまで視差画像を右眼用画像と左眼用画像に分離することで実現していた裸眼立体表示を、単眼視点画像を用いて実現することができる。   In a normal human environment, there is a natural semi-shielded state where the object is visible only to one eye but not to the other eye. For example, as shown in FIG. 1, when a shielding object is present in front of an object in the content, the object cannot be seen with one eye of the observer, and the object can be seen with the other eye. By using this semi-shielded state, it is possible to realize autostereoscopic display realized by separating a parallax image into a right-eye image and a left-eye image using a monocular viewpoint image.

従来では観察者の視点位置又は画像の表示位置で画像分離を行っていたが、本発明では、上記半遮蔽状態を形成するため、コンテンツ表示デバイスと観察者との中間地点付近に遮蔽オブジェクトを表示させた透過度の局所選択性を有する遮蔽オブジェクト表示デバイスを置き、コンテンツに対する観察者の単眼視領域を増やすことで立体感を与える。また、その遮蔽オブジェクト自体もコンテンツの一部として利用する。   Conventionally, image separation is performed at the observer's viewpoint position or image display position. However, in the present invention, in order to form the above-described semi-shielded state, a shielded object is displayed near the intermediate point between the content display device and the viewer. By placing a shielding object display device having local selectivity of the transmitted transparency and increasing the monocular viewing area of the viewer for the content, a stereoscopic effect is given. The occluding object itself is also used as part of the content.

その一方で、この方法は、単に画像分離機能を持つ光学フィルタを観察者の視点と表示デバイスとの中間地点に設置した方法と解釈することもできる。しかし、不透明な光学フィルタを該中間地点に設けると、光学フィルタ自体が観察者に意識されてしまうという別の問題が生じる。   On the other hand, this method can also be interpreted as a method in which an optical filter having an image separation function is installed at an intermediate point between the observer's viewpoint and the display device. However, when an opaque optical filter is provided at the intermediate point, another problem arises in that the optical filter itself is perceived by the observer.

そこで、本発明では、光学フィルタの位置を変えたことで光学フィルタ自体が意識されてしまうなら、光学フィルタ自体を半遮蔽状態の創出を行うためのコンテンツの一部として捉えようという立場を採る。   Therefore, in the present invention, if the optical filter itself becomes conscious by changing the position of the optical filter, the optical filter itself is taken as a part of content for creating a semi-shielded state.

具体的には、遮蔽オブジェクトが観察者に違和感を与えないように、その内容と挙動をコンテンツとの関係で自然なものとする。例えば、遮蔽オブジェクトをコンテンツ中から選択してもよい。遮蔽オブジェクト表示デバイスが透過度の局所選択性を有すれば特にその効果が高い。   Specifically, the contents and behavior are natural in relation to the contents so that the occluding object does not give the viewer a sense of incongruity. For example, the occlusion object may be selected from the content. The effect is particularly high when the shielding object display device has local selectivity of transparency.

この方法により、例えば普及解像度が4Kに迫ろうとするフラットパネルディスプレイを、その解像度や明度を低下させることなく本発明の表示デバイスとして利用することができる。   By this method, for example, a flat panel display whose diffusion resolution is about to reach 4K can be used as the display device of the present invention without reducing the resolution and brightness.

(第2の提案技術)
2つ目は、「観察者の一方の片眼に対する遮蔽オブジェクトの見える遮蔽領域がなるべく大きくなり、他方の片眼に対するコンテンツ内の対象物の見える遮蔽領域(可視領域)がなるべく大きくなるように、遮蔽オブジェクトと透過領域の位置・大きさ・形状を制御する技術」を提案する。
(Second proposed technology)
The second is “so that the occlusion area where the occlusion object is visible to one eye of the observer is as large as possible, and the occlusion area (visible area) where the object in the content is visible to the other eye is as large as possible. We propose a technology that controls the position, size, and shape of occluded objects and transparent areas.

具体的には、例えば遮蔽オブジェクト表示デバイスとして透過型ディスプレイを用いる場合、遮蔽オブジェクトの位置・大きさ・形状を、遮蔽する側の眼にはコンテンツ内の表示対象を隠すために必要十分となるように調整し、かつ、遮蔽されない側の眼には表示対象を見るために邪魔にならないように調整する。   Specifically, for example, when a transmissive display is used as the occluding object display device, the position, size, and shape of the occluding object are necessary and sufficient to hide the display target in the content from the eye on the occluding side. The eye is adjusted so that it does not get in the way of seeing the display object.

これにより、遮蔽される眼では表示対象が観察不可能な状態となり、遮蔽されない眼では表示対象の可視領域が最大となるので、観察者の非遮蔽感を緩和することができる。   Accordingly, the display target cannot be observed with the shielded eye, and the visible region of the display target is maximized with the non-shielded eye, so that the observer's unshielded feeling can be reduced.

<立体画像表示制御システムの構成例>
次に、本実施の形態に係る立体画像表示制御システムの構成について説明する。図2に示すように、立体画像表示制御システム100は、立体画像表示制御装置1、遮蔽オブジェクト表示デバイス2、コンテンツ表示デバイス3、両眼位置取得デバイス4、遮蔽オブジェクト情報記憶部5、及びコンテンツ情報記憶部6を備えて構成される。
<Configuration example of stereoscopic image display control system>
Next, the configuration of the stereoscopic image display control system according to the present embodiment will be described. As illustrated in FIG. 2, the stereoscopic image display control system 100 includes a stereoscopic image display control device 1, a shielding object display device 2, a content display device 3, a binocular position acquisition device 4, a shielding object information storage unit 5, and content information. A storage unit 6 is provided.

コンテンツ表示デバイス3(第1表示装置)は、立体画像表示制御装置1から出力されたコンテンツを表示部(表示画面)に表示する表示デバイスである。例えば、コンテンツ表示デバイス3は、画像コンテンツを画面に表示し、映像コンテンツを画面に再生表示する。このコンテンツ表示デバイス3としては、例えば、液晶ディスプレイを利用して実現可能である。   The content display device 3 (first display device) is a display device that displays the content output from the stereoscopic image display control device 1 on a display unit (display screen). For example, the content display device 3 displays image content on the screen and reproduces and displays video content on the screen. The content display device 3 can be realized using, for example, a liquid crystal display.

遮蔽オブジェクト表示デバイス2(第2表示装置)は、コンテンツ表示デバイス3と観察者との中間地点付近に設置され、コンテンツに含まれる表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を表示部(表示画面)に形成して表示する表示デバイスである。例えば、遮蔽オブジェクト表示デバイス2は、立体画像表示制御装置1から出力された遮蔽オブジェクト画像及び非遮蔽オブジェクト画像を用いて、この半遮蔽状態を形成する。この遮蔽オブジェクト表示デバイス2としては、例えば、表示部の透過度を調整可能であり、表示部の透過領域の位置・大きさ・形状を変更・選択可能な表示デバイスを利用して実現可能である。   The shielding object display device 2 (second display device) is installed near an intermediate point between the content display device 3 and the observer, and the display target image included in the content is visible to one eye of the observer, and the other It is a display device that forms and displays a semi-shielded state invisible to one eye on a display unit (display screen). For example, the shielding object display device 2 forms this semi-shielding state using the shielding object image and the non-shielding object image output from the stereoscopic image display control device 1. For example, the shielding object display device 2 can be realized by using a display device that can adjust the transparency of the display unit and can change and select the position, size, and shape of the transmission region of the display unit. .

両眼位置取得デバイス4は、コンテンツ表示デバイス3の近傍に設置され、観察者の両眼を撮影するデバイスである。この両眼位置取得デバイス4としては、例えば、汎用のWebカメラで実現可能である。   The binocular position acquisition device 4 is a device that is installed in the vicinity of the content display device 3 and photographs the eyes of the observer. The binocular position acquisition device 4 can be realized by a general-purpose Web camera, for example.

次に、立体画像表示制御装置1について説明する。立体画像表示制御装置1は、所定のコンテンツをコンテンツ表示デバイス3に出力すると共に、そのコンテンツを用いて処理対象の実空間(遮蔽オブジェクト表示デバイス2とコンテンツ表示デバイス3とが設置された現実空間)に対応するバーチャル空間を自装置内部(計算機内部)に仮想形成して、そのバーチャル空間において、コンテンツ表示デバイス3の位置と観察者の左右の眼の各位置との間の位置・距離関係から観察者の片眼を遮蔽する遮蔽オブジェクト画像と他方の片眼を遮蔽しない非遮蔽オブジェクト画像を生成して、遮蔽オブジェクト表示デバイス2に出力する。   Next, the stereoscopic image display control device 1 will be described. The stereoscopic image display control apparatus 1 outputs predetermined content to the content display device 3 and uses the content as a real space to be processed (a real space in which the shielding object display device 2 and the content display device 3 are installed). A virtual space corresponding to is formed in the device itself (inside the computer), and the virtual space is observed from the position / distance relationship between the position of the content display device 3 and the positions of the left and right eyes of the observer. A shielding object image that shields one eye of the person and a non-shielding object image that does not shield the other eye are generated and output to the shielding object display device 2.

具体的には、立体画像表示制御装置1は、バーチャルカメラパラメタ更新部11、遮蔽オブジェクトパラメタ計算部12、及びモーション更新部13を備えて構成される。また、立体画像表示制御装置1は、遮蔽オブジェクト表示デバイス2、コンテンツ表示デバイス3、両眼位置取得デバイス4、遮蔽オブジェクト情報記憶部5、及びコンテンツ情報記憶部6に通信可能に接続されている。   Specifically, the stereoscopic image display control device 1 includes a virtual camera parameter update unit 11, a shielding object parameter calculation unit 12, and a motion update unit 13. The stereoscopic image display control device 1 is communicably connected to the occlusion object display device 2, the content display device 3, the binocular position acquisition device 4, the occlusion object information storage unit 5, and the content information storage unit 6.

バーチャルカメラパラメタ更新部11は、両眼位置取得デバイス4で撮影された観察者の左右の眼の各位置(3次元空間座標)を算出し、その位置情報を元に観察者の左右の眼にそれぞれ対応するバーチャル空間内の各バーチャルカメラの位置を更新する機能部である。   The virtual camera parameter update unit 11 calculates the positions (three-dimensional spatial coordinates) of the left and right eyes of the observer imaged by the binocular position acquisition device 4, and applies the left and right eyes of the observer based on the position information. It is a functional unit that updates the position of each virtual camera in the corresponding virtual space.

遮蔽オブジェクトパラメタ計算部12(立体画像形成制御部)は、遮蔽オブジェクト表示デバイス2の表示部に、コンテンツに含まれる表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成する機能を備える。   The occlusion object parameter calculation unit 12 (stereoscopic image formation control unit) displays the display target image included in the content on the display unit of the occlusion object display device 2 with one eye of the observer and the other eye with the other eye. It has a function to form an invisible semi-shielded state.

具体的には、例えば、バーチャル空間内に設定した観察者の左右の眼にそれぞれ対応する各バーチャルカメラの位置座標とコンテンツ内の表示対象画像の位置座標とを用いて、上記半遮蔽状態を形成する遮蔽オブジェクト画像及び非遮蔽オブジェクト画像の各位置座標を算出し、遮蔽オブジェクト情報記憶部5から取得した遮蔽オブジェクト画像及び非遮蔽オブジェクト画像を、算出した位置座標に対応する位置に遮蔽オブジェクト表示デバイス2の表示部に表示する。なお、遮蔽オブジェクト表示デバイス2が透過型ディスプレイの場合、遮蔽オブジェクト画像のみを用いて遮蔽領域と非遮蔽領域とを同時に形成可能である。   Specifically, for example, the semi-shielded state is formed by using the position coordinates of each virtual camera corresponding to the left and right eyes of the observer set in the virtual space and the position coordinates of the display target image in the content. The position coordinates of the shielding object image and the non-shielding object image to be calculated are calculated, and the shielding object image and the non-shielding object image acquired from the shielding object information storage unit 5 are displayed at the position corresponding to the calculated position coordinates. On the display. When the shielding object display device 2 is a transmissive display, the shielding area and the non-shielding area can be formed simultaneously using only the shielding object image.

また、遮蔽オブジェクトパラメタ計算部12は、表示・再生中のコンテンツに関連するオブジェクト画像を用いて遮蔽オブジェクト画像を生成する機能を備える。なお、その遮蔽オブジェクト画像の生成方法については、表示・再生中のコンテンツのデータから関連するオブジェクトを取得してもよいし、そのコンテンツのファイル名・題名等を検索キーに用いてインターネットから検索・取得してもよい。   The occlusion object parameter calculation unit 12 has a function of generating an occlusion object image using an object image related to the content being displayed / reproduced. As for the method for generating the occlusion object image, a related object may be acquired from the content data being displayed / reproduced, or the file name / title of the content may be used as a search key. You may get it.

また、遮蔽オブジェクトパラメタ計算部12は、表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えないように、遮蔽オブジェクト画像の位置・大きさ・形状を変更する機能を備える。例えば、観察者の一方の片眼に対する非遮蔽領域と他方の片眼に対する遮蔽領域を、いずれも表示対象画像よりも大きくするように制御する。   Further, the occlusion object parameter calculation unit 12 has a function of changing the position, size, and shape of the occlusion object image so that the display target image is visible to one eye of the observer but not to the other eye. Is provided. For example, the non-shielding area for one eye of the observer and the shielding area for the other eye are both controlled to be larger than the display target image.

モーション更新部13(コンテンツ表示制御部)は、コンテンツ情報記憶部6から取得した所定のコンテンツをコンテンツ表示デバイス3に出力し、コンテンツ表示デバイス3の表示部で表示・再生する機能を備える。   The motion update unit 13 (content display control unit) has a function of outputting predetermined content acquired from the content information storage unit 6 to the content display device 3 and displaying / reproducing the content on the display unit of the content display device 3.

以上が立体画像表示制御装置1の備える機能である。なお、この立体画像表示制御装置1は、CPU、メモリ、ハードディスク等を備えたコンピュータで実現可能である。また、立体画像表示制御装置1としてコンピュータを機能させるための立体画像表示制御プログラム、その立体画像表示制御プログラムの記憶媒体を作成することも可能である。   The above is the function of the stereoscopic image display control device 1. The stereoscopic image display control device 1 can be realized by a computer including a CPU, a memory, a hard disk, and the like. It is also possible to create a stereoscopic image display control program for causing a computer to function as the stereoscopic image display control apparatus 1 and a storage medium for the stereoscopic image display control program.

<処理対象の実空間の具体例>
ここで、処理対象の実空間の例を図3と図4に示す。図3に示すように、コンテンツ表示デバイス3の表示部3’には、昆虫の生態に関するコンテンツが再生され、クワガタが表示されている。また、コンテンツ表示デバイス3と観察者との中間地点に遮蔽オブジェクト2’が設置されている。この遮蔽オブジェクト2’は、遮蔽オブジェクト自体の存在ができる限り観察者に意識されないように、昆虫の生息地域に生えた草や葉が用いられている。また、両眼位置取得デバイス4は、観察者を撮影し易いようにコンテンツ表示デバイス3の真上に設置されている。図4に示す例では、遮蔽オブジェクト表示デバイス2として透過型ディスプレイが用いられている。以降、観察者の片眼を遮蔽するための遮蔽オブジェクトが存在する領域を遮蔽レイヤと呼ぶ場合がある。
<Specific examples of real space to be processed>
Here, examples of the real space to be processed are shown in FIGS. As shown in FIG. 3, on the display unit 3 ′ of the content display device 3, the content related to insect ecology is reproduced and a stag beetle is displayed. In addition, a shielding object 2 ′ is installed at an intermediate point between the content display device 3 and the observer. The shielding object 2 ′ is made of grass or leaves grown in an insect habitat so that the observer is not conscious as much as possible. Further, the binocular position acquisition device 4 is installed directly above the content display device 3 so as to easily photograph the observer. In the example shown in FIG. 4, a transmissive display is used as the shielding object display device 2. Hereinafter, a region where a shielding object for shielding one eye of the observer exists may be referred to as a shielding layer.

<立体画像表示制御装置の動作例>
次に、立体画像表示制御装置1の動作について説明する。立体画像表示制御装置1の動作フローを図5に示す。
<Operation example of stereoscopic image display control device>
Next, the operation of the stereoscopic image display control apparatus 1 will be described. An operation flow of the stereoscopic image display control apparatus 1 is shown in FIG.

本動作例では、遮蔽オブジェクト表示デバイス2として透過型ディスプレイを用い、遮蔽オブジェクト画像のみで遮蔽領域と非遮蔽領域の両領域を同時に形成する場合について説明する。   In this operation example, a case will be described in which a transmissive display is used as the occluding object display device 2 and both the occluded area and the non-occluded area are formed simultaneously only by the occluding object image.

本動作例において、コンテンツ表示デバイス3と遮蔽オブジェクト表示デバイス2に出力される画像は、立体画像表示制御装置1内(計算機内)のバーチャル空間をスクリーン空間に変換してレンダリングした画像である。   In this operation example, the images output to the content display device 3 and the occlusion object display device 2 are images rendered by converting the virtual space in the stereoscopic image display control device 1 (in the computer) into a screen space.

遮蔽オブジェクトの位置・形状を決定するうえで、観察者の視点の位置、コンテンツ内の表示対象の位置、遮蔽オブジェクトの位置に関して、互いの3次元的な位置関係を考慮する必要があるため、2次元のスクリーン空間に変換される前の実空間の構成(図6)に対応したバーチャル空間(図7)を考える。   In determining the position / shape of the occluding object, it is necessary to consider the three-dimensional positional relationship between the position of the observer's viewpoint, the position of the display target in the content, and the position of the occluding object. Consider a virtual space (FIG. 7) corresponding to the configuration of the real space (FIG. 6) before being converted to a three-dimensional screen space.

図7に示すバーチャル空間は、コンテンツに含まれる表示対象のポリゴンモデル(表示対象を模した3次元形状を持つモデル)、遮蔽レイヤを構成する遮蔽オブジェクトのポリゴンモデル、観察者の右眼と左眼にそれぞれ対応した2つのバーチャルカメラVR,VLを持つものとする。以降、図5〜図7を参照しつつ、立体画像表示制御装置1の動作について詳述する。   The virtual space shown in FIG. 7 includes a polygon model of a display target (a model having a three-dimensional shape imitating a display target) included in the content, a polygon model of a occluding object constituting the occluding layer, and the right and left eyes of the observer. It is assumed that there are two virtual cameras VR and VL respectively corresponding to. Hereinafter, the operation of the stereoscopic image display control apparatus 1 will be described in detail with reference to FIGS.

まず、立体画像表示制御装置1は、コンテンツ情報記憶部6に保存されているコンテンツを取得してモーション更新部13に入力する(ステップS1)。   First, the stereoscopic image display control device 1 acquires content stored in the content information storage unit 6 and inputs the content to the motion update unit 13 (step S1).

次に、立体画像表示制御装置1は、遮蔽オブジェクト情報記憶部5から、立体画像表示制御装置1のユーザ(例えば、立体映像の提供者等)により主観的に選択されたオブジェクトであって、コンテンツと同時に表示されていたとしても自然に感じる最適なオブジェクトを、遮蔽オブジェクトとして、遮蔽オブジェクトパラメタ計算部12とモーション更新部13に入力する(ステップS2)。   Next, the stereoscopic image display control device 1 is an object that is subjectively selected from the occlusion object information storage unit 5 by a user of the stereoscopic image display control device 1 (for example, a provider of stereoscopic video), and has content. At the same time, an optimal object that is naturally felt even if displayed is input to the occlusion object parameter calculation unit 12 and the motion update unit 13 as an occlusion object (step S2).

ここで言う“自然に感じるオブジェクト”とは、例えば、森林や海に生息しているような生物をコンテンツ内の表示対象として表示する場合、それぞれ草とワカメのような、コンテンツが形成するバーチャル空間の周辺環境として違和感なく感じられるオブジェクトを指す。また、コンテンツが複数の表示対象で構成され、その一部に違和感を与えない周辺環境としての役割を担うものがあれば、その表示対象を遮蔽オブジェクト画像として用いてもよい。   The “naturally-sensed object” here refers to, for example, a virtual space formed by content, such as grass and seaweed, when living creatures that live in forests or the sea are displayed as display targets in the content. An object that feels comfortable as a surrounding environment. In addition, if the content is composed of a plurality of display targets and there is something that plays a role as a surrounding environment that does not give a sense of incongruity to some of the contents, the display target may be used as a shielding object image.

その後、バーチャルカメラパラメタ更新部11は、Webカメラ等の両眼位置取得デバイス4を用いて、高速かつロバストなアルゴリズムのプログラムで観察者の両眼の位置を継続的に捕捉・算出し(ステップS3)、算出した観察者の両眼の位置情報を用いてバーチャル空間内の2つのバーチャルカメラVR,VLの位置をそれぞれ更新する(ステップS4)。なお、このアルゴリズムについては、例えば、「P. Viola and M. Jones、“Robust real-time facedetection”、International Journal of Computer Vision、vol.57、no.2、2004年、p.137- p.154」に記載されたViola-Jones法を用いて実現可能である。   Thereafter, the virtual camera parameter update unit 11 continuously captures and calculates the positions of both eyes of the observer using a binocular position acquisition device 4 such as a web camera with a program of a fast and robust algorithm (step S3). ), The positions of the two virtual cameras VR and VL in the virtual space are respectively updated using the calculated position information of both eyes of the observer (step S4). As for this algorithm, for example, “P. Viola and M. Jones,“ Robust real-time facedetection ”, International Journal of Computer Vision, vol. 57, no. 2, 2004, p.137-p.154. It can be realized using the Viola-Jones method described in the above.

次に、モーション更新部13は、ステップS1で入力されたコンテンツ内の画像情報を元にコンテンツに含まれる表示対象のバーチャル空間内での位置・姿勢・形状・大きさを決定し(ステップS5)、ステップS2で入力された遮蔽オブジェクトのバーチャル空間内での位置・姿勢・形状・大きさを決定する(ステップS6)。   Next, the motion update unit 13 determines the position / posture / shape / size in the display target virtual space included in the content based on the image information in the content input in step S1 (step S5). Then, the position / posture / shape / size in the virtual space of the occluding object input in step S2 is determined (step S6).

なお、コンテンツや遮蔽オブジェクトにアニメーション情報(動画像)が含まれている場合、モーション更新部13は、ステップS5,S6において、その動きに従いコンテンツに含まれる表示対象や遮蔽オブジェクトの位置・姿勢・形状・大きさを更新する。   If the content or the occluding object includes animation information (moving image), the motion updating unit 13 in steps S5 and S6, the display target included in the content or the position / posture / shape of the occluding object according to the movement. -Update the size.

次に、遮蔽オブジェクトパラメタ計算部12は、2つのバーチャルカメラVR,VLと表示対象と遮蔽オブジェクトの各位置情報を用いて、観察者の一方の片眼に対して表示対象が遮蔽されるように、遮蔽オブジェクトの位置・姿勢・形状・大きさを調整する(ステップS7)。   Next, the occlusion object parameter calculation unit 12 uses the two virtual cameras VR and VL, the display object, and the position information of the occlusion object so that the display object is occluded with respect to one eye of the observer. Then, the position / posture / shape / size of the shielding object is adjusted (step S7).

ステップS7の動作について詳述する。本動作例では、観察者の非遮蔽感を減らすため、観察者の各片眼からそれぞれ見て相対的に狭い表示対象のポリゴンモデルの視認領域を観察する眼を、遮蔽オブジェクトが隠す眼として選択する。   The operation in step S7 will be described in detail. In this operation example, in order to reduce the non-shielding feeling of the observer, the eye that observes the viewing area of the polygon model that is relatively narrow when viewed from each eye of the observer is selected as the eye that the shielding object hides. To do.

以降、このポリシに基づいて遮蔽レイヤの1フレームをレンダリングする毎の制御内容について説明する。なお、右眼用のバーチャルカメラVRの位置をVR(x_r,y_r,z_r)、左眼用のバーチャルカメラVLの位置をVL(x_l,y_l,z_l)とする。また、分かり易いように、ポリゴンモデルに代えて、より簡易なバウンディングボックス(ポリゴンモデルに接する直線から構成される直方体)を用いる。   Hereinafter, the control contents each time one frame of the shielding layer is rendered based on this policy will be described. Note that the position of the virtual camera VR for the right eye is VR (x_r, y_r, z_r), and the position of the virtual camera VL for the left eye is VL (x_l, y_l, z_l). Further, for easier understanding, a simpler bounding box (a rectangular parallelepiped composed of straight lines in contact with the polygon model) is used instead of the polygon model.

図7の場合、まず、右眼用のバーチャルカメラVRを通り、表示対象のバウンディングボックスに接するy_rの平面上の直線を考えると、右眼用のバーチャルカメラVRについて2本の直線が得られる。これらの直線とバウンディングボックスとの接点位置をR1,R2とする。   In the case of FIG. 7, first, considering the straight line on the y_r plane passing through the right-eye virtual camera VR and in contact with the bounding box to be displayed, two straight lines are obtained for the right-eye virtual camera VR. The contact positions of these straight lines and the bounding box are R1 and R2.

同様に、左眼用のバーチャルカメラVLを通り、表示対象のバウンディングボックスに接するy_lの平面上の直線を考えると、左眼用のバーチャルカメラVLについて2本の直線が得られる。これらの直線とバウンディングボックスとの接点位置をL1,L2とする。   Similarly, when a straight line on the plane y_l passing through the left-eye virtual camera VL and in contact with the bounding box to be displayed is considered, two straight lines are obtained for the left-eye virtual camera VL. The contact positions of these straight lines and the bounding box are L1 and L2.

そして、|R1−R2|と|L1−L2|の大小関係を求める。|R1−R2|の値は、「右眼視点VRにおける表示対象の表面積ファクタ」であり、|L1−L2|の値は、「左眼視点VLにおける表示対象の表面積ファクタ」である。   Then, the magnitude relationship between | R1-R2 | and | L1-L2 | is obtained. The value of | R1-R2 | is the “surface area factor of the display target at the right eye viewpoint VR”, and the value of | L1-L2 | is the “surface area factor of the display object at the left eye viewpoint VL”.

これらの演算をy_r,y_lの各平面上だけではなく、2つのバーチャルカメラVR,VLをそれぞれ通り表示対象のバウンディングボックスに接する全ての接線について行い、各視点VR,VLにおけるそれぞれの表示対象の表面積ファクタの平均値が小さい方の接点群に対応するバーチャルカメラを遮蔽対象バーチャルカメラとし、他方を非遮蔽対象バーチャルカメラとする。但し、比較した2つの平均値が等しい場合には、バウンディングボックスの中心座標又は中央座標から距離が近い方のバーチャルカメラを遮蔽対象バーチャルカメラとする。   These calculations are performed not only on the respective planes y_r and y_l, but also for all tangents that pass through the two virtual cameras VR and VL and touch the bounding box to be displayed, and the surface area of each display target at each viewpoint VR and VL. A virtual camera corresponding to a contact group having a smaller average factor is a shielding target virtual camera, and the other is a non-shielding target virtual camera. However, when the two average values compared are equal, the virtual camera closer to the center coordinate or the center coordinate of the bounding box is set as the shielding target virtual camera.

ここまでの処理により、上述したポリシ(観察者の各片眼からそれぞれ見て相対的に狭い表示対象のポリゴンモデルの視認領域を観察する眼を、遮蔽オブジェクトが隠す眼として選択すること)が実現される。   Through the processing so far, the above-described policy (selecting the eye that observes the viewing area of the relatively narrow display target polygon model as viewed from each eye of the observer as the eye hidden by the occlusion object) is realized. Is done.

続いて、遮蔽オブジェクトの位置・形状・大きさの調整方法について説明する。遮蔽領域の面積は遮蔽オブジェクトのz座標(遮蔽対象バーチャルカメラから遮蔽オブジェクトまでの距離)によって変化するが、ここでは、遮蔽オブジェクトが遮蔽対象バーチャルカメラから最も離れ、かつ、遮蔽オブジェクトが非遮蔽対象バーチャルカメラによって撮影されないという2つの要件を満たすことを考える。   Next, a method for adjusting the position / shape / size of the shielding object will be described. The area of the occlusion area changes depending on the z-coordinate of the occlusion object (the distance from the occlusion target virtual camera to the occlusion object). Here, the occlusion object is farthest from the occlusion target virtual camera, and the occlusion object is the non-occlusion target virtual. Consider meeting the two requirements of not being photographed by a camera.

上述した4本の直線のうち互いに交わる直線の交点をAとし、遮蔽対象バーチャルカメラ(図7の場合はVL)を通り交点Aが含まれない直線上の任意の点と交点Aとを両端とする又は該両端が含まれるように遮蔽オブジェクトを移動させる。また、遮蔽オブジェクトを移動した際、遮蔽オブジェクトの遮蔽幅(x軸上の幅)が交点Aを含む遮蔽最小幅に満たず、遮蔽対象バーチャルカメラから表示対象が観察される場合には、その遮蔽最小幅になるまで遮蔽オブジェクトの遮蔽幅を拡大する。   Of the four straight lines described above, the intersection of the straight lines that intersect with each other is A, and an arbitrary point on the straight line that does not include the intersection A through the shielding target virtual camera (VL in the case of FIG. 7) and the intersection A are both ends. Or move the occluding object to include both ends. In addition, when a shielding object is moved, if the shielding width (width on the x-axis) of the shielding object is less than the minimum shielding width including the intersection A and the display target is observed from the virtual camera to be shielded, the shielding is performed. Increase the occlusion width of the occlusion object until it reaches the minimum width.

遮蔽オブジェクトと表示対象が共に単純な矩形である場合には、遮蔽オブジェクトのy軸方向での1つの位置について上記処理を行うことにより、表示対を遮蔽することができる。一方、遮蔽オブジェクトと表示対象の形状が複雑であり、例えば遮蔽オブジェクトの形状を成す周縁が非直線性を有する場合には、遮蔽オブジェクトのy軸方向での全ての位置(高さ)で上記処理を行う。また、必要に応じて、遮蔽オブジェクトの高さを、遮蔽対象バーチャルカメラから表示対象が観察されない最小の高さまで調整してもよい。   When the shielding object and the display target are both simple rectangles, the display pair can be shielded by performing the above processing on one position in the y-axis direction of the shielding object. On the other hand, when the shape of the shielding object and the display target is complicated, for example, when the periphery of the shape of the shielding object has nonlinearity, the above processing is performed at all positions (heights) in the y-axis direction of the shielding object. I do. Further, if necessary, the height of the shielding object may be adjusted to the minimum height at which the display target is not observed from the shielding target virtual camera.

一方、非遮蔽対象バーチャルカメラ(図7の場合はVR)については、なるべく広い表示対象の視認領域を確保するため、非遮蔽対象バーチャルカメラを通る2本の直線と、その2本の直線に接するバウンディングボックスの各接点(R1,R2,…)とが成す領域内に遮蔽オブジェクトが含まれるか否かを判定し、遮蔽オブジェクトが含まれる場合、遮蔽オブジェクト位置を上記視認領域外に最小距離で移動させる。例えば、非遮蔽対象バーチャルカメラの位置からみて最大の高さの位置にある接点を含むy軸上に遮蔽オブジェクトとの重なりがあるか否かを判定する。   On the other hand, with respect to the non-shielding target virtual camera (VR in the case of FIG. 7), two straight lines passing through the non-shielding target virtual camera and the two straight lines are in contact with each other in order to secure a viewing area as large as possible. It is determined whether or not a shielding object is included in the area formed by the contact points (R1, R2,...) Of the bounding box. If a shielding object is included, the position of the shielding object is moved outside the viewing area by a minimum distance. Let For example, it is determined whether or not there is an overlap with the shielding object on the y axis including the contact point at the maximum height when viewed from the position of the non-shielding target virtual camera.

このようなステップS7の処理を全ての表示対象のポリゴンモデルについて行う。なお、ポリゴンモデルの増加による遮蔽領域と非遮蔽領域を求める計算機内での演算処理の破たんを防ぐため、ユーザにより予め選択された高優先度の表示対象のポリゴンモデルのみを処理対象としてもよい。   Such processing of step S7 is performed for all polygon models to be displayed. It should be noted that in order to prevent the calculation processing in the computer that obtains the shielding area and the non-shielding area from being increased due to an increase in polygon models, only the polygon model that is a display object with high priority selected in advance by the user may be set as the processing object.

また、遮蔽オブジェクト表示デバイス2として平面スクリーンを用いる場合、実世界における遮蔽オブジェクトをz軸方向に移動することは困難なので、図7に示した交点Aで単眼視点画像を生成できず、交点Aとは異なる位置で画像分離処理が行われる可能性がある。   Further, when a flat screen is used as the occlusion object display device 2, it is difficult to move the occlusion object in the z-axis direction in the real world, so a monocular viewpoint image cannot be generated at the intersection A shown in FIG. There is a possibility that image separation processing is performed at different positions.

このような場合、非遮蔽対象の眼には遮蔽オブジェクトの一部が視界に入り、表示対象が欠けて見えてしまう。そこで、これを防ぐため、図8に示すように、透過度の局所選択性を有しz軸方向に移動が可能な表示デバイスを用いるようにする。この表示デバイスを用いる場合、その表示デバイスのz軸上の位置をバーチャル空間の交点Aの座標位置に対応するA’の位置まで移動させる。   In such a case, a part of the obscured object enters the field of view for the non-occluded eye, and the display target is missing. Therefore, in order to prevent this, as shown in FIG. 8, a display device having local selectivity of transparency and movable in the z-axis direction is used. When this display device is used, the position of the display device on the z-axis is moved to the position A ′ corresponding to the coordinate position of the intersection A in the virtual space.

以上の処理によって、処理対象フレームにおける遮蔽オブジェクトと該遮蔽オブジェクトの位置・形状・大きさを示すパラメタとが決定された後、図5に戻り、立体画像表示制御装置1は、バーチャル空間のレンダリングを行い(ステップS8)、スクリーン空間へ変換していたバーチャル空間のピクセル値を各表示デバイスに渡す(ステップS9)。   After the obscuration object in the processing target frame and the parameters indicating the position, shape, and size of the obscuration object are determined by the above processing, the stereoscopic image display control device 1 renders the virtual space. In step S8, the pixel value of the virtual space converted to the screen space is passed to each display device (step S9).

具体的には、モーション更新部13が、コンテンツのピクセル値をコンテンツ表示デバイス3に出力し、遮蔽オブジェクトパラメタ計算部12が、遮蔽オブジェクトのピクセル値を遮蔽オブジェクト表示デバイス2に出力する。なお、遮蔽オブジェクト表示デバイス2に出力するピクセル値をレンダリングするバーチャルカメラは、VRとVLの中間に位置するVC(図7参照)が担うようにしてもよい。   Specifically, the motion update unit 13 outputs the pixel value of the content to the content display device 3, and the shielding object parameter calculation unit 12 outputs the pixel value of the shielding object to the shielding object display device 2. Note that the virtual camera that renders the pixel value to be output to the occluding object display device 2 may be handled by a VC (see FIG. 7) positioned between VR and VL.

以上説明したステップS3〜ステップS9の各処理を、両眼位置取得デバイス4から観察者の両眼位置情報が取得された1フレーム毎に行う。   Each process of step S3-step S9 demonstrated above is performed for every frame from which the binocular position information of the observer was acquired from the binocular position acquisition device 4. FIG.

<効果>
本実施の形態によれば、コンテンツ表示デバイス3と観察者との間に設置された遮蔽オブジェクト表示デバイス2の表示部に、コンテンツに含まれる表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成するので、観察者にメガネを装着させることなく、かつ、2台の汎用的な表示デバイスからなる簡易な装置構成で、観察者に対して立体画像を知覚させることができる。例えば、汎用のフラットパネルディスプレイと透過ディスプレイとを各1台という比較的安価なハードウェア構成で実現することができる。
<Effect>
According to the present embodiment, the display target image included in the content is visible to one eye of the viewer on the display unit of the shielding object display device 2 installed between the content display device 3 and the viewer. Because it forms a semi-shielded state that cannot be seen by the other eye, it does not require the observer to wear glasses, and it is a simple device configuration consisting of two general-purpose display devices. A stereoscopic image can be perceived. For example, a general-purpose flat panel display and a transmissive display can be realized with a relatively inexpensive hardware configuration of one each.

100…立体画像表示制御システム
1…立体画像表示制御装置
11…バーチャルカメラパラメタ更新部
12…遮蔽オブジェクトパラメタ計算部
13…モーション更新部
2…遮蔽オブジェクト表示デバイス
3…コンテンツ表示デバイス
4…両眼位置取得デバイス
5…遮蔽オブジェクト情報記憶部
6…コンテンツ情報記憶部
DESCRIPTION OF SYMBOLS 100 ... Stereoscopic image display control system 1 ... Stereoscopic image display control apparatus 11 ... Virtual camera parameter update part 12 ... Occlusion object parameter calculation part 13 ... Motion update part 2 ... Occlusion object display device 3 ... Content display device 4 ... Binocular position acquisition Device 5 ... Occlusion object information storage unit 6 ... Content information storage unit

Claims (6)

コンテンツを第1表示装置の表示部に表示するコンテンツ表示制御部と、
前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成する立体画像形成制御部と、
を備えることを特徴とする立体画像表示制御装置。
A content display control unit for displaying content on the display unit of the first display device;
On the display unit of the second display device installed between the first display device and the viewer of the content, the display target image included in the content is visible to one eye of the viewer and the other A three-dimensional image formation control unit that forms a semi-shielded state invisible to one eye;
A stereoscopic image display control device comprising:
前記第2表示装置は、
表示部の透過度又は透過領域を変更可能な透過型表示装置であることを特徴とする請求項1に記載の立体画像表示制御装置。
The second display device
The stereoscopic image display control device according to claim 1, wherein the stereoscopic image display control device is a transmissive display device capable of changing a transparency or a transmissive region of the display unit.
前記立体画像形成制御部は、
前記コンテンツに関連するオブジェクト画像を用いて前記第2表示装置の表示部に前記表示対象画像を遮蔽するための遮蔽領域を形成することを特徴とする請求項1又は2に記載の立体画像表示制御装置。
The stereoscopic image formation control unit
The stereoscopic image display control according to claim 1, wherein a shielding area for shielding the display target image is formed on a display unit of the second display device using an object image related to the content. apparatus.
前記第2表示装置は、透過性の表示部を備える透過型表示装置であって、
前記立体画像形成制御部は、
前記表示対象画像が前記観察者の一方の片眼には見え、前記他方の片眼には見えないように、前記表示対象画像を遮蔽するために当該透過型表示装置に表示するオブジェクト画像の位置、大きさ又は形状を変更することを特徴とする請求項1乃至3のいずれかに記載の立体画像表示制御装置。
The second display device is a transmissive display device including a transmissive display unit,
The stereoscopic image formation control unit
Position of an object image to be displayed on the transmissive display device for shielding the display target image so that the display target image is visible to one eye of the observer and not visible to the other eye The stereoscopic image display control device according to claim 1, wherein the size or shape is changed.
立体画像表示制御装置で行う立体画像表示制御方法において、
前記立体画像表示制御装置は、
コンテンツを第1表示装置の表示部に表示するステップと、
前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成するステップと、
を行うことを特徴とする立体画像表示制御方法。
In the stereoscopic image display control method performed by the stereoscopic image display control device,
The stereoscopic image display control device includes:
Displaying the content on the display unit of the first display device;
On the display unit of the second display device installed between the first display device and the viewer of the content, the display target image included in the content is visible to one eye of the viewer and the other Forming a semi-shielded state invisible to one eye;
A stereoscopic image display control method characterized by:
請求項1乃至4のいずれかに記載の立体画像表示制御装置としてコンピュータを機能させることを特徴とする立体画像表示制御プログラム。   A stereoscopic image display control program for causing a computer to function as the stereoscopic image display control device according to claim 1.
JP2017085000A 2017-04-24 2017-04-24 Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program Active JP6814686B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085000A JP6814686B2 (en) 2017-04-24 2017-04-24 Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085000A JP6814686B2 (en) 2017-04-24 2017-04-24 Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program

Publications (2)

Publication Number Publication Date
JP2018186319A true JP2018186319A (en) 2018-11-22
JP6814686B2 JP6814686B2 (en) 2021-01-20

Family

ID=64355142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085000A Active JP6814686B2 (en) 2017-04-24 2017-04-24 Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program

Country Status (1)

Country Link
JP (1) JP6814686B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179995A (en) * 1989-12-08 1991-08-05 Nippon Hoso Kyokai <Nhk> Stereoscopic picture display device
JPH08136884A (en) * 1994-11-04 1996-05-31 Matsushita Electric Ind Co Ltd Three dimensional image display device
JPH08234140A (en) * 1995-02-27 1996-09-13 Atr Ningen Joho Tsushin Kenkyusho:Kk Binocular stereoscopic image display method
JP2002245451A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image evaluating device
JP2014178524A (en) * 2013-03-15 2014-09-25 Pioneer Electronic Corp Display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179995A (en) * 1989-12-08 1991-08-05 Nippon Hoso Kyokai <Nhk> Stereoscopic picture display device
JPH08136884A (en) * 1994-11-04 1996-05-31 Matsushita Electric Ind Co Ltd Three dimensional image display device
JPH08234140A (en) * 1995-02-27 1996-09-13 Atr Ningen Joho Tsushin Kenkyusho:Kk Binocular stereoscopic image display method
JP2002245451A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image evaluating device
JP2014178524A (en) * 2013-03-15 2014-09-25 Pioneer Electronic Corp Display device

Also Published As

Publication number Publication date
JP6814686B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
JP3579162B2 (en) 3D CG image generation device
TWI523488B (en) A method of processing parallax information comprised in a signal
JP5996814B1 (en) Method and program for providing image of virtual space to head mounted display
WO2010084724A1 (en) Image processing device, program, image processing method, recording method, and recording medium
WO2010084716A1 (en) Image processing device, program, image processing method, recording method, and recording medium
CN103329165B (en) The pixel depth value of the virtual objects that the user in scaling three-dimensional scenic controls
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
JP2012079291A (en) Program, information storage medium and image generation system
KR20130097014A (en) Expanded 3d stereoscopic display system
US20190109938A1 (en) Message display method according to event occurrence in vr device and apparatus therefor
JP2011164781A (en) Stereoscopic image generation program, information storage medium, apparatus and method for generating stereoscopic image
JP5396877B2 (en) Image processing apparatus, program, image processing method, and recording method
JP2022183177A (en) Head-mounted display device
JP2011205195A (en) Image processing device, program, image processing method, chair, and appreciation system
JP6963399B2 (en) Program, recording medium, image generator, image generation method
JP2010259017A (en) Display device, display method and display program
US11212502B2 (en) Method of modifying an image on a computational device
KR20120093693A (en) Stereoscopic 3d display device and method of driving the same
US20210327121A1 (en) Display based mixed-reality device
JP6814686B2 (en) Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program
JPH09233499A (en) Three-dimensional image generator
JP2003348622A (en) Method for displaying stereoscopic vision and storage medium
CN104432922A (en) Helmet suitable for virtual reality
JP2019197368A (en) Stereoscopic motion image depth compression device and stereoscopic motion image depth compression program
JP7448856B2 (en) Gaze reproduction system, gaze reproduction method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150