JP6814686B2 - 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム - Google Patents

立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム Download PDF

Info

Publication number
JP6814686B2
JP6814686B2 JP2017085000A JP2017085000A JP6814686B2 JP 6814686 B2 JP6814686 B2 JP 6814686B2 JP 2017085000 A JP2017085000 A JP 2017085000A JP 2017085000 A JP2017085000 A JP 2017085000A JP 6814686 B2 JP6814686 B2 JP 6814686B2
Authority
JP
Japan
Prior art keywords
display
stereoscopic image
eye
content
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017085000A
Other languages
English (en)
Other versions
JP2018186319A (ja
Inventor
建 井阪
建 井阪
高田 英明
英明 高田
長田 秀信
秀信 長田
誉宗 巻口
誉宗 巻口
広夢 宮下
広夢 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017085000A priority Critical patent/JP6814686B2/ja
Publication of JP2018186319A publication Critical patent/JP2018186319A/ja
Application granted granted Critical
Publication of JP6814686B2 publication Critical patent/JP6814686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、観察者に立体画像を知覚させる技術に関する。
立体表示方式の基礎となるメガネあり方式では、同一画面内に視差画像を表示し、メガネに備わる光学フィルタで右眼用画像と左眼用画像に分離して、右眼と左眼にそれぞれ透過させることにより、両眼視差による奥行き情報を観察者に伝達するという方法が採られている。
メガネあり方式では、観察者が空間内を自由に移動しても、画像分離機能を持つ光学フィルタも共に移動するので、任意の位置・場所で画像の立体視が可能であり、同時に複数の人数で立体画像を鑑賞することもできる。しかし、メガネの装着は観察者に負担がかかり、メガネを常に装着しているとは限らないので、立体視が可能な利用場面は限られてしまう。それ故、メガネを必要としないメガネなし方式が要請されている。
メガネあり方式では、観察者の眼の直前に光学フィルタがあるため、画面からの視差画像を観察者の視点で分離可能である。一方、メガネなし方式では、光学フィルタを観察者の眼の直前に配置することができず、その代わりに、表示装置の画面直前に光学フィルタを備え付け、観察者から離れた位置で視差画像を分離して、空間内に設定された観察者の視点に対して、表示装置側から右眼用画像と左眼用画像を届けるという方法が採られている。
特開2016−161912号公報
しかし、従来のメガネなし方式の場合、観察者から離れた位置で視差画像を分離するため、右眼用画像と左眼用画像を観察者の右眼と左眼にそれぞれ届けるには、画面から放射される視差画像の光線に指向性を持たせる必要があり、ハードウェア的にもソフトウェア的にも表示コストが極めて高い。例えば、特許文献1に記載された「光線の指向性と滑らかな運動視差をもつ裸眼立体映像表示方法」の場合、特殊なスクリーンと複数のプロジェクタを利用しなければならない。
本発明は、上記事情を鑑みてなされたものであり、観察者にメガネを装着させることなく簡易な装置構成で立体画像を知覚させることを目的とする。
以上の課題を解決するため、請求項1に係る立体画像表示制御装置は、コンテンツを第1表示装置の表示部に表示するコンテンツ表示制御部と、前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成する立体画像形成制御部と、を備えることを特徴とする。
請求項2に係る立体画像表示制御装置は、請求項1に記載の立体画像表示制御装置において、前記第2表示装置は、表示部の透過度又は透過領域を変更可能な透過型表示装置であることを特徴とする。
請求項3に係る立体画像表示制御装置は、請求項1又は2に記載の立体画像表示制御装置において、前記立体画像形成制御部は、前記コンテンツに関連するオブジェクト画像を用いて前記第2表示装置の表示部に前記表示対象画像を遮蔽するための遮蔽領域を形成することを特徴とする。
請求項4に係る立体画像表示制御装置は、請求項1乃至3のいずれかに記載の立体画像表示制御装置において、前記第2表示装置は、透過性の表示部を備える透過型表示装置であって、前記立体画像形成制御部は、前記表示対象画像が前記観察者の一方の片眼には見え、前記他方の片眼には見えないように、前記表示対象画像を遮蔽するために当該透過型表示装置に表示するオブジェクト画像の位置、大きさ又は形状を変更することを特徴とする。
請求項5に係る立体画像表示制御方法は、立体画像表示制御装置で行う立体画像表示制御方法において、前記立体画像表示制御装置は、コンテンツを第1表示装置の表示部に表示するステップと、前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成するステップと、を行うことを特徴とする。
請求項6に係る立体画像表示制御プログラムは、請求項1乃至4のいずれかに記載の立体画像表示制御装置としてコンピュータを機能させることを特徴とする。
本発明によれば、観察者にメガネを装着させることなく簡易な装置構成で立体画像を知覚させることができる。
本発明による表示対象の見え方の例を示す図である。 立体画像表示制御システムの全体構成を示す図である。 実空間の例を示す図である。 実空間の例を示す図である。 立体画像表示制御装置の動作フローを示す図である。 実空間における各オブジェクトの位置関係を示す上面図である。 図6の実空間に対応するバーチャル空間における各オブジェクトの位置関係を示す上面図である。 実空間における各オブジェクトの位置関係(遮蔽オブジェクト表示デバイスとして平面スクリーンを用いた場合)を示す上面図である。
<発明の概要>
従来のメガネなし方式の場合、コンテンツ内の表示対象に立体感を与えるために特殊なスクリーンと複数のプロジェクタを用いるので、表示コストが極めて高い。この原因は、「観察者のそれぞれの眼に対応する独立した各画像(右眼用画像と左眼用画像)を同時に生成し、それらの画像に指向性を持たせる」という方法にある。
一方、本発明は、「コンテンツ内の表示対象に対して観察者の両眼視差を利用することは行わず、単眼性の奥行き手がかりのみで表示対象の奥行きを判断させる」という方法を採る。両眼視差を利用しないため、コンテンツを右眼用画像と左眼用画像に分離することや、右眼と左眼でコンテンツ内の同一画像領域を見せることは行わない。
具体的には、コンテンツを表示するコンテンツ表示デバイスと、そのコンテンツを観察する観察者との中間地点付近に遮蔽オブジェクト表示デバイスを設置する。そして、表示中・再生中のコンテンツに含まれる表示対象を、遮蔽オブジェクト表示デバイスにおいて、観察者の一方の片眼には遮蔽せず、他方の片眼には遮蔽する。つまり、非遮蔽・遮蔽による単眼視点画像を利用することにより、単眼性の奥行き手がかりのみで表示対象に立体感を与えるようにする。
これにより、観察者にメガネを装着させることなく、かつ、2台の汎用的な表示デバイスからなる簡易な装置構成で、観察者に対して立体画像を知覚させることができる。
<発明の提案技術>
本発明では、次の技術を提案する。
(第1の提案技術)
1つ目は、「コンテンツ表示デバイスと観察者との間に遮蔽オブジェクトを設け、観察者にコンテンツに対する両眼視差処理をとらせず、単眼視点画像により観察者に与えるコンテンツの立体感を増強する技術」を提案する。
人間の通常生活する環境では、対象物が片方の眼だけに見えるが、もう片方の眼には見えない半遮蔽状態が自然に存在している。例えば、図1に示すように、コンテンツ内の対象物の前方に遮蔽オブジェクトが存在すると、観察者の片方の眼では対象物が見えず、もう片方の眼では対象物が見える状態となる。この半遮蔽状態を利用すれば、これまで視差画像を右眼用画像と左眼用画像に分離することで実現していた裸眼立体表示を、単眼視点画像を用いて実現することができる。
従来では観察者の視点位置又は画像の表示位置で画像分離を行っていたが、本発明では、上記半遮蔽状態を形成するため、コンテンツ表示デバイスと観察者との中間地点付近に遮蔽オブジェクトを表示させた透過度の局所選択性を有する遮蔽オブジェクト表示デバイスを置き、コンテンツに対する観察者の単眼視領域を増やすことで立体感を与える。また、その遮蔽オブジェクト自体もコンテンツの一部として利用する。
その一方で、この方法は、単に画像分離機能を持つ光学フィルタを観察者の視点と表示デバイスとの中間地点に設置した方法と解釈することもできる。しかし、不透明な光学フィルタを該中間地点に設けると、光学フィルタ自体が観察者に意識されてしまうという別の問題が生じる。
そこで、本発明では、光学フィルタの位置を変えたことで光学フィルタ自体が意識されてしまうなら、光学フィルタ自体を半遮蔽状態の創出を行うためのコンテンツの一部として捉えようという立場を採る。
具体的には、遮蔽オブジェクトが観察者に違和感を与えないように、その内容と挙動をコンテンツとの関係で自然なものとする。例えば、遮蔽オブジェクトをコンテンツ中から選択してもよい。遮蔽オブジェクト表示デバイスが透過度の局所選択性を有すれば特にその効果が高い。
この方法により、例えば普及解像度が4Kに迫ろうとするフラットパネルディスプレイを、その解像度や明度を低下させることなく本発明の表示デバイスとして利用することができる。
(第2の提案技術)
2つ目は、「観察者の一方の片眼に対する遮蔽オブジェクトの見える遮蔽領域がなるべく大きくなり、他方の片眼に対するコンテンツ内の対象物の見える遮蔽領域(可視領域)がなるべく大きくなるように、遮蔽オブジェクトと透過領域の位置・大きさ・形状を制御する技術」を提案する。
具体的には、例えば遮蔽オブジェクト表示デバイスとして透過型ディスプレイを用いる場合、遮蔽オブジェクトの位置・大きさ・形状を、遮蔽する側の眼にはコンテンツ内の表示対象を隠すために必要十分となるように調整し、かつ、遮蔽されない側の眼には表示対象を見るために邪魔にならないように調整する。
これにより、遮蔽される眼では表示対象が観察不可能な状態となり、遮蔽されない眼では表示対象の可視領域が最大となるので、観察者の非遮蔽感を緩和することができる。
<立体画像表示制御システムの構成例>
次に、本実施の形態に係る立体画像表示制御システムの構成について説明する。図2に示すように、立体画像表示制御システム100は、立体画像表示制御装置1、遮蔽オブジェクト表示デバイス2、コンテンツ表示デバイス3、両眼位置取得デバイス4、遮蔽オブジェクト情報記憶部5、及びコンテンツ情報記憶部6を備えて構成される。
コンテンツ表示デバイス3(第1表示装置)は、立体画像表示制御装置1から出力されたコンテンツを表示部(表示画面)に表示する表示デバイスである。例えば、コンテンツ表示デバイス3は、画像コンテンツを画面に表示し、映像コンテンツを画面に再生表示する。このコンテンツ表示デバイス3としては、例えば、液晶ディスプレイを利用して実現可能である。
遮蔽オブジェクト表示デバイス2(第2表示装置)は、コンテンツ表示デバイス3と観察者との中間地点付近に設置され、コンテンツに含まれる表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を表示部(表示画面)に形成して表示する表示デバイスである。例えば、遮蔽オブジェクト表示デバイス2は、立体画像表示制御装置1から出力された遮蔽オブジェクト画像及び非遮蔽オブジェクト画像を用いて、この半遮蔽状態を形成する。この遮蔽オブジェクト表示デバイス2としては、例えば、表示部の透過度を調整可能であり、表示部の透過領域の位置・大きさ・形状を変更・選択可能な表示デバイスを利用して実現可能である。
両眼位置取得デバイス4は、コンテンツ表示デバイス3の近傍に設置され、観察者の両眼を撮影するデバイスである。この両眼位置取得デバイス4としては、例えば、汎用のWebカメラで実現可能である。
次に、立体画像表示制御装置1について説明する。立体画像表示制御装置1は、所定のコンテンツをコンテンツ表示デバイス3に出力すると共に、そのコンテンツを用いて処理対象の実空間(遮蔽オブジェクト表示デバイス2とコンテンツ表示デバイス3とが設置された現実空間)に対応するバーチャル空間を自装置内部(計算機内部)に仮想形成して、そのバーチャル空間において、コンテンツ表示デバイス3の位置と観察者の左右の眼の各位置との間の位置・距離関係から観察者の片眼を遮蔽する遮蔽オブジェクト画像と他方の片眼を遮蔽しない非遮蔽オブジェクト画像を生成して、遮蔽オブジェクト表示デバイス2に出力する。
具体的には、立体画像表示制御装置1は、バーチャルカメラパラメタ更新部11、遮蔽オブジェクトパラメタ計算部12、及びモーション更新部13を備えて構成される。また、立体画像表示制御装置1は、遮蔽オブジェクト表示デバイス2、コンテンツ表示デバイス3、両眼位置取得デバイス4、遮蔽オブジェクト情報記憶部5、及びコンテンツ情報記憶部6に通信可能に接続されている。
バーチャルカメラパラメタ更新部11は、両眼位置取得デバイス4で撮影された観察者の左右の眼の各位置(3次元空間座標)を算出し、その位置情報を元に観察者の左右の眼にそれぞれ対応するバーチャル空間内の各バーチャルカメラの位置を更新する機能部である。
遮蔽オブジェクトパラメタ計算部12(立体画像形成制御部)は、遮蔽オブジェクト表示デバイス2の表示部に、コンテンツに含まれる表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成する機能を備える。
具体的には、例えば、バーチャル空間内に設定した観察者の左右の眼にそれぞれ対応する各バーチャルカメラの位置座標とコンテンツ内の表示対象画像の位置座標とを用いて、上記半遮蔽状態を形成する遮蔽オブジェクト画像及び非遮蔽オブジェクト画像の各位置座標を算出し、遮蔽オブジェクト情報記憶部5から取得した遮蔽オブジェクト画像及び非遮蔽オブジェクト画像を、算出した位置座標に対応する位置に遮蔽オブジェクト表示デバイス2の表示部に表示する。なお、遮蔽オブジェクト表示デバイス2が透過型ディスプレイの場合、遮蔽オブジェクト画像のみを用いて遮蔽領域と非遮蔽領域とを同時に形成可能である。
また、遮蔽オブジェクトパラメタ計算部12は、表示・再生中のコンテンツに関連するオブジェクト画像を用いて遮蔽オブジェクト画像を生成する機能を備える。なお、その遮蔽オブジェクト画像の生成方法については、表示・再生中のコンテンツのデータから関連するオブジェクトを取得してもよいし、そのコンテンツのファイル名・題名等を検索キーに用いてインターネットから検索・取得してもよい。
また、遮蔽オブジェクトパラメタ計算部12は、表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えないように、遮蔽オブジェクト画像の位置・大きさ・形状を変更する機能を備える。例えば、観察者の一方の片眼に対する非遮蔽領域と他方の片眼に対する遮蔽領域を、いずれも表示対象画像よりも大きくするように制御する。
モーション更新部13(コンテンツ表示制御部)は、コンテンツ情報記憶部6から取得した所定のコンテンツをコンテンツ表示デバイス3に出力し、コンテンツ表示デバイス3の表示部で表示・再生する機能を備える。
以上が立体画像表示制御装置1の備える機能である。なお、この立体画像表示制御装置1は、CPU、メモリ、ハードディスク等を備えたコンピュータで実現可能である。また、立体画像表示制御装置1としてコンピュータを機能させるための立体画像表示制御プログラム、その立体画像表示制御プログラムの記憶媒体を作成することも可能である。
<処理対象の実空間の具体例>
ここで、処理対象の実空間の例を図3と図4に示す。図3に示すように、コンテンツ表示デバイス3の表示部3’には、昆虫の生態に関するコンテンツが再生され、クワガタが表示されている。また、コンテンツ表示デバイス3と観察者との中間地点に遮蔽オブジェクト2’が設置されている。この遮蔽オブジェクト2’は、遮蔽オブジェクト自体の存在ができる限り観察者に意識されないように、昆虫の生息地域に生えた草や葉が用いられている。また、両眼位置取得デバイス4は、観察者を撮影し易いようにコンテンツ表示デバイス3の真上に設置されている。図4に示す例では、遮蔽オブジェクト表示デバイス2として透過型ディスプレイが用いられている。以降、観察者の片眼を遮蔽するための遮蔽オブジェクトが存在する領域を遮蔽レイヤと呼ぶ場合がある。
<立体画像表示制御装置の動作例>
次に、立体画像表示制御装置1の動作について説明する。立体画像表示制御装置1の動作フローを図5に示す。
本動作例では、遮蔽オブジェクト表示デバイス2として透過型ディスプレイを用い、遮蔽オブジェクト画像のみで遮蔽領域と非遮蔽領域の両領域を同時に形成する場合について説明する。
本動作例において、コンテンツ表示デバイス3と遮蔽オブジェクト表示デバイス2に出力される画像は、立体画像表示制御装置1内(計算機内)のバーチャル空間をスクリーン空間に変換してレンダリングした画像である。
遮蔽オブジェクトの位置・形状を決定するうえで、観察者の視点の位置、コンテンツ内の表示対象の位置、遮蔽オブジェクトの位置に関して、互いの3次元的な位置関係を考慮する必要があるため、2次元のスクリーン空間に変換される前の実空間の構成(図6)に対応したバーチャル空間(図7)を考える。
図7に示すバーチャル空間は、コンテンツに含まれる表示対象のポリゴンモデル(表示対象を模した3次元形状を持つモデル)、遮蔽レイヤを構成する遮蔽オブジェクトのポリゴンモデル、観察者の右眼と左眼にそれぞれ対応した2つのバーチャルカメラVR,VLを持つものとする。以降、図5〜図7を参照しつつ、立体画像表示制御装置1の動作について詳述する。
まず、立体画像表示制御装置1は、コンテンツ情報記憶部6に保存されているコンテンツを取得してモーション更新部13に入力する(ステップS1)。
次に、立体画像表示制御装置1は、遮蔽オブジェクト情報記憶部5から、立体画像表示制御装置1のユーザ(例えば、立体映像の提供者等)により主観的に選択されたオブジェクトであって、コンテンツと同時に表示されていたとしても自然に感じる最適なオブジェクトを、遮蔽オブジェクトとして、遮蔽オブジェクトパラメタ計算部12とモーション更新部13に入力する(ステップS2)。
ここで言う“自然に感じるオブジェクト”とは、例えば、森林や海に生息しているような生物をコンテンツ内の表示対象として表示する場合、それぞれ草とワカメのような、コンテンツが形成するバーチャル空間の周辺環境として違和感なく感じられるオブジェクトを指す。また、コンテンツが複数の表示対象で構成され、その一部に違和感を与えない周辺環境としての役割を担うものがあれば、その表示対象を遮蔽オブジェクト画像として用いてもよい。
その後、バーチャルカメラパラメタ更新部11は、Webカメラ等の両眼位置取得デバイス4を用いて、高速かつロバストなアルゴリズムのプログラムで観察者の両眼の位置を継続的に捕捉・算出し(ステップS3)、算出した観察者の両眼の位置情報を用いてバーチャル空間内の2つのバーチャルカメラVR,VLの位置をそれぞれ更新する(ステップS4)。なお、このアルゴリズムについては、例えば、「P. Viola and M. Jones、“Robust real-time facedetection”、International Journal of Computer Vision、vol.57、no.2、2004年、p.137- p.154」に記載されたViola-Jones法を用いて実現可能である。
次に、モーション更新部13は、ステップS1で入力されたコンテンツ内の画像情報を元にコンテンツに含まれる表示対象のバーチャル空間内での位置・姿勢・形状・大きさを決定し(ステップS5)、ステップS2で入力された遮蔽オブジェクトのバーチャル空間内での位置・姿勢・形状・大きさを決定する(ステップS6)。
なお、コンテンツや遮蔽オブジェクトにアニメーション情報(動画像)が含まれている場合、モーション更新部13は、ステップS5,S6において、その動きに従いコンテンツに含まれる表示対象や遮蔽オブジェクトの位置・姿勢・形状・大きさを更新する。
次に、遮蔽オブジェクトパラメタ計算部12は、2つのバーチャルカメラVR,VLと表示対象と遮蔽オブジェクトの各位置情報を用いて、観察者の一方の片眼に対して表示対象が遮蔽されるように、遮蔽オブジェクトの位置・姿勢・形状・大きさを調整する(ステップS7)。
ステップS7の動作について詳述する。本動作例では、観察者の非遮蔽感を減らすため、観察者の各片眼からそれぞれ見て相対的に狭い表示対象のポリゴンモデルの視認領域を観察する眼を、遮蔽オブジェクトが隠す眼として選択する。
以降、このポリシに基づいて遮蔽レイヤの1フレームをレンダリングする毎の制御内容について説明する。なお、右眼用のバーチャルカメラVRの位置をVR(x_r,y_r,z_r)、左眼用のバーチャルカメラVLの位置をVL(x_l,y_l,z_l)とする。また、分かり易いように、ポリゴンモデルに代えて、より簡易なバウンディングボックス(ポリゴンモデルに接する直線から構成される直方体)を用いる。
図7の場合、まず、右眼用のバーチャルカメラVRを通り、表示対象のバウンディングボックスに接するy_rの平面上の直線を考えると、右眼用のバーチャルカメラVRについて2本の直線が得られる。これらの直線とバウンディングボックスとの接点位置をR1,R2とする。
同様に、左眼用のバーチャルカメラVLを通り、表示対象のバウンディングボックスに接するy_lの平面上の直線を考えると、左眼用のバーチャルカメラVLについて2本の直線が得られる。これらの直線とバウンディングボックスとの接点位置をL1,L2とする。
そして、|R1−R2|と|L1−L2|の大小関係を求める。|R1−R2|の値は、「右眼視点VRにおける表示対象の表面積ファクタ」であり、|L1−L2|の値は、「左眼視点VLにおける表示対象の表面積ファクタ」である。
これらの演算をy_r,y_lの各平面上だけではなく、2つのバーチャルカメラVR,VLをそれぞれ通り表示対象のバウンディングボックスに接する全ての接線について行い、各視点VR,VLにおけるそれぞれの表示対象の表面積ファクタの平均値が小さい方の接点群に対応するバーチャルカメラを遮蔽対象バーチャルカメラとし、他方を非遮蔽対象バーチャルカメラとする。但し、比較した2つの平均値が等しい場合には、バウンディングボックスの中心座標又は中央座標から距離が近い方のバーチャルカメラを遮蔽対象バーチャルカメラとする。
ここまでの処理により、上述したポリシ(観察者の各片眼からそれぞれ見て相対的に狭い表示対象のポリゴンモデルの視認領域を観察する眼を、遮蔽オブジェクトが隠す眼として選択すること)が実現される。
続いて、遮蔽オブジェクトの位置・形状・大きさの調整方法について説明する。遮蔽領域の面積は遮蔽オブジェクトのz座標(遮蔽対象バーチャルカメラから遮蔽オブジェクトまでの距離)によって変化するが、ここでは、遮蔽オブジェクトが遮蔽対象バーチャルカメラから最も離れ、かつ、遮蔽オブジェクトが非遮蔽対象バーチャルカメラによって撮影されないという2つの要件を満たすことを考える。
上述した4本の直線のうち互いに交わる直線の交点をAとし、遮蔽対象バーチャルカメラ(図7の場合はVL)を通り交点Aが含まれない直線上の任意の点と交点Aとを両端とする又は該両端が含まれるように遮蔽オブジェクトを移動させる。また、遮蔽オブジェクトを移動した際、遮蔽オブジェクトの遮蔽幅(x軸上の幅)が交点Aを含む遮蔽最小幅に満たず、遮蔽対象バーチャルカメラから表示対象が観察される場合には、その遮蔽最小幅になるまで遮蔽オブジェクトの遮蔽幅を拡大する。
遮蔽オブジェクトと表示対象が共に単純な矩形である場合には、遮蔽オブジェクトのy軸方向での1つの位置について上記処理を行うことにより、表示対を遮蔽することができる。一方、遮蔽オブジェクトと表示対象の形状が複雑であり、例えば遮蔽オブジェクトの形状を成す周縁が非直線性を有する場合には、遮蔽オブジェクトのy軸方向での全ての位置(高さ)で上記処理を行う。また、必要に応じて、遮蔽オブジェクトの高さを、遮蔽対象バーチャルカメラから表示対象が観察されない最小の高さまで調整してもよい。
一方、非遮蔽対象バーチャルカメラ(図7の場合はVR)については、なるべく広い表示対象の視認領域を確保するため、非遮蔽対象バーチャルカメラを通る2本の直線と、その2本の直線に接するバウンディングボックスの各接点(R1,R2,…)とが成す領域内に遮蔽オブジェクトが含まれるか否かを判定し、遮蔽オブジェクトが含まれる場合、遮蔽オブジェクト位置を上記視認領域外に最小距離で移動させる。例えば、非遮蔽対象バーチャルカメラの位置からみて最大の高さの位置にある接点を含むy軸上に遮蔽オブジェクトとの重なりがあるか否かを判定する。
このようなステップS7の処理を全ての表示対象のポリゴンモデルについて行う。なお、ポリゴンモデルの増加による遮蔽領域と非遮蔽領域を求める計算機内での演算処理の破たんを防ぐため、ユーザにより予め選択された高優先度の表示対象のポリゴンモデルのみを処理対象としてもよい。
また、遮蔽オブジェクト表示デバイス2として平面スクリーンを用いる場合、実世界における遮蔽オブジェクトをz軸方向に移動することは困難なので、図7に示した交点Aで単眼視点画像を生成できず、交点Aとは異なる位置で画像分離処理が行われる可能性がある。
このような場合、非遮蔽対象の眼には遮蔽オブジェクトの一部が視界に入り、表示対象が欠けて見えてしまう。そこで、これを防ぐため、図8に示すように、透過度の局所選択性を有しz軸方向に移動が可能な表示デバイスを用いるようにする。この表示デバイスを用いる場合、その表示デバイスのz軸上の位置をバーチャル空間の交点Aの座標位置に対応するA’の位置まで移動させる。
以上の処理によって、処理対象フレームにおける遮蔽オブジェクトと該遮蔽オブジェクトの位置・形状・大きさを示すパラメタとが決定された後、図5に戻り、立体画像表示制御装置1は、バーチャル空間のレンダリングを行い(ステップS8)、スクリーン空間へ変換していたバーチャル空間のピクセル値を各表示デバイスに渡す(ステップS9)。
具体的には、モーション更新部13が、コンテンツのピクセル値をコンテンツ表示デバイス3に出力し、遮蔽オブジェクトパラメタ計算部12が、遮蔽オブジェクトのピクセル値を遮蔽オブジェクト表示デバイス2に出力する。なお、遮蔽オブジェクト表示デバイス2に出力するピクセル値をレンダリングするバーチャルカメラは、VRとVLの中間に位置するVC(図7参照)が担うようにしてもよい。
以上説明したステップS3〜ステップS9の各処理を、両眼位置取得デバイス4から観察者の両眼位置情報が取得された1フレーム毎に行う。
<効果>
本実施の形態によれば、コンテンツ表示デバイス3と観察者との間に設置された遮蔽オブジェクト表示デバイス2の表示部に、コンテンツに含まれる表示対象画像が観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成するので、観察者にメガネを装着させることなく、かつ、2台の汎用的な表示デバイスからなる簡易な装置構成で、観察者に対して立体画像を知覚させることができる。例えば、汎用のフラットパネルディスプレイと透過ディスプレイとを各1台という比較的安価なハードウェア構成で実現することができる。
100…立体画像表示制御システム
1…立体画像表示制御装置
11…バーチャルカメラパラメタ更新部
12…遮蔽オブジェクトパラメタ計算部
13…モーション更新部
2…遮蔽オブジェクト表示デバイス
3…コンテンツ表示デバイス
4…両眼位置取得デバイス
5…遮蔽オブジェクト情報記憶部
6…コンテンツ情報記憶部

Claims (6)

  1. コンテンツを第1表示装置の表示部に表示するコンテンツ表示制御部と、
    前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成する立体画像形成制御部と、を備え、
    前記立体画像形成制御部は、
    前記観察者の各片眼からそれぞれ見た前記表示対象画像の大きさのうち小さく見える方の片眼を前記表示対象画像を遮蔽する眼として前記半遮蔽状態を形成することを特徴とする立体画像表示制御装置。
  2. 前記第2表示装置は、
    表示部の透過度又は透過領域を変更可能な透過型表示装置であることを特徴とする請求項1に記載の立体画像表示制御装置。
  3. 前記立体画像形成制御部は、
    前記コンテンツに関連するオブジェクト画像を用いて前記第2表示装置の表示部に前記表示対象画像を遮蔽するための遮蔽領域を形成することを特徴とする請求項1又は2に記載の立体画像表示制御装置。
  4. 前記第2表示装置は、透過性の表示部を備える透過型表示装置であって、
    前記立体画像形成制御部は、
    前記表示対象画像が前記観察者の一方の片眼には見え、前記他方の片眼には見えないように、前記表示対象画像を遮蔽するために当該透過型表示装置に表示するオブジェクト画像の位置、大きさ又は形状を変更することを特徴とする請求項1乃至3のいずれかに記載の立体画像表示制御装置。
  5. 立体画像表示制御装置で行う立体画像表示制御方法において、
    前記立体画像表示制御装置は、
    コンテンツを第1表示装置の表示部に表示するステップと、
    前記第1表示装置と前記コンテンツの観察者との間に設置された第2表示装置の表示部に、前記コンテンツに含まれる表示対象画像が前記観察者の一方の片眼には見え、他方の片眼には見えない半遮蔽状態を形成するステップと、を行い、
    前記形成するステップでは、
    前記観察者の各片眼からそれぞれ見た前記表示対象画像の大きさのうち小さく見える方の片眼を前記表示対象画像を遮蔽する眼として前記半遮蔽状態を形成することを特徴とする立体画像表示制御方法。
  6. 請求項1乃至4のいずれかに記載の立体画像表示制御装置としてコンピュータを機能させることを特徴とする立体画像表示制御プログラム。
JP2017085000A 2017-04-24 2017-04-24 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム Active JP6814686B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085000A JP6814686B2 (ja) 2017-04-24 2017-04-24 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085000A JP6814686B2 (ja) 2017-04-24 2017-04-24 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2018186319A JP2018186319A (ja) 2018-11-22
JP6814686B2 true JP6814686B2 (ja) 2021-01-20

Family

ID=64355142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085000A Active JP6814686B2 (ja) 2017-04-24 2017-04-24 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム

Country Status (1)

Country Link
JP (1) JP6814686B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179995A (ja) * 1989-12-08 1991-08-05 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JPH08136884A (ja) * 1994-11-04 1996-05-31 Matsushita Electric Ind Co Ltd 3次元画像表示装置
JP2826710B2 (ja) * 1995-02-27 1998-11-18 株式会社エイ・ティ・アール人間情報通信研究所 2眼式立体画像表示方法
JP2002245451A (ja) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> 立体画像評価装置
JP2014178524A (ja) * 2013-03-15 2014-09-25 Pioneer Electronic Corp 表示装置

Also Published As

Publication number Publication date
JP2018186319A (ja) 2018-11-22

Similar Documents

Publication Publication Date Title
JP3579162B2 (ja) 立体cg画像生成装置
WO2010084724A1 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
EP3057066A1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
WO2010084716A1 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
JP2017142569A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP2012079291A (ja) プログラム、情報記憶媒体及び画像生成システム
CN102708577B (zh) 多视点立体图片的合成方法
JP2022183177A (ja) ヘッドマウントディスプレイ装置
JP5396877B2 (ja) 画像処理装置、プログラム、画像処理方法、および記録方法
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
US11212502B2 (en) Method of modifying an image on a computational device
JP5620202B2 (ja) プログラム、情報記憶媒体及び画像生成システム
KR20120093693A (ko) 입체영상표시장치 및 그 구동방법
US10567744B1 (en) Camera-based display method and system for simulators
JP6814686B2 (ja) 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム
US20210327121A1 (en) Display based mixed-reality device
CA3018454C (en) Camera-based display method and system for simulators
EP4233310A1 (en) Dynamic resolution of depth conflicts in telepresence
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
WO2022158328A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CA3018465C (en) See-through based display method and system for simulators
US10567743B1 (en) See-through based display method and system for simulators
JP6562371B1 (ja) 表示装置、表示処理装置、および表示処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150