JP2024029955A - 表示システム、表示方法、処理装置およびプログラム - Google Patents

表示システム、表示方法、処理装置およびプログラム Download PDF

Info

Publication number
JP2024029955A
JP2024029955A JP2022132452A JP2022132452A JP2024029955A JP 2024029955 A JP2024029955 A JP 2024029955A JP 2022132452 A JP2022132452 A JP 2022132452A JP 2022132452 A JP2022132452 A JP 2022132452A JP 2024029955 A JP2024029955 A JP 2024029955A
Authority
JP
Japan
Prior art keywords
display
image data
screen
user
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022132452A
Other languages
English (en)
Inventor
直己 橋本
和人 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2022132452A priority Critical patent/JP2024029955A/ja
Publication of JP2024029955A publication Critical patent/JP2024029955A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】汎用的なディスプレイを用いて広視野角を実現する。【解決手段】表示システム9は、ユーザUの目に正対する表示部2aを有するディスプレイ2と、ディスプレイ2の後方に設置され、光を拡散するスクリーン3と、スクリーン3の後方に設置されるプロジェクタ4と、ディスプレイ2およびプロジェクタ4に接続する処理装置1を備える。処理装置1は、第1の画像データ12を前記ディスプレイに出力し、第2の画像データ13をプロジェクタ4に出力する出力部24を備える。ディスプレイ2の表示部2aに表示される第1の画像データと、プロジェクタ4によってスクリーン3に投影される第2の画像データ13とで、ユーザに視認させるコンテンツが形成される。【選択図】 図1

Description

特許法第30条第2項適用申請有り (1)発行日2022年2月5日斎藤和人および橋本直己が、映像情報メディア学会技術報告、Vol.46、No.4(pp.33-36)にて、橋本直己および斎藤和人が発明した「プロジェクタを用いた追跡投影による簡易型HMDの周辺視野拡張」について公開した。 (2)開催日2022年2月12日 斎藤和人および橋本直己が、映像情報メディア学会 メディア工学研究会 学生研究発表会にて、橋本直己および斎藤和人が発明した「プロジェクタを用いた追跡投影による簡易型HMDの周辺視野拡張」について公開した。
本発明は、表示システム、表示方法、処理装置およびプログラムに関する。
超広視野角な映像提示により、ユーザの広い視野を覆い、高い没入感を実現するヘッドマウントディスプレイが開発され、普及しつつある。しかしながら、商品化されたヘッドマウントディスプレイは、その本体に複雑な光学系および複数のディスプレイを内蔵することを前提としている。ヘッドマウントディスプレイの重量増と、それに伴うユーザの装着負荷の増大およびコストの増加等が負担となり、ヘッドマウントディスプレイの普及の足かせになる場合がある。
汎用的なヘッドマウントディスプレイを装着し、ヘッドマウントディスプレイの視野角外の範囲を他の映像提示装置を用いてカバーすることで、広視野角を実現する方法がある(非特許文献1参照)。非特許文献1に記載の方法は、ヘッドマウントディスプレイを装着したユーザの背後にプロジェクタを配置し、プロジェクタがユーザの前の壁に映像を表示することで、ヘッドマウントディスプレイの視野角外の映像提示を実現する。
Hrvoje Benko, Eyal Ofek, Feng Zheng, Andrew D. Wilson: "FoveAR: Combining an Optically See-Through Near-Eye Display with Projector-Based Spatial Augmented Reality", Proc. of the 28th Annual ACM Symposium on User Interface Software and Technology(2015)
しかしながら非特許文献1に記載の方法は、ヘッドマウントディスプレイを装着したユーザの背後に配置されたプロジェクタが、ユーザの前に設置されたスクリーンに映像を投影する可能性がある。ユーザとプロジェクタ間、およびユーザとスクリーン間の距離が十分に離れていない場合、ユーザ自身がプロジェクタの投影の妨げとなり、スクリーンにユーザの影が表示されてしまう場合がある。従って、非特許文献1に記載の方法は、ユーザ自身が投影を妨げない程度の広大なスペースを必要とする。
また非特許文献1に記載の方法は、ヘッドマウントディスプレイの表示画面と、離れた壁の表示とを組み合わせて広い視野角を実現する。プロジェクタによる投影範囲のうち、ユーザが目で知覚可能な範囲は限定的であり、さらに、ユーザとスクリーンの距離が離れることから、ユーザが没入感を得る十分な視野角を実現しづらい問題がある。また非特許文献1に記載の方法は、ヘッドマウントディスプレイの表示画像と、壁に表示される画像までの距離に差があるので、人の目の焦点が合わせづらく、見づらい問題がある。
従って本発明の目的は、汎用的なディスプレイを用いて広視野角を実現する技術を提供することである。
本発明の一態様の表示システムは、ユーザの目に正対する表示部を有するディスプレイと、前記ディスプレイの後方に設置され、光を拡散するスクリーンと、前記スクリーンの後方に設置されるプロジェクタと、前記ディスプレイおよび前記プロジェクタに接続する処理装置を備える。前記処理装置は、第1の画像データを前記ディスプレイに出力し、第2の画像データを前記プロジェクタに出力する出力部を備える。前記ディスプレイの前記表示部に表示される前記第1の画像データと、前記プロジェクタによって前記スクリーンに投影される前記第2の画像データとで、ユーザに視認させるコンテンツを形成する。
本発明の一態様の表示方法は、ユーザの目に正対する表示部を有するディスプレイと、前記ディスプレイの後方に設置され、光を拡散するスクリーンと、前記スクリーンの後方に設置されるプロジェクタと、前記ディスプレイおよび前記プロジェクタに接続する処理装置を備える表示システムにおいて、前記処理装置が、第1の画像データをディスプレイに出力するステップと、前記ディスプレイが、前記第1の画像データを前記表示部に表示するステップと、前記処理装置が、第2の画像データを前記プロジェクタに出力するステップと、前記プロジェクタが、前記第2の画像データを前記スクリーンに表示するステップを備える。前記ディスプレイの前記表示部に表示される前記第1の画像データと、前記プロジェクタによって前記スクリーンに投影される前記第2の画像データとで、ユーザに視認させるコンテンツを形成する。
本発明の一態様の処理装置は、ユーザの目に正対する表示部を有するディスプレイと、
前記ディスプレイの後方に設置され、光を拡散するスクリーンと、前記スクリーンの後方に設置されるプロジェクタを備える表示システムに用いられ、前記ディスプレイおよび前記プロジェクタに接続する処理装置であって、第1の画像データを前記ディスプレイに出力し、第2の画像データを前記プロジェクタに出力する出力部を備える。前記ディスプレイの前記表示部に表示される前記第1の画像データと、前記プロジェクタによって前記スクリーンに投影される前記第2の画像データとで、ユーザに視認させるコンテンツを形成する。
本発明の一態様は、上記処理装置として、コンピュータを機能させるプログラムである。
本発明によれば、汎用的なディスプレイを用いて広視野角を実現する技術を提供することができる。
図1は、本発明の実施の形態に係る表示システムを説明する上面模式図である。 図2は、本発明の実施の形態に係る表示システムを説明する斜視模式図である。 図3は、表示システムにおいてユーザが視認する画像を説明する図である。 図4は、本発明の実施の形態に係る表示システムにおける処理を説明する図である。 図5は、本発明の実施の形態に係る表示システムに用いられる処理装置の機能を説明する図である。 図6は、Two-Pass Renderingを説明する図である。 図7は、処理装置に用いられるコンピュータのハードウエア構成を説明する図である。
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。
また本発明の実施の形態において、背面、奥などの相対的な位置を示す用語は、特別な指定が無い限り、表示システムを利用するユーザの視線を基準に記載されている。
(表示システム)
本発明の実施の形態に係る表示システム9は、汎用的なディスプレイを用いて、広視野角でコンテンツデータを表示する。コンテンツデータは、静止画のデータ、動画のデータ、仮想空間を描画するためのオブジェクトの形状および位置などを特定するデータなどである。コンテンツは、少なくとも画像を用いて表現される。本発明の実施の形態において、表示システム9の基本的な構成として、ユーザに表示するコンテンツが、画像(静止画)である場合を説明する。
図1および図2を参照して、本発明の実施の形態に係る表示システム9を説明する。図1は、ユーザUが表示システム9を利用する状況を上方から観察した模式図で、図2は斜方から観察した模式図である。
表示システム9は、処理装置1、ディスプレイ2、スクリーン3、第1のプロジェクタ4a、第2のプロジェクタ4bおよびカメラ5を備える。第1のプロジェクタ4aおよび第2のプロジェクタ4bを区別しない場合、プロジェクタ4と記載する場合がある。図1および図2に示す例において表示システム9は、2台のプロジェクタ4を備える場合を説明するが、1台以上備えれば良い。本発明の実施の形態において、ユーザUの視界は、ディスプレイ2の表示部2aと、その周囲に配置されたスクリーン3で覆われることが好ましい。
処理装置1は、ディスプレイ2、プロジェクタ4およびカメラ5に接続する。処理装置1は、表示システム9でユーザUにコンテンツデータを表示するための画像データを、ディスプレイ2およびプロジェクタ4に入力するコンピュータである。処理装置1は、図7に示すように、CPU901、メモリ902等を備える汎用的なコンピュータであって、デスクトップパソコン、ノートパソコン、スマートフォン、タブレット等の表示システム9の環境内に設置されるコンピュータであっても良いし、通信ネットワークを用いて接続するクラウドコンピュータであっても良い。また処理装置1は、これらの複数のコンピュータにより実装されても良い。ディスプレイ2にスマートフォンの表示画面を用いる場合、処理装置1は、このスマートフォンであっても良い。
処理装置1は、ディスプレイ2の表示部2aに表示される第1の画像データ12と、プロジェクタ4がスクリーン3に投影する第2の画像データ13を生成する。処理装置1は、第1の画像データ12をディスプレイ2に出力し、第2の画像データ13をプロジェクタ4に出力する。
表示システム9において、ディスプレイ2の表示部2aに表示される第1の画像データ12と、プロジェクタ4によってスクリーン3に投影される第2の画像データ13とで、ユーザに視認させるコンテンツ形成される。表示部2aをユーザが視認した画像と、スクリーン3をユーザが視認した画像で、1つの画像が形成される。例えば、表示部2aをユーザが視認した画像の端と、スクリーン3をユーザが視認した画像の内側部分(表示部2aとの境界部分)とが繋がるように、第1の画像データ12と第2の画像データ13が生成される。
表示システム9において、ユーザUから奥側(Y軸方向)に向かって、ディスプレイ2、スクリーン3およびプロジェクタ4の順に配置される。またカメラ5は、ユーザUの頭部、ディスプレイ2およびスクリーン3の位置を特定するために用いられる。カメラ5は、撮影データから、ユーザUの頭部、ディスプレイ2およびスクリーン3の位置を特定可能な位置に、設置される。
ディスプレイ2は、ユーザの目に正対する表示部2aを有する。表示部2aは、左右方向において、ユーザUの左右の目の幅以上の幅を有する。ディスプレイ2の所定の面の全体に表示部2aが形成されることが好ましい。また表示部2aが設けられる面に、フレームなどの表示部2a以外の物が設けられる場合でも、その物は、透明部材または細い部材などの目立ちにくい部材で形成されることが好ましい。表示部2aとスクリーン3以外の物により、ユーザの視界が邪魔されることなく、広視野角かつ没入感を実現することができる。
ディスプレイ2は、例えば一般的なスマートフォン、汎用的なヘッドマウントディスプレイである。本発明の実施の形態に係る表示システム9は、ユーザの視界のうち、ディスプレイ2の表示部2a以外の部分をスクリーン3で覆うことで広視野を実現するので、ユーザUの視界のうち、表示部2aで覆われる部分以外が非透明部材で密閉されるヘッドマウントディスプレイは、ディスプレイ2に不向きである。
スクリーン3は、ディスプレイ2の後方に設置され、光を拡散する。スクリーン3は、いわゆる背面投影型スクリーンであって、後方に設置されたプロジェクタ4から投影された画像を、スクリーン3の前面のユーザUに表示する。スクリーン3は、ユーザの視界のうち、ディスプレイ2以外の部分を覆うように配置される。ユーザの視界のうち、ディスプレイ2が覆う部分以外がスクリーン3で覆われることにより、ユーザの視界は、ディスプレイ2またはスクリーン3で覆われ、広視野と没入感を実現する。
スクリーン3は、ユーザの視界を覆う大きさを有することが好ましい。スクリーン3は、曲面で形成されることが好ましい。具体的にはスクリーン3は、水平方向(XY平面)において、ユーザUの左右の脇からユーザUの目に正対する位置にかけて配設される。スクリーン3が、ユーザの左脇、目の前および右脇にかけて配置されることにより、ユーザUの視界を覆うことが可能になる。スクリーン3は、ユーザの視界を覆うように、少なくともユーザの左右の脇と目の前にかけて配置されればよく、例えば、ユーザの左右後方などユーザの視界外まで延伸して設けられても良い。
スクリーン3は、ディスプレイ2に近い位置に配置されることが好ましい。これによりユーザUは、ディスプレイ2の表示部2aとスクリーン3のそれぞれに表示された画像を一つのコンテンツと認識しやすくなる。
スクリーン3は、光の拡散性を有する。スクリーン3は、後方からプロジェクタ4で画像が投影された際、光の拡散性により、スクリーン3後方の視界を遮り、ユーザUが、プロジェクタ4が投影した画像を視認できる環境に設置されることが求められる。この環境を実現するために、表示システム9が設置される環境の明るさ、プロジェクタ4の明るさ、画像の輝度、スクリーン3の材質等が調整される。
このように、スクリーン3は、曲面を形成可能で、拡散性を有する素材から選択される。スクリーン3は、例えば、背面投影スクリーンとして用いられる素材であって、乳白色などの透明度が低いプラスチック、薄い布、紙などで形成される。図1に示すように、スクリーン3を図1および図2に示すような形状に維持するために、スクリーン3を支えるフレームが用いられても良い。なおこのフレームは、ユーザまたはディスプレイ2との固定に用いられても良い。
ユーザUが移動しても、ユーザUの頭部に対するディスプレイ2およびスクリーン3の相対位置および相対姿勢が変動しないように、ディスプレイ2およびスクリーン3が設置されることが好ましい。例えば、ユーザUの頭部に、ディスプレイ2およびスクリーン3が固定される。これにより、ディスプレイ2およびスクリーン3はユーザUの動きに連動して動くことができる。
ディスプレイ2およびスクリーン3の位置および姿勢を特定するために、ユーザU等に1以上のマーカが設けられる。ユーザU等に設けられたマーカは、カメラ5によって撮影される。ユーザUの頭部にディスプレイ2およびスクリーン3が固定される場合、ユーザU、ディスプレイ2およびスクリーン3のいずれかに1以上のマーカが設けられることにより、表示システム9が設置された空間におけるディスプレイ2およびスクリーン3の位置姿勢も特定される。またディスプレイ2またはスクリーン3の位置から、ユーザUの視線方向も特定することができる。またディスプレイ2およびスクリーン3のそれぞれに、1以上のマーカが設けられても良い。
プロジェクタ4は、スクリーン3の後方に設置される。プロジェクタ4は、ユーザが視認するスクリーン3の面を前面とした場合、スクリーン3の背面に画像データを表示する。例えばユーザが動かない、または、1台のプロジェクタ4でスクリーン3全体に画像データを表示できるなどの場合、表示システム9は、1台のプロジェクタ4を用いれば良い。1台のプロジェクタでスクリーン3に投影可能な範囲でユーザが動いたり姿勢を変更したりする場合も、表示システム9は、1台のプロジェクタ4を用いれば良い。一方、ユーザが動いたり姿勢を変更したりすることにより1台のプロジェクタ4でスクリーン3全体に画像データを表示できないなどの場合、表示システム9は、図1および図2に示すように、複数のプロジェクタ4aおよび4bを備えても良い。なおプロジェクタ4の数は問わない。複数のプロジェクタ4aおよび4bを用いることにより、広い範囲に画像データを表示できるので、広いスクリーン3を適用したり、ユーザUの動きに追跡して画像データを表示したりしやすくなる。
カメラ5は、ユーザU等に設けられたマーカを撮影する撮影データを、処理装置1に入力する。処理装置1は、カメラ5から取得した撮影データにおけるマーカの位置から、ディスプレイ2およびスクリーン3の位置および姿勢、さらにユーザUの視線方向を特定する。ユーザUにディスプレイ2およびスクリーン3が固定される場合、ユーザUの位置および姿勢から、ユーザUの視線方向のほか、ディスプレイ2およびスクリーン3それぞれの位置および姿勢を特定することができる。あるいはマーカは、ユーザUの頭部、ディスプレイ2およびスクリーン3のそれぞれに設けられても良い。
なお、本発明の実施の形態において、ディスプレイ2およびスクリーン3の位置および姿勢を特定するためにマーカとカメラ5が用いられる場合を説明したが、これに限らない。マーカおよびカメラ5の代わりに、ユーザU等の位置を知らせるセンサと、センサを検知する検知装置が用いられても良い。また、スクリーンの輪郭から、ディスプレイ2およびスクリーン3の3次元位置姿勢を求める手法、機械学習によって獲得された判定モデルを使って位置姿勢を推定する技術など、そのほかの方法でも良い。ディスプレイ2およびスクリーン3の位置および姿勢が特定可能であれば、どのような方法でも良い。
このような表示システム9において、ディスプレイ2とプロジェクタ4は連動してユーザにコンテンツを表示する。ユーザUは、ユーザの目の前に配置されたディスプレイ2の表示部2aに表示された画像と、表示部2aの周囲に設けられたスクリーン3に表示された画像を同時に視認できるので、ユーザの広い視野を実現することができる。
(画像)
本発明の実施の形態に係る表示システム9において、ディスプレイ2が第1の画像データ12を表示し、プロジェクタ4がスクリーン3に第2の画像データ13を表示することにより、ユーザUは、ディスプレイ2に表示された画像とスクリーン3に表示された画像を1つの画像として視認することができる。図3を参照して、ユーザUが視認する画像の一例を説明する。
図3のコンテンツデータ11は、ユーザUに視認させる画像である。ここでは、プロジェクタ4がユーザUに正対し、ユーザUが動かない場合を説明する。なお、図3の各図において、点線で表記された部分は、低解像度で表示され、実線で表記された部分は、高解像度で表示されることを意味する。図3の中列下方に示すスクリーン視認画像U12および右列に示す視認画像U1のスクリーン視認画像U12部分において、低解像度で表示され、それ以外において、高解像度で表示される。
処理装置1は、コンテンツデータ11の中央部分をユーザUに視認させるための第1の画像データ12を生成する。第1の画像データ12がディスプレイ2に表示され、ユーザUは、ディスプレイ視認画像U11を視認する。第1の画像データ12の大きさは、ディスプレイ2の表示部2aの大きさから決定される。またディスプレイ2の表示部2aが、ユーザUの視界の中央に位置する場合、ディスプレイ視認画像U11の中心は、コンテンツデータ11の中心に一致する。
また処理装置1は、コンテンツデータ11の周縁部分をユーザUに視認させるための第2の画像データ13を生成する。第2の画像データ13がプロジェクタ4によってスクリーン3に投影され、ディスプレイ2が配置されていない場合、ユーザUは、スクリーン視認画像U12を視認する。ここでは、プロジェクタ4がユーザUに正対し、ユーザUが動かない場合を説明するので、第2の画像データ13は、コンテンツデータ11と同じであっても良い。ユーザUは、スクリーン3の背面に投影された画像を視認するので、スクリーン視認画像U12は、解像度が劣化するので、境界がぼやけるなどの精細度が劣る場合がある。
第1の画像データ12がディスプレイ2に表示され、第2の画像データ13がプロジェクタ4によってスクリーン3に表示されることにより、ユーザUは、視認画像U1を視認する。視認画像U1は、スクリーン視認画像U12の中央に、ディスプレイ視認画像U11が重畳された画像である。ユーザUが表示システム9で視認する画像において、視認画像U1に示すように、中央に高精細な画像が配置され、その周辺に精細度が劣る画像が配置される。
一般的に人間の視野は、内角が60度程度の有効視野と、それ以外の周辺視野に区分される。有効視野は、脳がほぼ明瞭に認識できる範囲であるのに対し、周辺視野は、物の形や色などを明瞭に認識できない範囲である。
本発明の実施の形態に係る表示システム9においてユーザUは、有効視野に概ね対応する視野の範囲内でディスプレイ2によるディスプレイ視認画像U11を視認する。またユーザUは、ディスプレイ視認画像U11の周辺の視野、換言すると、周辺視野に概ね対応する視野で、プロジェクタ4が投影したスクリーン3によるスクリーン視認画像U12を視認する。スクリーン視認画像U12が低解像度であっても広視野を実現できるので、ユーザが画像を認識する能力を考慮すると、十分な没入感を達成できると考えられる。表示システム9は、有効視野に高解像度の画像データを表示し、周辺視野に低解像度の画像データを表示することで、低コストかつ汎用的な部品で、広視野かつ高没入感を達成することができる。
本発明の実施の形態において、ユーザの視界の中心にディスプレイ2の表示部2aが配置され、表示部2aの全周囲にスクリーン3が配置される場合を説明するが、これに限らない。スクリーン3は、表示部2aの周囲の少なくとも一部を覆えば良い。例えばスクリーン3は、表示部2aの左側に配置され、右側に配置されなくても良い。またスクリーン3は、表示部2aの上側に配置され、下側に配置されなくても良い。ユーザの姿勢等に応じて、スクリーン3は適宜配置されても良い。
図4を参照して、本発明の実施の形態に係る表示処理を説明する。ここでは、ユーザが動く場合を想定し、処理装置1が、ユーザUの視線、ディスプレイ2とスクリーン3の位置および姿勢にあわせた画像データを生成する場合を説明する。図4に示す処理の内容および処理順序は一例であって、これに限るものではない。
ステップS1において処理装置1は、カメラ5から、撮影データを取得する。カメラ5の撮影領域は、ユーザU等に設けられたマーカを含む。
ステップS2において処理装置1は、撮影データ内のマーカの位置から、ユーザUの視線方向とディスプレイ2の位置および姿勢を特定する。ステップS3において処理装置1は、コンテンツデータ11から、ユーザUの視線方向とディスプレイ2の位置および姿勢に対応する第1の画像データ12を生成する。例えばコンテンツが仮想空間で、ユーザUの視線方向が左上方向を向いている場合、ディスプレイ2において、仮想空間におけるユーザUの位置の左上方向部分がユーザに視認されるように、第1の画像データ12が生成される。
ステップS4において処理装置1は、第1の画像データ12をディスプレイ2に入力する。ステップS5においてディスプレイ2は、第1の画像データ12を表示部2aに表示する。
ステップS6において処理装置1は、撮影データ内のマーカの位置から、スクリーン3の位置および姿勢を特定する。ステップS7において処理装置1は、コンテンツデータ11から、ユーザUの視線方向とスクリーン3の位置姿勢に対応する第2の画像データ13を生成する。例えばコンテンツが仮想空間で、ユーザUの視線方向が左上方向を向いている場合、スクリーン3において、仮想空間におけるユーザ位置の左上方向部分がユーザに視認されるように、第2の画像データ13が生成される。またスクリーン3がプロジェクタ4に正対していない場合でも歪みのない画像が視認されるように、第2の画像データ13は、予めスクリーン3とプロジェクタ4の位置および姿勢を考慮して補正される。第2の画像データ13は、第1の画像データ12によってユーザUが視認する画像と連携して広い画角を実現するために、第1の画像データ12よりも、縦方向および横方向において広い空間を表示する。また、ユーザUの視界の中心に、ディスプレイ2の表示部2aが位置し、その周囲に対称にスクリーン3が配置される場合、第1の画像データ12が中心と第2の画像データ13の中心が一致するように、第2の画像データ13は、生成される。
ステップS8において処理装置1は、第2の画像データ13をプロジェクタ4に入力する。ステップS9においてプロジェクタ4は、第2の画像データ13をスクリーン3の背面に表示する。
ユーザUは、ディスプレイ2に表示された第1の画像データ12と、スクリーン3に表示された第2の画像データ13とにより、一体となったコンテンツデータ11を広視野で視認することができる。
(処理装置)
図5を参照して、本発明の実施の形態に係る処理装置1を説明する。
図5に示すように処理装置1は、コンテンツデータ11、第1の画像データ12、第2の画像データ13および位置姿勢14の各データと、第1の処理部21、第2の処理部22、特定部23および出力部24の各機能を備える。各データは、メモリ902またはストレージ903等の記憶装置に記憶される。各機能は、CPU901に実装される。
コンテンツデータ11は、表示システム9がユーザに表示するコンテンツを特定するデータである。コンテンツは、少なくとも画像を用いて表現され、音楽などの他の要素で表現されても良い。
第1の画像データ12は、ディスプレイ2によって表示される画像のデータである。
第2の画像データ13は、プロジェクタ4によってスクリーン3の背面に表示される画像のデータである。
位置姿勢14は、カメラ5の画像から特定された、ユーザUの視線方向、プロジェクタ4に対するスクリーン3の位置および姿勢を特定するデータである。表示システム9が複数のプロジェクタ4を備える場合、位置姿勢14は、各プロジェクタに対するスクリーン3の相対位置および相対姿勢を特定可能なデータである。位置姿勢14は、絶対値で表現されても良いし、相対値で表現されても良い。
処理装置1は、ディスプレイ2の表示部2aに表示される第1の画像データ12と、プロジェクタ4によってスクリーン3に投影される第2の画像データ13とで、ユーザUに視認させるコンテンツを形成する。第1の画像データ12が表示された表示部2aをユーザUが視認した画像と、第2の画像データ13がプロジェクタ4によって投影されたスクリーン3をユーザUが視認した画像で、1つの画像が形成される。
第1の処理部21は、コンテンツデータ11から、表示部2aに表示される第1の画像データを生成する。
第1の処理部21は、ユーザUの視線方向と、ディスプレイ2の表示部2aの位置および姿勢に従って、第1の画像データ12を生成する。第1の処理部21は、ユーザUの視線方向から、第1の画像データ12によってユーザUが視認するディスプレイ視認画像U11を決定する。第1の処理部21は、ディスプレイ視認画像U11をユーザUが視認できるように、ディスプレイ2の表示部2aの位置および姿勢に従ってディスプレイ視認画像U11から、第1の画像データ12を生成する。第1の処理部21は、ユーザUの左目で視認する左目用画像と、右眼で視認する右目用画像を連結して、第1の画像データ12を生成しても良い。例えば表示部2aのユーザU側に凸レンズを設ける場合、第1の処理部21は、レンズ歪みを打ち消す補正などの既存技術により、第1の画像データ12を生成しても良い。表示部2aに凸レンズを設けることにより、焦点面が表示部2aの位置よりもY軸方向にユーザUから離れた位置に移動するので、ユーザの視認性が向上する。
第2の処理部22は、コンテンツデータ11から、プロジェクタ4に対するスクリーン3の位置および姿勢を参照して、プロジェクタ4がスクリーン3の表示する第2の画像データ13を生成する。
第2の処理部22は、ユーザの視線方向と、スクリーン3とプロジェクタ4の相対的な位置および姿勢に従って、第2の画像データ13を生成する。第2の処理部22は、ユーザUの視線方向から、第2の画像データ13によってユーザUが視認するスクリーン視認画像U12を決定する。プロジェクタ4がスクリーン3に正対しない場合、プロジェクタ4が表示した画像は、スクリーン3上で歪んで表示される。そこで第2の処理部22は、スクリーン視認画像U12をユーザUが視認できるように、スクリーン3の位置および姿勢に従ってスクリーン視認画像U12を補正して、第2の画像データ13を生成する。例えば第2の処理部22は、Two-Pass Renderingなどの既存技術により、第2の画像データ13を生成する。
また第2の処理部22は、第1の画像データ12によってユーザUが視認する画像と連携して広い画角を実現するために、第1の画像データ12よりも、縦方向および横方向において広い空間を表示する第2の画像データ13を生成する。
プロジェクタ4が複数台の場合、第2の処理部22は、各プロジェクタ4とスクリーン3の相対的な位置および姿勢に応じて歪みが補正され、各プロジェクタ4に入力する各第2の画像データ13を生成する。ディスプレイ2の表示部2aに表示される第1の画像データ12と、各プロジェクタ4によってスクリーン3に投影される各第2の画像データ13とで、ユーザに視認させるコンテンツが形成される。
具体的には、プロジェクタ4が2台の場合、第2の処理部22は、第1のプロジェクタ4aに入力する第2の画像データ13aと、第2のプロジェクタ4bに入力する第2の画像データ13bをそれぞれ生成する。このとき第2の処理部22は、位置姿勢14が特定する各プロジェクタ4に対するスクリーン3の相対的な位置および姿勢に従って、歪みを補正して、第2の画像データ13aおよび13bをそれぞれ生成する。
特定部23は、カメラ5から取得した撮影データ等を用いて、位置姿勢14のデータを生成する。特定部23は、例えば、撮影データにおけるマーカの位置から、ユーザUの視線方向、ディスプレイ2とスクリーン3の位置および姿勢を特定する。特定部23は、位置姿勢14のデータを生成できれば、どのような手段を用いても良い。ユーザUの視線方向は、ユーザUの頭部、ディスプレイ2またはスクリーン3の位置および姿勢から特定される。
出力部24は、第1の画像データ12をディスプレイ2に出力する。出力部24は、第2の画像データ13をプロジェクタ4に出力し、プロジェクタ4に第2の画像データ13をスクリーン3の背面に表示させる。表示システム9が複数のプロジェクタ4を備える場合、出力部24は、各プロジェクタ4のそれぞれに、各プロジェクタ4のそれぞれに対応する各第2の画像データ13を、出力する。出力部24が各プロジェクタ4に入力した各第2の画像データ13は、スクリーン3の背面に表示される。表示システム9は、ディスプレイ2の表示部2aに表示される第1の画像データ12と、各プロジェクタ4によってスクリーンにそれぞれ投影される各第2の画像データとで、ユーザに視認させるコンテンツを形成する。
(Two-Pass Rendering)
第2の処理部22は、Two-Pass Renderingにより、第2の画像データ13を生成する。図6を参照して、Two-Pass Renderingを説明する。
図6(a)は、表示システム9が適用される実空間RSを模式的に示す。図6(b)は、実空間RSに対する仮想空間VSを模式に示す。仮想空間VSにおける仮想スクリーンV3の位置および姿勢は、実空間RSにおけるスクリーン3の位置および姿勢に対応する。仮想空間VSにおける仮想プロジェクタV4の表示方向VDは、実空間RSにおけるユーザの視線方向Dに対応する。ここで、対応するとは、仮想空間VSにおける位置および方向が、実空間RSにおける位置および方向から変換可能であることを意味する。ここでは、ディスプレイ2およびスクリーン3がユーザUに固定され、スクリーン3の位置および姿勢から、ユーザの視線方向D、ディスプレイ2の位置および姿勢が特定される場合を説明する。
仮想空間VSにおいて仮想プロジェクタV4は、仮想カメラV5の方向に向けて仮想スクリーンV3に対して、ユーザUに視認させる画像を投影する。ユーザUに視認させる画像は、図3に示す視認画像U1と同じ構図の高精細な画像である。仮想プロジェクタV4が投影する画像は、実空間RSにおけるユーザUの視線方向Dから特定される。
第2の処理部22が第2の画像データ13を生成する場合、図6(b)に示すように、実空間RSのプロジェクタの位置および姿勢に対応する位置および姿勢となるように、仮想空間VSに仮想カメラV5を配置する。仮想空間VSにおける仮想カメラV5の撮影方向は、実空間RSにおけるプロジェクタ4の表示方向に対応する。
仮想空間VSにおいて、仮想プロジェクタV4から仮想スクリーンV3に対して、ユーザUに視認させる画像を投影する。第2の処理部22は、仮想カメラV5から見た、仮想スクリーンV3に描画された画像をレンダリングした結果を、第2の画像データ13として生成する。
図6に示す例において、実空間RSにおけるプロジェクタ4は1台であるが、実空間RSにおいて複数のプロジェクタ4が設けられる場合、実空間RSの各プロジェクタ4の位置に応じて、仮想空間VSに、複数の仮想カメラV5が設置される。第2の処理部22は、各仮想カメラV5から見た、仮想スクリーンV3に描画された画像をレンダリングした結果を、各仮想カメラV5に対応する各プロジェクタ4が描画する第2の画像データ13として生成する。
本発明の実施の形態に係る表示システム9は、汎用的なディスプレイを用いて広視野角で、画像データを表示することができる。また表示システム9は、ディスプレイ2とスクリーン3との距離が、非特許文献1と比べて短いので、人の目の焦点を合わせやすく見やすい。
(変形例)
本発明の実施の形態において、表示システム9の基本的な構成として、ディスプレイ2およびプロジェクタ4が連携して画像(静止画)を表示する場合を説明したがこれに限らない。変形例において、ディスプレイ2およびプロジェクタ4が連動して映像(動画)を表示する場合を説明する。
本発明の実施の形態に係る表示システム9は、ディスプレイ2およびプロジェクタ4が連携してコンテンツを表示するので、ユーザが映像を適切に視認するために、1つのフレームデータから生成された第1の画像データ12と第2の画像データ13は、同時に視認されなければならない。しかしながら、一つのフレームデータから第1の画像データ12が生成されディスプレイ2に表示される時間と、第2の画像データ13が生成されプロジェクタ4によってスクリーン3に表示される時間は異なる場合がある。
そこで、映像を表示する際、映像の1つのフレームデータを構成する第1の画像データ12と第2の画像データ13が同じタイミングで表示されるように、調整される。例えば、予め各フレームデータから第1の画像データ12と第2の画像データ13を生成して、それぞれディスプレイ2およびプロジェクタ4に蓄積し、同期した内部時計などを用いて同時に表示する方法がある。
ほかに、1つのフレームデータを構成する第1の画像データ12と第2の画像データ13が同じタイミングで表示されるように、処理装置1の出力部24が、第1の画像データ12を出力するタイミングと第2の画像データ13を出力するタイミングを調節する方法もある。一般的に、プロジェクタ4による画像データの表示に時間がかかることが知られている。第2の画像データ13のスクリーン3への表示に要する時間は、第1の画像データ12のディスプレイ2への表示に要する時間より長いと考えられる。そこで出力部24は、第1の画像データ12の表示に要する時間と、第2の画像データ13の表示に要する時間を予め計測し、その時間差を相殺するように、第1の画像データ12を出力するタイミングと、第2の画像データ13を出力するタイミングを調節する。
上記で示した方法は、予め表示する映像が決まっている場合に好適であるが、ユーザUの移動によって映像を変更する場合には対応することができない。例えば、表示システム9が、ユーザUの移動や視線の変更に応じて、仮想空間を移動するユーザの視界を表示する場合に適用する場合、他の調整方法が必要になる。
具体的には、特定部23は、移動するディスプレイ2およびスクリーン3の未来の位置および姿勢を予測し、その予測した位置および姿勢に応じて、第1の画像データ12および第2の画像データ13が生成されても良い。移動するディスプレイ2およびスクリーン3の位置および姿勢の予測には、一般的な遅延補償プログラムが用いられても良い。これにより表示システム9は、ユーザの動きを予想した画像データを予め作成して表示することができるので、ユーザの動きに合わせて遅延無く画像データを表示することができる。
変形例に係る表示システム9は、汎用的なディスプレイを用いて広視野角で、映像データを表示することができる。
上記説明した本実施形態の処理装置1は、例えば、CPU(Central Processing Unit、プロセッサ)901と、メモリ902と、ストレージ903(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置904と、入力装置905と、出力装置906とを備える汎用的なコンピュータシステムが用いられる。このコンピュータシステムにおいて、CPU901がメモリ902上にロードされたプログラムを実行することにより、処理装置1の各機能が実現される。
なお、処理装置1は、1つのコンピュータで実装されてもよく、あるいは複数のコンピュータで実装されても良い。また処理装置1は、コンピュータに実装される仮想マシンであっても良い。
処理装置1のプログラムは、HDD、SSD、USB(Universal Serial Bus)メモリ、CD(Compact Disc)、DVD (Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
1 処理装置
2 ディスプレイ
2a 表示部
3 スクリーン
4 プロジェクタ
5 カメラ
9 表示システム
11 コンテンツデータ
12 第1の画像データ
13 第2の画像データ
14 位置姿勢
21 第1の処理部
22 第2の処理部
23 特定部
24 出力部
25 調整部
901 CPU
902 メモリ
903 ストレージ
904 通信装置
905 入力装置
906 出力装置
U ユーザ
U1 視認画像
U11 ディスプレイ視認画像
U12 スクリーン視認画像

Claims (9)

  1. ユーザの目に正対する表示部を有するディスプレイと、
    前記ディスプレイの後方に設置され、光を拡散するスクリーンと、
    前記スクリーンの後方に設置されるプロジェクタと、
    前記ディスプレイおよび前記プロジェクタに接続する処理装置を備え、
    前記処理装置は、
    第1の画像データを前記ディスプレイに出力し、第2の画像データを前記プロジェクタに出力する出力部を備え、
    前記ディスプレイの前記表示部に表示される前記第1の画像データと、前記プロジェクタによって前記スクリーンに投影される前記第2の画像データとで、ユーザに視認させるコンテンツを形成する
    表示システム。
  2. 前記表示部をユーザが視認した画像と、前記スクリーンをユーザが視認した画像で、1つの画像が形成される
    請求項1に記載の表示システム。
  3. 前記スクリーンは、水平方向において、前記ユーザの左右の脇から、ユーザの目に正対する位置にかけて配設される
    請求項1に記載の表示システム。
  4. 前記表示システムは、複数のプロジェクタを備え、
    前記出力部は、各プロジェクタのそれぞれに、各プロジェクタのそれぞれに対応する第2の画像データを、出力し、
    前記ディスプレイの前記表示部に表示される前記第1の画像データと、各プロジェクタによって前記スクリーンにそれぞれ投影される各第2の画像データとで、ユーザに視認させるコンテンツを形成する
    請求項1に記載の表示システム。
  5. ユーザの目に正対する表示部を有するディスプレイと、
    前記ディスプレイの後方に設置され、光を拡散するスクリーンと、
    前記スクリーンの後方に設置されるプロジェクタと、
    前記ディスプレイおよび前記プロジェクタに接続する処理装置を備える表示システムにおいて、
    前記処理装置が、第1の画像データをディスプレイに出力するステップと、
    前記ディスプレイが、前記第1の画像データを前記表示部に表示するステップと、
    前記処理装置が、第2の画像データを前記プロジェクタに出力するステップと、
    前記プロジェクタが、前記第2の画像データを前記スクリーンに表示するステップ
    を備え、
    前記ディスプレイの前記表示部に表示される前記第1の画像データと、前記プロジェクタによって前記スクリーンに投影される前記第2の画像データとで、ユーザに視認させるコンテンツを形成する表示方法。
  6. ユーザの目に正対する表示部を有するディスプレイと、
    前記ディスプレイの後方に設置され、光を拡散するスクリーンと、
    前記スクリーンの後方に設置されるプロジェクタを備える表示システムに用いられ、
    前記ディスプレイおよび前記プロジェクタに接続する処理装置であって、
    第1の画像データを前記ディスプレイに出力し、第2の画像データを前記プロジェクタに出力する出力部を備え、
    前記ディスプレイの前記表示部に表示される前記第1の画像データと、前記プロジェクタによって前記スクリーンに投影される前記第2の画像データとで、ユーザに視認させるコンテンツを形成する処理装置。
  7. 前記第1の画像データが表示された前記表示部をユーザが視認した画像と、前記第2の画像データが前記プロジェクタによって投影された前記スクリーンをユーザが視認した画像で、1つの画像が形成される
    請求項6に記載の処理装置。
  8. 前記コンテンツから、前記表示部の位置および姿勢を参照して、前記表示部に表示される前記第1の画像データを生成する第1の処理部と、
    前記コンテンツから、前記プロジェクタに対する前記スクリーンの位置および姿勢を参照して、前記プロジェクタが前記スクリーンの表示する第2の画像データを生成する第2の処理部
    をさらに備える請求項6に記載の処理装置。
  9. コンピュータを、請求項6ないし8のいずれか1項に記載の処理装置として機能させるためのプログラム。
JP2022132452A 2022-08-23 2022-08-23 表示システム、表示方法、処理装置およびプログラム Pending JP2024029955A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022132452A JP2024029955A (ja) 2022-08-23 2022-08-23 表示システム、表示方法、処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022132452A JP2024029955A (ja) 2022-08-23 2022-08-23 表示システム、表示方法、処理装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2024029955A true JP2024029955A (ja) 2024-03-07

Family

ID=90106601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022132452A Pending JP2024029955A (ja) 2022-08-23 2022-08-23 表示システム、表示方法、処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2024029955A (ja)

Similar Documents

Publication Publication Date Title
JP6423945B2 (ja) 表示装置、およびプロジェクタを用いた表示方法
TWI681663B (zh) 具有經由眼睛追蹤之延伸有效眼動範圍之近眼顯示器
US9881421B2 (en) Image processing
US9372348B2 (en) Apparatus and method for a bioptic real time video system
CN109791433A (zh) 预测式中心凹虚拟现实系统
US20080174659A1 (en) Wide field of view display device and method
US11143876B2 (en) Optical axis control based on gaze detection within a head-mountable display
JP7435596B2 (ja) ヘッドマウントディスプレイシステム、ステレオ画像を撮像するように動作可能であるステレオ深度カメラ、および、ステレオ画像を撮像するように動作可能であるステレオ深度カメラを提供する方法
US11720996B2 (en) Camera-based transparent display
CN112041788A (zh) 使用眼睛注视来选择文本输入字段
US11170563B2 (en) Immersive environment with digital environment to enhance depth sensation
US11212502B2 (en) Method of modifying an image on a computational device
US20230377249A1 (en) Method and Device for Multi-Camera Hole Filling
JP2019106723A (ja) 表示装置、およびコンテキストディスプレイとプロジェクタを用いた表示方法
JP2024029955A (ja) 表示システム、表示方法、処理装置およびプログラム
US11619814B1 (en) Apparatus, system, and method for improving digital head-mounted displays
WO2020137088A1 (ja) ヘッドマウントディスプレイ、表示方法、及び表示システム
JP6198157B2 (ja) プログラム、記録媒体、画像処理装置及び画像処理方法
EP4246966A2 (en) Lenticular image generation
TWI771969B (zh) 適應眼睛位置的立體影像數據的產生方法與顯示系統
US20240056563A1 (en) Transparent Display with Blur Effect for Physical Objects
KR20230004305A (ko) 눈 추적 데이터 필터링

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220907