JP2013174642A - 映像表示装置 - Google Patents

映像表示装置 Download PDF

Info

Publication number
JP2013174642A
JP2013174642A JP2012037502A JP2012037502A JP2013174642A JP 2013174642 A JP2013174642 A JP 2013174642A JP 2012037502 A JP2012037502 A JP 2012037502A JP 2012037502 A JP2012037502 A JP 2012037502A JP 2013174642 A JP2013174642 A JP 2013174642A
Authority
JP
Japan
Prior art keywords
display
video
image
display device
display object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012037502A
Other languages
English (en)
Inventor
Kenichi Kameyama
研一 亀山
Akihisa Moriya
彰久 森屋
Aira Hotta
あいら 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012037502A priority Critical patent/JP2013174642A/ja
Priority to US13/764,032 priority patent/US20130222410A1/en
Publication of JP2013174642A publication Critical patent/JP2013174642A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】実空間と仮想物体との融和性を高めた高臨場感の映像表示装置を提供する。
【解決手段】実施形態によれば、データ出力部と第1表示装置と第2表示装置とを備えた映像表示装置が提供される。データ出力部は、第1映像の第1データと第2映像の第2データとを出力する。第1表示装置は、第1映像を表示する光透過性の第1表示部を有する。第2表示装置は、第2映像を表示する第2表示部を有する。第2映像を、第1表示部を介して観視者が見る。データ出力部は、第1映像中に第1表示オブジェクトを表示する第1動作と、第2映像中に第1表示オブジェクトに基づくオブジェクトを表示する第2動作と、を含む動作、及び、第2映像中に第3表示オブジェクトを表示する第3動作と、第1映像中に第3表示オブジェクトに基づく表示オブジェクトを表示する第4動作と、を含む動作、の少なくともいずれかを実施する。
【選択図】図1

Description

本発明の実施形態は、映像表示装置に関する。
実世界と仮想世界とを融合させる拡張現実感提示技術がある。この技術においては、実世界像に仮想物体像を重畳させる。また、実世界像をカメラで取り込んで、取り込んだ映像を仮想世界とし、この映像上に仮想物体像を重畳させる。
今後の高臨場感表示として、実世界と仮想物体との融和が望まれる。
特許第3022558号公報
本発明の実施形態は、実空間と仮想物体との融和性を高めた高臨場感の映像表示装置を提供する。
本発明の実施形態によれば、データ出力部と、第1表示装置と、第2表示装置と、を備えた映像表示装置が提供される。前記データ出力部は、第1映像の情報を含む第1データと、第2映像の情報を含む第2データと、を出力する。前記第1表示装置は、前記第1データに基づく前記第1映像を表示する光透過性の第1表示部を有する。前記第2表示装置は、前記第2データに基づく前記第2映像を表示する第2表示部を有する。前記第2表示部に表示された前記第2映像を前記第1表示部を介して観視者が見ることが可能である。
前記データ出力部は、第1出力動作、及び、第2出力動作の少なくともいずれかを実施する。
前記第1出力動作は、第1表示オブジェクトを含む前記第1映像の情報を含む前記第1データを出力する第1動作と、前記第1動作の後に、前記第1表示オブジェクトに基づく第2表示オブジェクトを含む前記第2映像の情報を含む前記第2データを出力する第2動作と、を含む。前記第2表示オブジェクトの前記第2映像中の位置は、前記観視者から見たときに前記第1表示オブジェクトと重なる位置、または、前記第1表示オブジェクトの移動の延長上の位置である。
前記第2出力動作は、第3表示オブジェクトを含む前記第2映像の情報を含む前記第2データを出力する第3動作と、前記第3動作の後に、前記第3表示オブジェクトに基づく第4表示オブジェクトを含む前記第1映像の情報を含む前記第1データを出力する第4動作と、を含む。前記第4表示オブジェクトの前記第1映像中の位置は、前記観視者から見たときに前記第3表示オブジェクトと重なる位置、または、前記第3表示オブジェクトの移動の延長上の位置である。
第1の実施形態に係る映像表示装置を示す模式図である。 第1の実施形態に係る映像表示装置の一部を示す模式図である。 図3(a)及び図3(b)は、第1の実施形態に係る映像表示装置の動作を示すフローチャート図である。 図4(a)〜図4(h)は、第1の実施形態に係る映像表示装置の動作を示す模式図である。 図5(a)〜図5(d)は、第1の実施形態に係る映像表示装置の別の動作を示す模式図である。 図6(a)〜図6(d)は、第1の実施形態に係る映像表示装置の別の動作を示す模式図である。 第1の実施形態に係る映像表示装置の別の動作を示すフローチャート図である。 図8(a)〜図8(f)は、第1の実施形態に係る映像表示装置の別の動作を示す模式図である。 第1の実施形態に係る映像表示装置の動作を示すフローチャート図である。 第1の実施形態に係る映像表示装置の動作を示す模式図である。 第1の実施形態に係る映像表示装置の動作を示す模式図である。 図12(a)及び図12(b)は、映像表示装置の動作を示す模式図である。 図13(a)〜図13(c)は、第1の実施形態に係る映像表示装置の動作を示す模式図である。 図14(a)及び図14(b)は、第1の実施形態に係る映像表示装置の動作を示す模式図である。 図15(a)及び図15(b)は、第1の実施形態に係る映像表示装置の別の動作を示す模式図である。 図16(a)〜図16(e)は、映像表示装置の特性に関する実験を示す模式図である。 第1の実施形態に係る映像表示装置の別の動作を示す模式図である。 第1の実施形態に係る映像表示装置の構成及び動作を示す模式図である。 第1の実施形態に係る映像表示装置を示す模式図である。
以下に、各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施の形態)
図1は、第1の実施形態に係る映像表示装置の構成を例示する模式図である。
図1に表したように、本実施形態に係る映像表示装置110は、データ出力部30と、第1表示装置10と、第2表示装置20と、を備える。第1表示装置10は、データ出力部30と、第1通信経路31により、有線または無線の方式により接続されている。第2表示装置20は、データ出力部30と、第2通信経路32により、有線または無線の方式により接続されている。
データ出力部30は、第1映像の第1データ10dと、第2映像の第2データ20dと、を出力する。第1データ10dは、データ出力部30から第1表示装置10に供給される。第2データ20dは、データ出力部30から第2表示装置20に供給される。
第1データ10d及び第2データ20dは、例えば、データ出力部30で生成される。また、後述するように、第1データ10d及び第2データ20dは、データ出力部30とは別の部分で生成されても良い。このときは、データ出力部30は、生成された第1データ10d及び第2データ20dを任意の通信経路を介して入手し、入手した第1データ10d及び第2データ20dを出力する。
第1表示装置10は、第1表示部11を有する。第1表示部11は、第1データ10dに基づく第1映像を表示する。第1表示部11は、光透過性である。第1表示装置10は、例えば、観視者80が装着可能なヘッドマウント式の表示装置(HMD:Head Mounted Display)である。第1表示装置10は、例えば、使用者(観視者80)の頭部80hの動きに連動する。
第1表示部11は、例えば、観視者80の左目の前に配置可能な左目用表示部11aと、観視者80の右目の前に配置可能な右目用表示部11bと、を有する。第1表示装置10は、第1表示部11の他に、観視者80の頭部に第1表示部11を保持させることが可能な保持部13をさらに含む。第1表示部11は、例えば、メガネのレンズに相当する位置に配置される。保持部13は、例えば、メガネの耳かけ部に相当する部分である。第1表示装置10の構成の例については後述する。
第2表示装置20は、第2表示部21を有する。第2表示部21は、第2データ20dに基づく第2映像を表示する。この例では、第2表示装置20は、第2表示部21を格納する筐体23をさらに含む。第2表示部21に表示される第2映像は、第1表示部11を介して観視者80が見ることが可能である。第2表示装置20は、例えば、観視者80の頭部80hの動きと連動しない。第2表示装置20は、例えば据え置き型の表示装置である。または、第2表示装置20は、観視者80の頭部80hの動きと連動しない、可搬型の表示装置でも良い。
例えば、データ出力部30は、有線または無線の通信経路38aを介して、入出力部38と接続されている。入出力部38は、映像表示装置110の外部と、有線または無線の通信経路38bを介して接続されている。外部から通信経路38b、入出力部38、及び、通信経路38aを介して、表示のための映像データIdがデータ出力部30に供給される。
データ出力部30は、例えば、映像データIdに基づいて、第1データ10d及び第2データ20dを生成する。そして、データ出力部30は、生成した第1データ10d及び第2データ20dを出力する。
この例では、映像表示装置110は、第1センサ50をさらに含む。第1センサ50は、第1表示装置10と第2表示装置20との間の相対的位置と相対的角度とを検出する。第1センサ50には、例えば、撮像素子(カメラなど)、電磁波出射部及び電磁波検出部の組み合わせ、並びに、音波出射部及び音波検出部の組み合わせなどを用いることができる。
第1センサ50は、有線または無線の第1センサ通信経路35により、データ出力部30に接続される。第1センサ50で検出した、第1表示装置10と第2表示装置20との間の相対的位置及び相対的角度に関する位置姿勢データ35dは、第1センサ通信経路35を経由して、データ出力部30に供給される。
この例では、映像表示装置110は、音発生部40をさらに含む。音発生部40には、例えば、例えばスピーカなどを用いることができる。音発生部40は、有線または無線の音発生部用通信経路34を介して、データ出力部30と接続されている。音発生部40は、データ出力部30における動作(後述する第1出力動作及び第2出力動作の少なくともいずれかの動作)の際に音を発生する。音発生部40は、第1表示装置10に付設されても良い。音発生部40は、第2表示装置20に付設されても良い。
第2表示装置20には、例えば、液晶表示装置、有機EL表示装置、プラズマ表示装置または投影型表示装置(例えばプロジェクタ)などを用いることができる。第1センサ50には、例えば、撮像素子と、撮像素子により撮像された像を画像解析する電子装置と、を含むことができる。データ出力部30には、コンピュータを用いることができる。このコンピュータは、例えば、ディスプレイコントローラを含むことができる。コンピュータは、ネットワークに接続可能である。コンピュータには、クラウド側コンピュータと接続可能な通信端末を用いることもできる。
図2は、第1の実施形態に係る映像表示装置の一部の構成を例示する模式図である。
図2に表したように、第1表示装置10は、第1表示部11の他に、映像生成部12をさらに含むことができる。この例では、第1表示部11として、半透過反射板(半透過反射層)が用いられている。映像生成部12は、例えば、光源12bと、表示素子12aと、を含む。表示素子12aには、例えば液晶表示素子(光スイッチ)などを用いることができる。光源12bから出射した光は、表示素子12aにより変調されて、第1映像11dを生成する。映像生成部12には、例えば、有機EL表示素子などのような自発光型の表示素子を用いることができる。この場合には、光源12bは省略できる。映像生成部12により生成された第1映像11dを含む光12cが第1表示部11に入射する。光12cは、第1表示部11で反射して、観視者80の目81に入射する。観視者80は、光12cにより形成される第1映像11d(例えば虚像)を見る。
実施形態において第1表示装置10の構成は任意であり、例えば、第1表示部11が第1映像11dを生成しても良い。
第1表示部11は光透過性であるため、観視者80は、第1表示部11を介して背景の像(背景像BGI)を見ることが可能である。背景像BGIは、例えば、第2表示装置20の第2表示部21に表示される第2映像21dである。または、背景像BGIは、例えば、第1表示装置10の周囲(観視者80の周囲)に存在する物体の像(物体像D70)である。物体像D70は、例えば、鏡などで形成された虚像でも良い。物体像D70は、第1表示装置10の周囲(観視者80の周囲)に存在する物体の像である。また、物体像D70は、第1表示装置10の周囲に存在する、観視者80の身体の少なくとも一部の像でも良い。
観視者80は、第1表示部11に表示される第1映像11dと、第1表示部11を介した背景像BGI(例えば第2映像21d及び物体像D70の少なくともいずれか)と、を重畳して見ることができる。
図3(a)及び図3(b)は、第1の実施形態に係る映像表示装置の動作を例示するフローチャート図である。
これらの図は、後述する第2の実施形態に係る表示方法も例示している。
データ出力部30は、図3(a)に例示した第1出力動作S1、及び、図3(b)に例示した第2出力動作S2の少なくともいずれかを実施する。
図3(a)に表したように、第1出力動作S1は、第1動作S110と第2動作S120とを含む。図3(b)に表したように、第2出力動作S2は、第3動作S130と第4動作S140とを含む。
第1動作S110では、データ出力部30は、第1映像11d中に第1表示オブジェクトを表示する第1データ10dを出力する。出力された第1データ10dは、第1表示装置10に供給される。
データ出力部30は、第2動作S120を第1動作S110の後に実施する。第2動作S120では、データ出力部30は、第2映像21d中の、観視者80から見たときに第1表示オブジェクトと重なる位置、または、第1表示オブジェクトの移動の延長上の位置に、第1表示オブジェクトに基づく表示オブジェクト(第2表示オブジェクト)を表示する第2データ20dを出力する。出力された第2データ20dは、第2表示装置20に供給される。
第3動作S130では、データ出力部30は、第2映像21d中に第3表示オブジェクトを表示する第2データ20dを出力する。出力された第2データ20dは、第2表示装置20に供給される。
データ出力部30は、第4動作S140を第3動作S130の後に実施する。第4動作S140では、データ出力部30は、第1映像11d中の、観視者80からみたときに第3表示オブジェクトと重なる位置、または、第3表示オブジェクトの移動の延長上の位置に、第3表示オブジェクトに基づく表示オブジェクト(第4表示オブジェクト)を表示する第1データ10dを出力する。出力された第1データ10dは、第1表示装置10に供給される。
以下、まず、第2出力動作S2の例について説明する。
図4(a)〜図4(h)は、第1の実施形態に係る映像表示装置の動作を例示する模式図である。
これらの図は、第2出力動作S2の例を示している。これらの図は、映画やテレビジョンなどの映像において特定の表示オブジェクトが仮想空間から飛んでくる状況を、実空間から観視者80が見る、という応用例を示している。この例では、第2表示装置20の第2表示部21に、スポーツの映像が、第2映像21dとして表示されている。この第2映像21dのうちで、スポーツで用いられるボールの像が、特定の表示オブジェクトとして用いられる。
図4(a)及び図4(b)は、時間tが第1時刻t11であるときの状態を例示している。図4(c)及び図4(d)は、時間tが第2時刻t12であるときの状態を例示している。第2時刻t12は、第1時刻t11よりも後の時刻である。図4(e)及び図4(f)は、時間tが第3時刻t13であるときの状態を例示している。第3時刻t13は、第2時刻t12よりも後の時刻である。図4(g)及び図4(h)は、時間tが第4時刻t14であるときの状態を例示している。第4時刻t14は、第3時刻t13よりも後の時刻である。図4(a)、図4(c)及び図4(e)は、観視者80と第2表示部21との配置の関係を例示している。図4(g)は、観視者80の状態を例示している。図4(b)、図4(d)、図4(f)及び図4(h)は、観視者80が第1表示部11を介して見る、観視像80d(第1映像11d及び背景像BGI)を例示している。
例えば、第4(a)に表したように、第1時刻t11において、観視者80は、第1表示部11を介して第2表示装置20の第2表示部21を見る。第2表示部21には、第2映像21dが表示されている。第2映像21dのうちで、スポーツで用いられるボールの像が、第3表示オブジェクトD20として用いられる。
この動作は、データ出力部30によって行われる。すなわち、データ出力部30は、第2映像21d中に第3表示オブジェクトD20を表示する第2データ20dを出力する(第3動作S130)。
このとき、第1表示部11には、第3表示オブジェクトD20(ボール)に関係する像は、表示されていない。
図4(b)に表したように、観視者80は、観視像80dとして、第2映像21d(第3表示オブジェクトD20を含む)を知覚する。観視像80dには、背景像BGIとして、第2表示部21に表示される第2映像21dが含まれている。
図4(c)に表したように、第2時刻t12において、ボール(第3表示オブジェクトD20)が、観視者80に向かって移動する。例えば、第2映像21d中におけるボール(第3表示オブジェクトD20)のサイズは、第1時刻t12のときのサイズよりも大きくなる。
図4(d)に表したように、第1表示部11には、第3表示オブジェクトD20(ボール)に関係する像は表示されていない。観視者80は、観視像80dとして、第2映像21d(第3表示オブジェクトD20を含む)を知覚する。
図4(e)に表したように、第3時刻t13において、ボール(第3表示オブジェクトD20)が、観視者80に向かってさらに移動する。このとき、第1映像11d中に第3表示オブジェクトD20に基づく表示オブジェクト(第4表示オブジェクトD25)を表示する。第4表示オブジェクトD25の第1映像11d中における位置は、第1映像11d中の、観視者80からみたときに第3表示オブジェクトD20と重なる位置、または、第3表示オブジェクトD20の移動の延長上の位置である。第4表示オブジェクトD25の形状及び色は、観視者80から見たときに、第2表示部21の第2映像21d中における第3表示オブジェクトD20の形状及び色と実質的に同じになるように設定される。
この動作は、データ出力部30によって行われる。すなわち、データ出力部30は、第1映像11d中の、観視者80から見たときに第3表示オブジェクトD20と重なる位置、または、第3表示オブジェクトD20の移動の延長上の位置に、第3表示オブジェクトに基づく表示オブジェクト(第4表示オブジェクトD25)を表示する第1データ10dを出力する(第4動作S140)。
これにより、図4(f)に表したように、第1表示部11には、第4表示オブジェクトD25(ボール)が表示される。観視者80は、観視像80dとして、第1映像11d中の第4表示オブジェクトD25を知覚する。観視像80dには、背景像BGIとして、第2表示部21に表示される第2映像21dが含まれている。観視者80は、第2映像21dと共に第4表示オブジェクトD25を知覚する。これにより、例えば、観視者80は、第4表示オブジェクトD25(ボール)が、第2表示部21から手前に飛び出したように知覚する。
図4(g)に表したように、第4時刻t14において、観視者80は、第2表示部21に向かう方向とは異なる方向を見る。観視者80は、第1表示部11に表示されている第1映像11d中の第4表示オブジェクトD25を見る。
図4(h)に表したように、観視者80は、観視像80dとして、第1映像11d中の第4表示オブジェクトD25を知覚する。このとき、観視像80dの背景には、観視者80の周囲に存在する物体(例えば室内の壁など)が存在する。観視者80は、第1表示装置10の周囲(観視者80の周囲)に存在する物体像D70と共に第4表示オブジェクトD25を知覚する。これにより、観視者80は、第4表示オブジェクトD25(ボール)が、第2表示部21から観視者80の周囲の実空間に向けて飛び出したように知覚する。
例えば、映像表示装置として第1表示装置10を用いず、第2表示装置20だけを用いる場合、観視者80は、図4(a)〜図4(d)に例示した表示状態を知覚する。例えば、第2表示部21に表示される第3表示オブジェクトD20(ボール)の大きさが変化したとき、観視者80から見て遠方から近傍にボールが移動したように見えるが、第2表示部21から手前に飛び出してくるようには見えない。例えば、第3表示オブジェクトD20が第2映像21d内を移動し、第2映像21dの枠(第2表示部21の枠)の外に出てしまう場合は、第3表示オブジェクトD20は、その枠から外に移動し映像中から消える。
これに対し、本実施形態に係る映像表示装置110においては、第1表示装置10を用い、第1表示部11の第1映像11d中に、第3表示オブジェクトD20に基づく第4表示オブジェクトD25(ボール)を表示させる。これにより、図4(e)及び図4(f)に関して説明したように、観視者80は、仮想空間からシームレスに、実空間中にボール(第3表示オブジェクトD20すなわち、第4表示オブジェクトD25)が飛んで来るように知覚する。さらに、観視者80が、第2表示部21に向かう方向から、ボールの飛ぶ方向に向きを変えたとき(図4(g))にも、その映像(ボール)が見える。映像表示装置110によれば、観視者80に対して、驚きのある映像を提供することができる。
例えば、迫力のあるシーンで、一部の像(この例ではボールであり、第4表示オブジェクトD25)を第1映像11d中に表示することで、その像を、第2映像21dから第1映像11d中に移動させる。そして、第2表示部21から飛び出したボール(第4表示オブジェクトD25)は、実空間と重畳して知覚される。これにより、ボールが実空間内に存在しているように知覚される。
実施形態に係る映像表示装置110によれば、仮想空間と実空間との間で、仮想物体をシームレスに移動させることができる。これにより、実空間と仮想物体との融和性を高めた高臨場感の映像表示装置が提供できる。
第4動作S140においては、第1映像11d中に、第3表示オブジェクトD20に基づく表示オブジェクト(第4表示オブジェクトD25)を表示する。この第4動作S140において、第2映像21d中から第3表示オブジェクトD20を消去しても良い。または、第4動作S140において、第3表示オブジェクトD20のコントラストをそれよりも前の状態(例えば第3動作S130の状態)よりも低くしても良い。これにより、第2映像21d中において第3表示オブジェクトD20が見え難くなる。
例えば、第4動作S140において、第2映像21dから実質的に第3表示オブジェクトD20を消し、第1映像11d中に第3表示オブジェクトD20に基づく第4表示オブジェクトD25を表示する。これにより、第3表示オブジェクトD20が、第2映像21dから第1映像11dに移動したように、より自然に知覚される。これにより、実空間と仮想物体との融和性をより高めることができ、臨場感をより高めることができる。
このように、データ出力部30は、第4動作S140において、第2映像21d中から第3表示オブジェクトD20を消去する第2データ20dを出力することをさらに実施しても良い。すなわち、データ出力部30は、第4動作S140において、第3表示オブジェクトD20を含まない第2映像21dの情報を含む第2データ20dを出力することをさらに実施しても良い。また、データ出力部30は、第4動作S140における第2映像21d中における第3表示オブジェクトD20の輝度の第3表示オブジェクトD20の周囲の輝度に対する比を、第3動作S130における第3表示オブジェクトD20の輝度の第3表示オブジェクトD20の周囲の輝度に対する比よりも低くした第2映像21dの情報を含む第2データ20dを出力することをさらに実施しても良い。
この例では、第3動作S130における第3表示オブジェクトD20の第2映像21d内における動きに応じて、第4動作S140が実施される。すなわち、第3表示オブジェクトD20の動きをトリガにして、第4動作S140が開始される。例えば、第3動作S130において、観視者80から見たときに第3表示オブジェクトD20が第2映像21dの奥から手前に向かって移動するように表示されるときに、第4動作S140を実施する。例えば、第3動作S130において、観視者80から見たときに第3表示オブジェクトD20が第2映像21dの手前から奥に向かって移動するように表示されるときには、第4動作S140は実施しない。このように、特定の状態の第3表示オブジェクトD20が表示されたときに、第4動作S140を実施し、第3表示オブジェクトD20が第2映像21dから第1映像11dに移動したように見えるように第4表示オブジェクトD25を表示する。これにより、観視者80に臨場感をより与えることができる。
例えば、データ出力部30は、第3動作S130における第3表示オブジェクトD20の第2映像21d内における動きが予め定められた条件のときに、第4動作S140を実施する。予め定められた条件は、例えば、第3表示オブジェクトD20の大きさが時間の経過と伴に大きくなる状態を含む。予め定められた条件は、第3表示オブジェクトD20の大きさが時間の経過と伴に連続的に変化する状態を含む。これにより、例えば、観視者80から見たときに、第3表示オブジェクトD20が観視者80に向かって移動しているように知覚される状態のときに、その第3表示オブジェクトD20が、第2映像21dから第1映像11dに移動したように見える。
図5(a)〜図5(d)は、第1の実施形態に係る映像表示装置の別の動作を例示する模式図である。
これらの図は、第2出力動作S2の別の例を示している。これらの図は、第2表示装置20がデジタルサイネージとして用いられる例である。第2表示装置20は、例えば、公共の場所に設置されている。この例では、いくつかの商品を含む映像が、第2表示装置20の第2表示部21に、第2映像21dとして表示されている。この第2映像21dの中に表示されている商品の像が、第3表示オブジェクトD20として用いられる。
図5(a)及び図5(b)は、時間tが第1時刻t21であるときの状態を例示している。図5(c)及び図5(d)は、時間tが第2時刻t22であるときの状態を例示している。第2時刻t22は、第1時刻t21よりも後の時刻である。図5(a)及び図5(c)は、観視者80と第2表示部21との配置の関係を例示している。図5(b)及び図5(d)は、観視者80が第1表示部11を介してして見る、観視像80d(第1映像11d及び背景像BGI)を例示している。
例えば、図5(a)に表したように、第1時刻t21において、観視者80は、第1表示部11を介して第2表示装置20の第2表示部21を見る。第2表示部21には、第2映像21dが表示される。第2映像21d中には、商品の像である、第3表示オブジェクトD20が表示されている(第3動作S130)。
このとき、図5(b)に表したように、観視者80は、観視像80dとして、第2映像21d(第3表示オブジェクトD20を含む)を知覚する。観視像80dには、背景像BGIとして、第2表示部21に表示される第2映像21dが含まれている。
この状態で、観視者80は、観視者80の手(身体82)を第2表示部21に近づける。これにより、データ出力部30は、以下の第4動作S140を実施する。
図5(c)に表したように、第2時刻t22において、第1映像11d中に、商品の像(第3表示オブジェクトD20)に基づく像(第4表示オブジェクトD25)を表示する(第4動作S140)。第4表示オブジェクトD25の第1映像11d中における位置は、例えば、第1映像11d中の、観視者80から見たときに第3表示オブジェクトD20と重なる位置である。第4表示オブジェクトD25の形状及び色は、観視者80から見たときに、第2表示部21の第2映像21d中における第3表示オブジェクトD20の形状及び色と実質的に同じになるように設定される。
この例では、デジタルサイネージを表示する第2表示部21に表示されている仮想物体(商品)を、ユーザ(観視者80)が手にとって見た状態が形成される。実施形態によれば、実空間と仮想物体との融和性を高めた高臨場感の映像表示装置が提供できる。
なお、この場合においても、第4動作S140において、第2映像21d中から第3表示オブジェクトD20を消去する、または、第3表示オブジェクトD20のコントラストを第3動作S130の状態よりも低くする。これにより、臨場感がより高まる。
この例では、観視者80が手(身体82)を動かしたときに、第4動作S140が実施される。なお、このように、観視者80が、観視者80の身体82(手、脚、胴及び頭など任意の部位)を動かすことで、映像表示装置110を操作することができる。このように、観視者80による操作は、観視者80の身体82を動かすことを含む。この例では、データ出力部30は、観視者80による操作に基づいて、第4動作S140を実施する。これにより、観視者80の意図に応じた第3表示オブジェクトD20(例えば商品の像)を観視者80は、第2映像21dから第1映像11dに取り入れることができる。そして、その像のデータを第4表示オブジェクトD25のデータとして、例えば任意の記憶部に格納しても良い。格納されたデータは、任意のときに取り出して、任意の表示装置で表示しても良い。
以下、第1出力動作S1の例について説明する。
図6(a)〜図6(d)は、第1の実施形態に係る映像表示装置の別の動作を例示する模式図である。
これらの図は、第1出力動作S1の例を示している。図6(a)及び図6(b)は、時間tが第1時刻t31であるときの状態を例示している。図6(c)及び図6(d)は、時間tが第2時刻t32であるときの状態を例示している。第2時刻t32は、第1時刻t31よりも後の時刻である。図6(a)及び図6(c)は、観視者80と第2表示部21との配置の関係を例示している。図6(b)及び図6(d)は、観視者80が第1表示部11を介してして見る、観視像80d(第1映像11d及び背景像BGI)を例示している。
例えば、図6(a)及び図6(b)に表したように、第1時刻t31において、第1映像11d中に第1表示オブジェクトD10が表示される(第1動作S110)。第1表示オブジェクトD10は、例えば、観視者80から見たときに、観視者80の手(身体82)の上に第1表示オブジェクトD10が載せられているように表示される。第1表示オブジェクトD10は、任意の表示パターンであり、例えば、美術品の像である。
例えば、図6(c)及び図6(d)に表したように、第1動作S110の後の第2時刻t32において、観視者80が、手(身体82)を第2表示部21に向けて動かす。これにより、第2表示部21の第2映像21d中に、第1表示オブジェクトD10に基づく像(第2表示オブジェクトD15)を表示する(第2動作S120)。第2表示オブジェクトD15の第2映像21d内における位置は、例えば、観視者80から見たときに第1表示オブジェクトD10と重なる位置である。または、第2表示オブジェクトD15の第2映像21d内における位置は、観視者80から見たときに、第1表示オブジェクトD10の移動の延長上の位置である。
例えば、美術品の像である第1表示オブジェクトD10に基づく第2表示オブジェクトD15を、観視者80の自宅の像を表示している第2映像21d中に表示する。これにより、観視者80は、美術品を自宅中に置いたときの像を仮想空間として知覚できる。
第2表示オブジェクトD15の形状及び色は、例えば、観視者80から見たときに、第1表示部11の第1映像11d中における第1表示オブジェクトD10の形状及び色と実質的に同じになるように設定される。
観視者80が、第2映像21d中に表示された第2表示オブジェクトD15を見ることで、第1映像11d中の第1表示オブジェクトD10を、第1映像11dから第2映像21d中に移動させたように観視者80は知覚できる。
このとき、データ出力部30は、第2動作S120において、第1映像11d中から第1表示オブジェクトD10を消去する第1データ10dを出力することをさらに実施しても良い。すなわち、データ出力部30は、第2動作S120において、第1表示オブジェクトD10を含まない第1映像11dの情報を含む第1データ10dを出力することをさらに実施しても良い。また、データ出力部30は、第2動作S120における第1映像11d中における第1表示オブジェクトD10の輝度の、第1表示オブジェクトD10の周囲の輝度に対する比を、第1動作S110における第1表示オブジェクトD10の輝度の、第1表示オブジェクトD10の周囲の輝度に対する比よりも低くした第1映像11dの情報を含む第1データ10dを出力することをさらに実施しても良い。すなわち、第2動作S120における第1表示オブジェクトD10のコントラストをそれよりも前の状態(例えば第1動作S110の状態)よりも低くする。これにより、観視者80は、第2動作S120において、第1表示オブジェクトD10が実質的に消えたように知覚する。これにより、実空間と仮想物体との融和性をより高めることができ、臨場感をより高めることができる。
この例では、例えば、観視者80が、手(身体82)を第2表示部21に向けて動かすことで、第2動作S120が開始される。すなわち、データ出力部30は、観視者80による操作に基づいて第2動作S120を実施する。
また、データ出力部30は、第1動作S110における第1表示オブジェクトD10の第1映像11d内における動きが予め定められた条件のときに第2動作S120を実施しても良い。例えば、第1表示オブジェクトD10として、動物の成長する姿を描いた像を表示する場合、その動物が一定の状態に成長したときに、その動物の像が第2映像21d中に飛び込むように見せることもできる。例えば、蝶のさなぎが第1映像11d中に表示され、さなぎから成虫の蝶が生まれたときに、その蝶を第2映像21d中に移動させても良い。
図6(a)及び図6(b)に関して説明した第1動作S110において、データ出力部30は、観視者80が第1表示部11を介して物体像D70を見たときの物体像D70の位置を基準として第1映像11d中に第1表示オブジェクトD10を表示する第1映像11dの情報を含む第1データ10dを出力することができる。すなわち、例えば、第1表示オブジェクトD10は、観視者80から見たときに、観視者80の手(身体82)の上に第1表示オブジェクトD10が載せられているように表示される。これにより、実空間と仮想物体との融和性画より高まり、臨場感がより高まる。
第1動作S110において、観視者80が第1表示部11を介して物体像D70(手など)を見たときの物体像D70の位置は、例えば、後述する第2センサなどにより求められる。
上記の第1出力動作S1及び第2出力動作S2を、同時に行っても良い。また、第1出力動作S1の後に、第2出力動作S2を実施しても良い。また、第2出力動作S2の後に第1出力動作S1を実施しても良い。また、第1出力動作S1を複数回繰り返して実施しても良い。また、第2出力動作S2を複数回繰り返して実施しても良い。
図7は、第1の実施形態に係る映像表示装置の別の動作を例示するフローチャート図である。
図7は、後述する第2の実施形態に係る表示方法も例示している。
図7に表したように、データ出力部30は、第2出力動作S2の第4動作S140において、第4表示オブジェクト表示動作S140aと、配置動作S140bと、を実施する。
第4表示オブジェクト表示動作S140aにおいては、第4表示オブジェクトD25を第1映像11d内に表示する。このとき、第4表示オブジェクトD25の第1映像11d内の位置は、観視者80から見たときに第3表示オブジェクトD20と重なる位置、または、第3表示オブジェクトD20の移動の延長上の位置である。
配置動作S140bにおいては、第4表示オブジェクトD25を第1映像11d中の所定の位置に配置する。配置動作S140bは、例えば、第4表示オブジェクト表示動作S140aの後に実施される。または、後述するように、配置動作S140bは、例えば、第4表示オブジェクト表示動作S140aの際に同時に実施される。配置動作S140bにおいては、データ出力部30は、観視者80が第1表示部11を介して物体像D70を見たときの物体像D70の位置を基準として、第1映像11dに第4表示オブジェクトD25を表示する第1映像11dの情報を含む第1データ10dを出力する。
配置動作S140bの例について説明する。以下の例では、第4表示オブジェクトD25を一度表示した後(第4表示オブジェクト表示動作S140aの後)に、配置動作S140bが実施される。
図8(a)〜図8(f)は、第1の実施形態に係る映像表示装置の別の動作を例示する模式図である。
図8(a)〜図8(d)は、それぞれ、図5(a)〜図5(d)と同じである。図8(e)及び図8(f)は、時間tが第3時刻t23であるときの状態を例示している。第3時刻t23は、第2時刻t22よりも後の時刻である。図8(e)は、観視者80の周囲の状況を例示している。図8(f)は、観視者80が第1表示部11を介してして見る、観視像80d(第1映像11d及び背景像BGI)を例示している。
例えば、図8(a)に表したように、第1時刻t21において、第2表示部21の第2映像21d中に第3表示オブジェクトD20が表示される(第3動作S130)。第2映像21dは、例えば、デジタルサイネージの像である。第3表示オブジェクトD20は、商品の像である。
図8(c)に表したように、観視者80は、デジタルサイネージの中から好みの商品に手(身体82)を近づける。その商品の第3表示オブジェクトD20に基づく第4表示オブジェクトD25が、第1表示部11に表示される。これにより、商品の像が、デジタルサイネージから観視者80の第1表示装置10に移動する(第4動作S140の第4表示オブジェクト表示動作S140a)。
このとき、例えば、デジタルサイネージは、移動された像に付設されたIDデータ、像を移動した時刻、及び、像が移動された先の第1表示装置10に付設されているIDデータなどを記録することができる。このようなデータを記録することで、その商品を購買する可能性が高い客(観視者80)に関するデータを入手できる。
第1表示部11に表示された第4表示オブジェクトD25に関するデータを、例えば、第1表示装置10内に設けられた記憶部10mpに格納できる。または、このデータを、第1表示装置10に接続された任意の記憶装置に転送して、この記憶装置に格納できる。
図8(e)に表したように、観視者80は自宅において、格納したデータに基づいて、第1表示部11に第4表示オブジェクトD25を表示させる(配置動作S140b)。このとき、観視者80の周囲には、机などの物体70が存在する。観視者80は、第1表示部11を介して、物体70の像(物体像D70)を見る。第4表示オブジェクトD25は、観視者80が第1表示部11を介して物体像D70を見たときの物体像D70の位置を基準として、第1映像11d中に表示される。
図8(f)に表したように、例えば、物体70が机であるときに、観視者80から見たときに、第4表示オブジェクトD25が机(物体70)の上に配置されるように、第4表示オブジェクトD25が表示される。観視者80は、第4表示オブジェクトD25と物体像D70とを重畳して見ることで、第4表示オブジェクトD25をより実際に近い状態で見ることができる。
観視者80が、その商品(第4表示オブジェクトD25の像に対応する物体)を気にいれば、購入手続きを行う。そして、その商品は、自宅に配達される。
この例では、ユーザが手を伸ばすことで、デジタルサイネージの第2映像21dうちの仮想物体(第4表示オブジェクトD25)を取って、別の位置に移動させることが可能である。例えば、ユーザは、街角のディスプレイから商品を仮想的に自宅に持って帰り、自宅の家具等と重畳させて見ることができる。気に入れば購入し、その後で商品を受け取ることなどが可能となる。
このように、本実施形態に係る映像表示装置110によれば、実空間と仮想物体との融和性を高めた高臨場感の映像表示装置を提供できる。本実施形態によれば、例えば、ユーザは、3次元の仮想空間から、仮想物体を表示上シームレスに実空間に取り出すことができる。そして、仮想物体をユーザの動きと共に移動させることができる。また、ユーザが、実空間に重畳された仮想物体を、表示上シームレスに仮想空間に持ち込むことができる。
なお、拡張現実感提示技術の例として、実空間に仮想物体を重畳させる技術がある。また、実空間をカメラで取り込んで、カメラで取り込んだ像を仮想空間とした上で、その仮想空間に所望の仮想物体を重畳させる技術がある。これらの技術においては、実空間と仮想空間との間で仮想物体が移動するようには知覚されない。
一方、複数の光透過型の2次元のディスプレイを重ねて、ディスプレイのそれぞれに2次元像を表示するDFD(Depth Fused Display)においては、ディスプレイ間の空間に立体像を定位させる。この技術においても、実空間と仮想空間との間で仮想物体が移動するようには知覚されない。
また、例えば、実物体をカメラで取り込み、固定プロジェクタによって投射された仮想空間内で、実物体を他の情報とリンクさせる技術がある。また、ユーザが、手で仮想物体を別の端末ディスプレイ等に移動するアプリケーションがある。しかしながら、仮想物体の移動はプロジェクタの映像空間から端末ディスプレイへの移動であり、仮想物体は、実空間の物体とは重畳されない。
さらに、例えば、複数のディスプレイ間で表示物を移動させるインタフェースとして、コンピュータにおけるマルチウィンドウ機能がある。マルチウィンドウ機能においては、仮想物体が1つの画面から別の画面に移動する。マルチウィンドウ機能においては、画面内の仮想空間内での仮想物体の移動が行われる。このため、仮想空間と実空間との間で仮想物体が移動するようには知覚されない。
これに対して、本実施形態に係る映像表示装置110においては、第1表示装置10として、ユーザに合わせて移動可能で、かつ実空間と仮想空間とを重畳可能な表示装置が用いられる。例えば、第1表示装置10として、透過型のHMDが用いられる。このような第1表示装置10と第2表示装置20とを組み合わせて用い、第1表示装置10の表示部11を介して第2表示装置20の第2表示部21を見る。これにより、仮想物体を仮想空間から実空間に飛び出させるような映像効果を提供することができる。また、本実施形態においては、第1表示装置10で表示した仮想物体を、実空間から仮想空間(第2映像21d中)に移動させる効果を提供することができる。
このように、実施形態に係る映像表示装置110においては、仮想物体を実空間と仮想空間との間でシームレスに移動させて知覚させることができる。
なお、超広視野ビデオシースルーHMD、及び、Automatic Virtual Environmentなどのような没入型ディスプレイと、実空間を撮像する撮像素子と、を組み合わせた構成を用い、仮想的な据え置き型ディスプレイを表示する構成が考えられる。これらの場合には、大規模な装置が必要であり、広い設置スペースが必要であるため、実用は困難である。
実施形態において、例えば、第2動作S120における第2表示オブジェクトD15、及び、第4動作S140における第4表示オブジェクトD25は、第1センサ50により検出された、第1表示装置10と第2表示装置20との間の相対的位置と相対的角度に基づいて生成される。例えば、第2表示オブジェクトD15が、第1映像11d中の第1表示オブジェクトD10と連続していると知覚されるように、第2表示オブジェクトD15が生成される。例えば、第4表示オブジェクトD25が、第2映像21d中の第3表示オブジェクトD20と連続していると知覚されるように、第4表示オブジェクトD25が生成される。これにより、仮想物体が、第1映像11dと第2映像21dとの間を移動するように知覚できる。
また、第2動作S120及び第4動作S140の少なくともいずれかは、仮想物体の動き、及び、ユーザによる所定の操作の少なくともいずれかに基づいて実施される。これにより、第1映像11dと第2映像21dとの間の仮想物体の移動の違和感を小さくできる。
図9は、第1の実施形態に係る映像表示装置の動作を例示するフローチャート図である。
図9は、第2出力動作S2の例を示している。
図10及び図11は、第1の実施形態に係る映像表示装置の動作を例示する模式図である。
図9に表したように、データ出力部30において、映像データIdが受信され、受信された映像データIdがデコードされる(ステップS310)。データ出力部30において、デコードされた映像が、移動可能な映像を含む場面かどうかが判定される(ステップS320)。移動可能な映像が無い場合は、第2表示装置20で、その映像をそのまま表示する(ステップS321)。ステップS321は、例えば、第3動作S130に相当する。
移動可能な映像がある場合、データ出力部30に第1表示装置10が接続されているかどうかが判定される(ステップS330)。このとき、データ出力部30に第1センサ50が接続されているかどうかをさらに判定しても良い。例えば、データ出力部30に接続されている周辺機器は、データ出力部30に適用されているオペレーションシステムにより、自動的に認識される。接続されていない場合には、第2表示装置20で、その映像をそのまま表示する(ステップS321)。
接続されている場合は、第1表示装置10と第2表示装置20との間で表示オブジェクトが移動可能であるとの認識フラグを立てる。
さらに、第1センサ50で、第1表示装置10と第2表示装置20との相対的位置及び相対的角度を検出し、データ出力部30は、相対的位置及び相対的角度に関する情報を入手する(ステップS340)。データ出力部30は、この情報に基づいて、例えば、第1表示部11で表示する第4表示オブジェクトD25を生成する(ステップS341)。第1表示部11における第4表示オブジェクトD25の位置と大きさは、第1表示装置10と第2表示装置20との相対的位置及び相対的角度に応じて決定される。
さらに、データ出力部30においては、相対的位置及び相対的角度に関する情報に基づいて、第1表示装置10と第2表示装置20との間で仮想物体の像の移動条件が、予め定められた条件を満足するかどうかを判定する(ステップS350)。
図10に表したように、第1表示装置10の第1視体積10vと、第2表示装置20の第2視体積20vと、が互いに重なる領域が存在する。例えば、観視者80が第1表示部11を介して第2表示部21を見たとき、第1表示部11の表示領域11rと、第2表示部21の表示領域21rと、が互いに重なる領域15rが存在する。重なる領域15rは、例えば、第1表示装置10の中心10cから見たときの第1視体積10vと第2視体積20vとが互いに重なる領域に相当する。重なる領域15r内に仮想物体(第3表示オブジェクトD20)が存在するときに、その仮想物体は、移動可能な表示オブジェクトDm20となる。例えば、仮想物体の像を第1表示装置10と第2表示装置20との間で移動させるのは、その仮想物体が画枠と干渉しないときが望ましい。上記のように、重なる領域15r内に仮想物体が存在する場合に、仮想物体を移動させる処理(例えば第4動作S140)を実施することが好ましい。
図11に表したように、観視者80から見たときに、第1表示部11の表示領域11rと、第2表示部21の表示領域21rと、が互いに重なる領域15rが小さい場合がある。また、表示領域11rと表示領域21rとが互いに重ならない場合もある。さらに、仮想物体が画枠に接触する場合もある。このような場合においても、仮想物体の予測位置が画枠に接触せず、第1表示部11の第1視体積10vに入ったときに、第1表示部11にその像を表示しても良い。このとき、オブジェクトの非表示領域16を設けても良い。非表示領域16においては、第3表示オブジェクトD20及び第4表示オブジェクトD25は表示されない。
図9に例示したステップS350において、移動条件が、予め定められた条件を満足しない場合は、第2表示装置20で、その映像をそのまま表示する(ステップS321)。
仮想物体の像の移動条件が、予め定められた条件を満足する場合には、第1表示部11に第4表示オブジェクトD25を表示する(ステップS360)。そして、例えば、第3表示オブジェクトD20を消去、または、第3表示オブジェクトD20のコントラストを低下させた第2映像21dを、第2表示部21に表示する。
このような動作により、第3動作S130及び第4動作S140が実施される。また、ステップS310〜S360において、第1表示部11に関する動作と、第2表示部21に関する動作と、を互いに入れ替えることで、第1動作S110及び第2動作S120の動作が実施できる。
なお、上記のステップS341における第4表示オブジェクトD25(または第2表示オブジェクトD15)を、データ出力部30に接続されたクラウド側コンピュータで生成することもできる。この場合は、第1センサ50により検出された、第1表示装置10と第2表示装置20との相対的位置及び相対的角度に関する情報が、ネットワークを介してクラウド側コンピュータに供給され、クラウド側コンピュータでその情報に基づいて第4表示オブジェクトD25(または第2表示オブジェクトD15)に関するデータを生成する。そのデータが、データ出力部30に供給される。
図12(a)及び図12(b)は、第1の実施形態に係る映像表示装置の動作を例示する模式図である。
図12(a)及び図12(b)に表したように、本実施形態に係る映像表示装置110において用いられる映像データIdは、例えば、メイントラックMTと、複数のサブトラック(例えば第1サブトラックST1及び第2サブトラックST2など)と、を含む。例えば、メイントラックMTは、第1シーンメインSC1M及び第2シーンメインSC2Mなどを含む。第1サブトラックST1は、例えば第1シーンSC1の移動オブジェクトMOを含む。第2サブトラックST2は、例えば、第1シーンメインSC1Mを含む。特定の時間tにおいて、シーンチェンジSCCが行われる。シーンチェンジSCCの後に、メイントラックMTの第2シーンメインSC2M、第1サブトラックST1の移動オブジェクトMO、及び、第2サブトラックST2の第1シーンメインSC1Mが開始される。このように、映像データIdの中には、第1映像11d及び第2映像21dとの間を移動可能な仮想物体の映像領域(移動オブジェクトMO)が含まれている。
図12(a)は、第1表示装置10を使わず、第2表示装置20で映像データIdを表示する場合の例である。例えば、実際のビデオ映像等においては、主ターゲットがディスプレイからフレームアウトする前に、シーンが切り変わる。第2表示装置20で映像データIdを表示する際には、シーンチェンジSCCの前において、メイントラックMTの第1シーンメインSC1Mと、第1サブトラックST1の第1シーンSC1と、が表示される。そして、シーンチェンジSCCの後には、第2シーンメインSC2Mが表示され、第1サブトラックST1の移動オブジェクトMO、及び、第2サブトラックST2の第1シーンメインSC1Mは、表示されない。
図12(b)は、第1表示装置10及び第2表示装置20により映像データIdを表示する例を示している。図12(b)は、第2表示装置20の第2映像21dから、第1表示装置10の第1映像11dに移動オブジェクトMOが移動する例である。このときは、最初の段階では、第2表示装置20により、メイントラックMTの第1シーンメインSC1Mと、第1サブトラックST1の第1シーンSC1と、が表示される。そして、像の移動IMが始まると、第1表示装置10により、第1サブトラックST1の移動オブジェクトMOの表示が行われる。このとき、第2表示装置20においては、メイントラックMTの第2シーンメインSC2Mは表示されず、第2サブトラックST2の第1シーンメインSC1Mが表示される。この後で、移動オブジェクトMOの表示が終了したときに、シーンチェンジSCCが行われる。シーンチェンジSCCの後では、例えば、第2表示装置20により、第2シーンメインSC2Mが表示される。このように、像を移動させる場合には、例えば、第2表示装置20により「第1シーン」を一定の期間表示し、第1表示装置10により第1シーンの移動オブジェクトMOを表示することで、シームレスな像の移動が実施できる。これにより違和感を小さくした表示を行うことができる。
第1表示装置10で表示する移動オブジェクトMO(第4表示オブジェクトD25)は、第1表示装置10の位置及び角度に応じて生成される。このために、例えば、データ出力部30に供給される映像データIdには、多視点映像に関するデータを有するサブトラックが設けられる。このサブトラックに用いられるデータは、例えば、第1表示装置10の位置(観視者80の視点に対応する)に応じた映像を作ることで生成される。または、映像のデータセットをクラウド側コンピュータに設けておき、データ出力部30から第1表示装置10の位置、角度及び画角等の情報をクラウド側コンピュータに供給し、クラウド側コンピュータで移動オブジェクトMOに関するデータを生成しても良い。そのデータをデータ出力部30で入手して、第1表示装置10でそのデータに基づく映像を表示する。なお、映像データIdの伝送にはMVC(Multi View Codec)のような符号化方式を使うことができる。本実施形態においては、像(例えば第4表示オブジェクトD25及び第2表示オブジェクトD15の少なくともいずれか)の生成方法は、任意である。
実施形態においては、特定のシーン(場面)において、特定のオブジェクト(移動オブジェクトMO)を、第2表示装置20と第1表示装置10との間で移動したように知覚させる。これにより、例えば、より迫力のある演出効果を提供できる。
図13(a)〜図13(c)は、第1の実施形態に係る映像表示装置の動作を例示する模式図である。
これらの図は、映像データIdの作成方法の例を示している。
図13(a)に表したように、撮像空間85において、例えば、X軸方向、Y軸方向及びZ軸方向の撮像空間座標系85xを設定する。Y軸方向はX軸方向に対して垂直である。Z軸方向は、X軸方向及びY軸方向に対して垂直である。撮像空間85において、複数の撮像装置86を用いて、目的とする像を撮像する。複数の撮像装置86のそれぞれの位置及び角度(姿勢)に関する情報が取得される。この位置及び角度(姿勢)に関する情報は、撮像空間座標系85xと関連付けられている。この位置及び角度(姿勢)に関する情報から、撮像空間座標系85xにおける移動オブジェクトMOの位置が求められる。
図13(b)に表したように、第2映像21d内に第2映像座標系21xが設定される。第2映像座標系21xは、撮像空間座標系85xと関連付けられる。例えば、撮像空間座標系85xが、第2表示装置20における第2映像座標系21xに投影変換される。これにより、撮像空間座標系85xと第2映像座標系21xとの関係が定まる。
図13(c)に表したように、第1表示装置10の相対的位置及び相対的角度(姿勢)が、第2映像座標系21xを用いて表される。
上記の、撮像空間座標系85xにおける移動オブジェクトMOの位置、撮像空間座標系85xと第2映像座標系21xと関係、及び、第2映像座標系21xを用いて表された第1表示装置10の相対的位置及び相対的角度(姿勢)により、第1表示装置10(第1表示部11)を介してみたときの移動オブジェクトMOの位置が求められる。求められた移動オブジェクトMOの位置を用いて、移動オブジェクトMO(例えば第4表示オブジェクトD25)を第1映像11d内に投影変換する。
このように、サブトラック中のいくつかの視点映像から、第1表示装置10の位置に応じた映像が生成される。この際、第1表示装置10で表示する移動オブジェクトMO(例えば第4表示オブジェクトD25)においては、第2表示装置20の第2映像21dと、同期を取る。例えば、第1映像11dは、第1表示装置10の相対的位置及び相対的角度に関する情報を入手後、予め生成する(例えばステップS341)。そして、移動オブジェクトMOに関する像の移動の条件が満たされるときに(例えばステップS350)、第1表示部11及び第2表示部21に対応する映像をそれぞれで表示する(例えばステップS360)。
上記の座標の変換の方法は、例えば、第1表示装置10と第2表示装置20との関係を入れ替えることで、第2表示部21で第2表示オブジェクトD15を表示する処理に適用できる。
上記の動作は、例えば、表示する映像(コンテンツ)が2次元の動画の場合に適用できる。ただし、実施形態はこれに限らない。表示するコンテンツが、3次元の動画の場合も、上記と同様の動作が実施される。なお、3次元情報を有するコンテンツを表示する場合は、映像データIdを取得する際の撮像空間85に相当する座標値がわかっている。このため、移動オブジェクトMOの投影変換が容易に実施できる。このため、第4表示オブジェクトD25及び第2表示オブジェクトD15の生成が容易である。
実施形態において、仮想物体(第3表示オブジェクトD20)の予測位置が、第1表示部11の第1視体積10vに入ったときに、第4動作S140を実施する。このとき、第4動作S140においては、第1映像11d中の、観視者80から見たときに第3表示オブジェクトD20の移動の延長上の位置に、第4表示オブジェクトD25を表示する。
また、仮想物体(第1表示オブジェクトD10)の予測位置が、第2表示部21の第2視体積20vに入ったときに、第2動作S120を実施する。このとき、第2動作S120においては、第2映像21d中の、観視者80から見たときに第1表示オブジェクトD10の移動の延長上の位置に、第2表示オブジェクトD15を表示する。
また、第4動作S140においては、例えば、第4表示オブジェクトD25の時間的な変化(例えば色、形状及びサイズなどの時間的な変化)が、第3表示オブジェクトD20の時間的な変化と連続する。第2動作S120においては、例えば、第2表示オブジェクトD15の時間的な変化(例えば色、形状及びサイズなどの時間的な変化)が、第1表示オブジェクトD10の時間的な変化と連続する。
すなわち、データ出力部30は、第2出力動作S2においては、第4動作S140における第4表示オブジェクトD25が、第3動作S130における第2映像21d中の第3表示オブジェクトD20の変化と連続するように、第4動作S140における第1データ10dを出力する。第3動作S130における第2映像21d中の第3表示オブジェクトD20の変化は、例えば、第3表示オブジェクトD20の時間的な変化である。
同様に、データ出力部30は、第1出力動作S1においては、第2動作S120における第2表示オブジェクトD15が、第1動作S110における第1映像11d中の第1表示オブジェクトD10の変化と連続するように、第2動作S120における第2データ20dを出力する。第1動作S110における第1映像11d中の第1表示オブジェクトD10の変化は、例えば、第1表示オブジェクトD10の時間的な変化である。
これにより、第1表示装置10と第2表示装置20との間での仮想物体の移動の際に、仮想物体の色、形状、大きさ、位置及び運動方向の違和感が抑制できる。
図14(a)及び図14(b)は、第1の実施形態に係る映像表示装置の動作を例示する模式図である。
これらの図は、第4動作S140の、第4表示オブジェクト表示動作S140a及び配置動作S140bを例示している。
図14(a)は、時間tが第1時刻t41であるときの状態を例示している。図14(b)は、時間tが第2時刻t42であるときに状態を例示している。第2時刻t42は、第1時刻t42よりも後の時刻である。
例えば、図14(a)に表したように、第2表示部21の第2映像21d中に第3表示オブジェクトD20(例えば商品の像)が表示されている状態(第3動作S130)において、観視者80による操作に基づいて、第3表示オブジェクトD20に基づく第4表示オブジェクトD25が、第1表示部11に表示される(第4動作S140の第4表示オブジェクト表示動作S140a)。例えば、第2表示部21に表示されている仮想物体を、第2表示部21からユーザの手の上に移動させる。このとき、第4表示オブジェクトD25に関するデータを記憶しても良い。
その後、図14(b)に表したように、第4表示オブジェクトD25に関するデータに基づいて、第4表示オブジェクトD25を表示する(配置動作S140b)。観視者80から見たときに、第4表示オブジェクトD25が机(物体70)の上に配置されるように、第4表示オブジェクトD25は第1映像11d内に配置される。例えば、図14(a)に例示した状態から、第4表示オブジェクトD25を表示し続けて、図14(b)の状態に移行しても良い。
図14(a)に例示した第4表示オブジェクト表示動作S140aにおいて、ユーザ(観視者80)の手(身体82)に向かって仮想物体(第4表示オブジェクトD25)が動く。第4表示オブジェクト表示動作S140aの際に、観視者80の身体82の物体像D70の位置に基づいて、第4表示オブジェクトD25の第1映像11d内の位置を定めても良い。すなわち、第4表示オブジェクト表示動作S140aと配置動作S140bとを同時に実施しても良い。これにより、仮想物体は、第2表示部21からユーザの手の上に、違和感無く移動するように知覚される。
なお、ユーザの手(身体82)の3次元空間内の位置は、例えば、第1センサ50により検出される。または、第1センサ50とは別に、第2センサ60を設け、この第2センサ60により、ユーザの手(身体82)の3次元空間内の位置を検出しても良い。
すなわち、映像表示装置110は、第2センサ60をさらに備えることができる。第2センサ60は、第1表示装置10の周囲に存在する物体像D70を検出する。物体像D70は、例えば、観視者80の身体82の少なくとも一部の像を含む。物体像D70は、例えば、第1表示装置10の周囲(観視者80の周囲)に存在する物体70(例えば机など)の像を含む。
第4表示オブジェクトD25を第1表示部11に表示する動作(第4動作S140)において、データ出力部30は、配置動作S140bを実施することができる。配置動作S140bにおいては、データ出力部30は、観視者80が第1表示部11を介して第2センサ60が検出した物体像D70を見たときの物体像D70の位置を基準として第1映像11d中に第4表示オブジェクトD25を表示する第1映像11dの情報を含む第1データ10dを出力する。
第2センサ60は、例えば、第1表示装置10に付設される。第2センサ60には、例えば、撮像素子を用いることができる。これにより、空間内における物体像D70(例えば手など)の位置が定まり、仮想物体の移動パスが定まる。例えば、第2表示部21を基準としたXYZ座標系を定め、この座標系を用いて手の位置を定める。手の位置の情報を用いて、例えば、映像のコンテンツが3次元情報を持っている場合と同様の処理を行うことで、所望の位置(例えば手の位置)に第4表示オブジェクトD25を配置することができる。
図14(b)に表したように、観視者80は、格納したデータに基づいて、第1表示部11に第4表示オブジェクトD25を表示させる(配置動作S140b)。すなわち、第1表示部21に表示された仮想物体の像を、インタラクティブに、実空間中の所定位置に配置する。このように、実空間中の所定位置へ第4表示オブジェクトD25を配置する際には、仮想物体はユーザと共に移動する。このため、ユーザと共に動く座標系を用いて、仮想物体の位置と、移動先の位置と、を表す。この例では、第2センサ60により、移動先の実物体の位置及び姿勢を検出する。第2センサ60を用いることで、ユーザから見たときに、ユーザの手、及び、実空間中の実物体の位置及び姿勢が検出できる。
例えば、図14(a)に例示したように、第1センサ50によりユーザの位置が検出できる時には、第2表示装置20、第1表示装置10(ユーザ)、及び、仮想物体(第4表示オブジェクトD25)が、第1センサ50の検出結果に基づく同一の座標系で表現される。
例えば、図14(b)に表したように、第1センサ50で第1表示装置10(ユーザ)を検出できない状態においては、第1表示装置10に付設される第2センサ60により、ユーザの位置を基準とした座標系で仮想物体が表現される。
本実施形態に係る映像表示装置110において、第1出力動作S1及び第2出力動作S2により、第1表示部11と第2表示部21との間での仮想物体の移動が行われる。この移動が自然に知覚されるように、上記の動作を実施する。例えば、第1表示装置10と第2表示装置20との相対的位置及び相対的角度の誤差及び時間遅れ(検出誤差)、第1表示装置10と第2表示装置20とにおける表示パラメータの差異(パラメータ差)、並びに、第1表示部11が透過させる背景像による見難さ(視覚的ノイズ)などにより、仮想物体の移動が不自然に知覚される。
例えば、上記の検出誤差は、例えば、ユーザ(観視者80)の頭部の動きが激しい場合に大きくなる。例えば、検出誤差は、第1表示装置10と第2表示装置20との相対的位置及び相対的角度の変化が大きい場合に、大きくなる。
例えば、データ出力部30は、第1センサ50により検出された相対的位置の変化量が予め定められた値以下であり、第1センサ50により検出された相対的角度の変化量が予め定められた値以下のときに、第1出力動作S1及び第2出力動作S2の少なくともいずれかを実施する。データ出力部30は、相対的位置の変化量が予め定められた値を超える、または、相対的角度の変化量が予め定められた値を超えるときには、第1出力動作S1及び第2出力動作S2を実施しない。相対的位置の変化量は、例えば、予め定められた時間内における相対的位置の変化量である。相対的角度の変化量は、例えば、予め定められた時間内における相対的角度の変化量である。
例えば、第1センサ50の検出結果から判断される、第1表示装置10と第2表示装置20との相対的位置及び姿勢の変化量が所定の値以下のときに、仮想物体の移動を実施し、所定の値を超える場合には、実施しない。
このような動作により、検出誤差に起因した不自然さが抑制できる。
また、仮想物体の移動時に、移動する感覚を与えることで、移動時の違和感を抑制し、不自然さを抑制することもできる。例えば、映像表示装置110に音発生部40を設ける。データ出力部30における第1出力動作S1及び第2出力動作S2の少なくともいずれかの動作の際に、音発生部40により音を発生する。音発生部40により、仮想物体の移動時に効果音を発生させる。これにより、例えば、検出誤差に起因した不自然さが抑制できる。
また、第4動作S140において、第2映像21d中の像の空間周波数を低下させても良い。これにより、第2表示部21に、例えば、煙状の映像効果が付与される。
図15(a)及び図15(b)は、第1の実施形態に係る映像表示装置の別の動作を例示する模式図である。
これらの図は、第4動作S140の例を示している。
図15(a)は、第1表示部11(観視者80)と第2表示部21との配置の関係を例示している。図15(b)は、観視者80が第1表示部11を介してして見る、観視像80d(第1映像11d及び背景像BGI)を例示している。
図15(a)及び図15(b)に表したように、第4動作S140において、第2映像21d中に、低空間周波数ノイズ画像D22をテクスチャとして加える。低空間周波数ノイズ画像D22は、例えば、第2映像21d中における第3表示オブジェクトD20に重なる位置、または、第3表示オブジェクトD20の周囲の位置に表示される。これにより、仮想物体の移動時の違和感が抑制される。
このような低空間周波数ノイズ画像D22は、第2動作S120において設けても良い。これにより、例えば、検出誤差に起因した不自然さが抑制できる。
第1表示装置10と第2表示装置20とにおける表示パラメータの差異(パラメータ差)が大きいことがある。表示パラメータは、例えば、色、輝度、解像度、画面の縦横比、及び、視距離などを含む。例えば、第1表示装置10と第2表示装置20とで、色、輝度、解像度、画面の縦横比、視距離が大きく異なる場合がある。
例えば、色、輝度及び寸法などについて変換式を予め作っておき、仮想物体を移動する際にこの変換式を用いる。これにより、違和感が抑制できる。
例えば、第2表示装置20における色のRGB値を(r0,g0、b0)とし、第1表示装置10における色のRGB値を(r1,g1,b1)とする。色に関する特性を線形とすると、第1式の変換式により、(r0,g0、b0)が表現できる。
この変換式を用いて、ピクセルごとの色を決める。
例えば、データ出力部30は、第1出力動作S1においては、第1動作S110における第1表示オブジェクトD10の色及び輝度を予め定められた方法によって変換して、第2動作S120の第2データ20dの出力における第2表示オブジェクトD15の色及び輝度を定めることができる。
また、データ出力部30は、第2出力動作S2においては、第3動作S130における第3表示オブジェクトD20の色及び輝度を予め定められた方法によって変換して、第4動作S140の第1データ10dの出力における第4表示オブジェクトD25の色及び輝度を定めることができる。
これにより、パラメータ差に起因した不自然さを抑制できる。
例えば、第1表示部11に仮想物体の像が表示されているときに、第1表示部11の背景の第2表示部21の第2映像21dに輝度が高い像が表示されていると、背景像が透けて知覚される。これにより、視覚的ノイズが発生し、仮想物体の像を飛び出させてもリアリティが低下する場合がある。
図16(a)〜図16(e)は、映像表示装置の特性に関する実験を示す模式図である。
図16(e)は、実験条件を例示する模式図である。図16(a)〜図16(d)は、実験結果を示す写真像でさる。
図16(e)に表したように、被験者87eの前に、ハーフミラー87dを配置する。ハーフミラー87dに、ディスプレイ87cから出射した光を入射させる。ハーフミラー87dに入射した光は被験者87eに入射する。所定の位置に、ディスプレイ87cから出射した光による像が形成される。この例では、ディスプレイ87cによりチェッカパターンを表示させる。これにより、被験者87eの前に、チェッカ像87aが形成される。チェッカ像87aは、例えば、第1表示部11による第1映像11dに相当する。チェッカ像87aと被験者87eとの間に、サンプル実物体87bを配置する。サンプル実物体87bは、例えば、第2表示部21による第2映像21dに相当する。この実験では、サンプル実物体87bは、6つの領域(第1領域Ra1〜第6領域Ra6)を有している。第1領域Ra1〜第6領域Ra6の輝度は、それぞれ、0.4cdm、1.4cdm、2.1cdm、4.7cdm、8.4cdm、及び、13.5cdmである。そして、チェッカ像87aにおける白部分の輝度を、0.95cdm、2.14cdm、10.56cdm、及び、26.1cdmとしたときの、チェッカ像87a及びサンプル実物体87bの見え方が評価される。
図16(a)〜図16(d)は、チェッカ像87aにおける白部分の輝度が、それぞれ0.95cdm、2.14cdm、10.56cdm、及び、26.1cdmのときの写真像である。
これらの図からわかるように、光透過型ディスプレイにおいて、像及び背景の視認性は、像の輝度と背景の輝度との差に依存する。背景の明るさが像の明るさより高いと、像は透き通って、背景が視認される。背景の明るさが像の明るさ以下のときは、背景は視認され難い。
第2動作S120において、第1映像11dの輝度の低下を実施し、第4動作S140において、第2映像21dの輝度の低下を実施することで、視覚的ノイズの発生を抑制することができる。
また、背景像が目立つか否かは、仮想物体の像の空間周波数、及び、背景を像と考えた場合の空間周波数と、関係する。
例えば、第2出力動作S2の第4動作S140においては、第1映像11dの輝度の上昇、及び、第2映像21dの輝度の低下の少なくともいずれかを実施し、輝度差を拡大する。また、第2映像21dの表示空間周波数の低下をさせ、画像が不明確になる状態とする。これにより、第4動作S140における第2映像21dの表示を目立たなくできる。
さらに、第2映像21dの背景色の透過度に基づいて、第1映像11dにおける色を変更することで、視覚的ノイズの発生を抑制することができる。
例えば、データ出力部30は、第4動作S140において、第3動作S130における第2映像21dに対して、第2映像21dの輝度の低下、及び、第2映像21d中の像の少なくとも一部の空間周波数の低下の少なくともいずれかを実施した第2映像21dの情報を含む第2データ20dを出力することができる。これにより、第4動作S140において、第2映像21dが第1表示部11を介して知覚されることに起因する視覚的ノイズの発生を抑制できる。
また、データ出力部30は、第2動作S120において、第1動作S110における第1映像11dに対して、第1映像11dの輝度の低下、及び、第1映像11d中の像の少なくとも一部の空間周波数の低下の少なくともいずれかを実施した第1映像11dの情報を含む第1データ10dを出力することができる。これにより、第2動作S120において、第1映像11dが知覚されることに起因する視覚的ノイズの発生を抑制できる。
図17は、第1の実施形態に係る映像表示装置の別の動作を例示する模式図である。
図17に表したように、第2映像21dの一部の輝度を低下させる。第2映像21d中の輝度を低下させた部分Dr20は、観視者80から見て、第4表示オブジェクトD25が第2映像21dに投影される部分である。すなわち、ユーザの視点からの仮想物体の、第2表示部21への投影部分(部分Dr20)の輝度を、他の部分よりも下げる。これにより、第2映像21dを観視者80に認識させ難くできる。
図18は、第1の実施形態に係る映像表示装置の構成及び動作を例示する模式図である。
図18に表したように、本実施形態に係る別の映像表示装置120は、データ出力部30、第1表示装置10及び第2表示装置20に加え、プロジェクタ42をさらに備える。プロジェクタ42は、データ出力部30に接続される。プロジェクタ42は、観視者80が第1表示部11を介して見たときの背景のうちで、第4表示オブジェクトD25と重なる領域RLの輝度よりも、第4表示オブジェクトD25と重ならない領域RHの輝度を高くする。
すなわち、プロジェクタ42により、仮想物体の像に対応する実空間の箇所(領域RL)の輝度を、それ以外の箇所(領域RH)よりも下げる。これにより、視覚的ノイズの発生を抑制できる。
図19は、第1の実施形態に係る映像表示装置の別の構成を例示する模式図である。
図19に表したように、本実施形態に係る映像表示装置130においては、第1表示装置10は、第1表示部11及び映像生成部12(表示素子12a)に加え、遮蔽部14bをさらに含む。この例では、第1表示装置10は、凹面鏡14aをさらに含む。
第1表示部11には、半透過反射板(半透過反射層)、すなわち、ハーフミラーが用いられる。映像生成部12から出射した光は、凹面鏡14aで反射し、像が拡大される。凹面鏡14aで反射した光は、第1表示部11で反射して観視者80の目81に入射する。観視者80は、第1表示部11で反射する光に基づく像(第1映像11d)を見る。観視者80から見たときに、第1映像11dのうちの一部が、遮蔽部14bに重なる。例えば、遮蔽部14bは、外部から第1表示部11を介して観視者80の目81に入射する光を遮蔽する。例えば、第2表示部21の第2映像21dの少なくとも一部が、遮蔽部14bにより遮蔽される。遮蔽する領域は、例えば、観視者80から見て、第4表示オブジェクトD25と重なる領域を含む。これにより、視覚的ノイズの発生を抑制できる。遮蔽部14bの光透過率を変化させても良い。
第1表示装置10には、例えば光透過型のHMDを用いることができるが、実施形態は、これに限らない。例えば、第1表示装置10として、光透過型のタブレット型ディスプレイ、または、ビデオシースルー型のタブレットディスプレイを用いても良い。この場合にも、仮想物体を実空間と仮想空間との間で移動させる表現が提供できる。
(第2の実施形態)
第2の実施形態は、表示方法に係る。本実施形態に係る表示方法は、例えば、図3(a)、図3(b)及び図7に関して説明した処理を含む。
この表示方法においては、第1映像11dを表示する光透過性の第1表示部11を有する第1表示装置10に第1映像11dの第1データ10dを供給し、第2映像21dを表示する第2表示部21を有する第2表示装置20に第2映像21dの第2データ20dを供給する。第2表示部21に表示された第2映像21dは、第1表示部11を介して観視者が見ることが可能である。
本表示方法においては、第1出力動作S1及び第2出力動作S2の少なくともいずれかを実施する。
第1出力動作S1は、第1動作S110及び第2動作S120を含む。第1動作S110では、第1映像11d中に第1表示オブジェクトD10を表示する第1データ10dを供給する。第2動作S120では、第1動作S110の後に、第2映像21d中の、観視者80から見たときに第1表示オブジェクトD10と重なる位置、または、第1表示オブジェクトD10の移動の延長上の位置に第1表示オブジェクトD10に基づく表示オブジェクト(第2表示オブジェクトD15)を表示する第2データ20dを供給する。
第2出力動作S2は、第3動作S130及び第4動作S140を含む。第3動作S130では、第2映像21d中に第3表示オブジェクトD20を表示する第2データ20dを供給する。第4動作S140では、第3動作S130の後に、第1映像11d中の、観視者80から見たときに第3表示オブジェクトD20と重なる位置、または、第3表示オブジェクトD20の移動の延長上の位置に第3表示オブジェクトD20に基づく表示オブジェクト(第4表示オブジェクトD25)を表示する第1データ10dを供給する。
本実施形態によれば、実空間と仮想物体との融和性を高めた高臨場感の映像を提供できる表示方法が提供できる。
実施形態においては、光透過型の第1表示部11を有する第1表示装置10と、第2表示部21を有する第2表示装置20と、データ出力部30と、位置及び姿勢センサ(第1センサ50)と、が設けられる。第1センサ50は、第1表示装置10と第2表示装置20との間の相対的位置と相対的角度とを検出する。データ出力部30は、映像データを供給する。第2表示部21または第1表示部11の一方に表示された仮想物体の像が、仮想物体の動き、または、ユーザによる操作に基づいて、それぞれ互いに異なるディスプレイ上の像に移動するように、第2表示部21及び第1表示部11の映像が作成される。
実施形態においては、ユーザの手または足、および、ユーザの周囲の実物体の位置・姿勢を把握する実空間センサ(第2センサ60)がさらに設けられる。第1表示装置10で表示した仮想物体を、ユーザによる操作、または、仮想物体の状況に基づいて、実空間内の所定位置に存在するように第1表示装置10の表示を制御する。
映像移動は、位置及び姿勢センサから判断される、第1表示装置10と第2表示装置20との相対的位置及び相対的角度(姿勢)の変化量が、所定の値以下である場合に実施する。
移動する仮想物体の見た目の表示色及び輝度が実質的に同じになるように、色情報の変換方法が予め規定される。映像切り替え制御時には、第1表示装置10と第2表示装置20との間で移動する仮想物体の大きさ、実空間内の位置、運動方向に矛盾を生じないようにする。
実施形態によれば、実空間と仮想物体との融和性を高めた高臨場感の映像表示装置が提供される。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明の実施形態は、これらの具体例に限定されるものではない。例えば、映像表示装置に含まれる、第1表示装置、第1表示部、第2表示装置、第2表示部、データ出力部、第1センサ及び第2センサなどの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した映像表示装置を基にして、当業者が適宜設計変更して実施し得る全ての映像表示装置も、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…第1表示装置、 10c…中心、 10d…第1データ、 10mp…記憶部、 10v…第1視体積、 11…第1表示部、 11a…左目用表示部、 11b…右目用表示部、 11d…第1映像、 11r…表示領域、 12…映像生成部、 12a…表示素子、 12b…光源、 12c…光、 13…保持部、 14a…凹面鏡、 14b…遮蔽部、 15r…領域、 16…被表示領域、 20…第2表示装置、 20d…第2データ、 20v…視体積、 21…第2表示部、 21d…第2映像、 21r…表示領域、 21x…第2映像座標系、 23…筐体、 30…データ出力部、 31…第1通信経路、 32…第2通信経路、 34…音発生部用通信経路、 35…第1センサ通信経路、 35d…位置姿勢データ、 38…入出力部、 38a、38b…通信経路、 40…音発生部、 42…プロジェクタ、 50…第1センサ、 60…第2センサ、 70…物体、 80…観視者、 80d…観視像、 80h…頭部、 81…目、 82…身体、 85…撮像空間、 85x…撮像空間座標系、 86…撮像装置、 87a…チェッカ像、 87b…サンプル実物体、 87c…ディスプレイ、 87d…ハーフミラー、 87e…被験者、 110、120、130…映像表示装置、 BGI…背景像、 D10…第1表示オブジェクト、 D15…第2表示オブジェクト、 D20…第3表示オブジェクト、 D22…低空間周波数ノイズ画像、 D25…第4表示オブジェクト、 D70…物体像、 Dm20…表示オブジェクト、 Dr20…部分、 IM…移動、 Id…映像データ、 MO…移動オブジェクト、 MT…メイントラック、 RH、RL…領域、 Ra1〜Ra6…第1〜第6領域、 S1…第1出力動作、 S110〜S140…第1〜第4動作、 S140a…第4表示オブジェクト表示動作、 S140b…配置動作、 S2…第2出力動作、 S310〜S360…ステップ、 SC1…第1シーン、 SC1M…第1シーンメイン、 SC2M…第2シーンメイン、 SCC…シーンチェンジ、 ST1…第1サブトラック、 ST2…第2サブトラック、 t…時間、 t11〜t14…第1〜第4時刻、 t21〜t23…第1〜第3時刻、 t31、t32…第1及び第2時刻、 t41、t42…第1及び第2時刻

Claims (13)

  1. 第1映像の情報を含む第1データと、第2映像の情報を含む第2データと、を出力するデータ出力部と、
    前記第1データに基づく前記第1映像を表示する光透過性の第1表示部を有する第1表示装置と、
    前記第2データに基づく前記第2映像を表示する第2表示部を有し、前記第2表示部に表示された前記第2映像を前記第1表示部を介して観視者が見ることが可能である第2表示装置と、
    を備え、
    前記データ出力部は、
    第1表示オブジェクトを含む前記第1映像の情報を含む前記第1データを出力する第1動作と、
    前記第1動作の後に、前記第1表示オブジェクトに基づく第2表示オブジェクトを含む前記第2映像の情報を含む前記第2データを出力する第2動作であって、前記第2表示オブジェクトの前記第2映像中の位置は、前記観視者から見たときに前記第1表示オブジェクトと重なる位置、または、前記第1表示オブジェクトの移動の延長上の位置である、第2動作と、
    を含む第1出力動作、及び、
    第3表示オブジェクトを含む前記第2映像の情報を含む前記第2データを出力する第3動作と、
    前記第3動作の後に、前記第3表示オブジェクトに基づく第4表示オブジェクトを含む前記第1映像の情報を含む前記第1データを出力する第4動作であって、前記第4表示オブジェクトの前記第1映像中の位置は、前記観視者から見たときに前記第3表示オブジェクトと重なる位置、または、前記第3表示オブジェクトの移動の延長上の位置である、第4動作と、
    を含む第2出力動作、
    の少なくともいずれかを実施する映像表示装置。
  2. 前記データ出力部は、
    前記第2動作において、前記第1表示オブジェクトを含まない前記第1映像の情報を含む前記第1データを出力することをさらに実施し、
    前記第4動作において、前記第3表示オブジェクトを含まない前記第2映像の情報を含む前記第2データを出力することをさらに実施する請求項1記載の映像表示装置。
  3. 前記データ出力部は、
    前記第2動作における前記第1映像中における前記第1表示オブジェクトの輝度の前記第1表示オブジェクトの周囲の輝度に対する比を、前記第1動作における前記第1表示オブジェクトの輝度の前記第1表示オブジェクトの周囲の輝度に対する比よりも低くした前記第1映像の情報を含む前記第1データを出力することをさらに実施し、
    前記第4動作における前記第2映像中における前記第3表示オブジェクトの輝度の前記第3表示オブジェクトの周囲の輝度に対する比を、前記第3動作における前記第3表示オブジェクトの輝度の前記第3表示オブジェクトの周囲の輝度に対する比よりも低くした前記第2映像の情報を含む前記第2データを出力することをさらに実施する請求項1記載の映像表示装置。
  4. 前記データ出力部は、
    前記第2動作において、前記第1動作における前記第1映像に対して、前記第1映像の輝度の低下、及び、前記第1映像中の像の少なくとも一部の空間周波数の低下の少なくともいずれかを実施した前記第1映像の情報を含む前記第1データを出力し、
    前記第4動作において、前記第3動作における前記第2映像に対して、前記第2映像の輝度の低下、及び、前記第2映像中の像の少なくとも一部の空間周波数の低下の少なくともいずれかを実施した前記第2映像の情報を含む前記第2データを出力する請求項1〜3のいずれか1つに記載の映像表示装置。
  5. 前記第1表示装置と前記第2表示装置との間の相対的位置と相対的角度とを検出する第1センサをさらに備え、
    前記データ出力部は、前記第1センサにより検出された前記相対的位置及び前記相対的角度に基づいて、前記第2動作及び前記第4動作を実施する請求項1〜4のいずれか1つに記載の映像表示装置。
  6. 前記データ出力部は、前記第1センサにより検出された前記相対的位置の変化量が予め定められた値以下であり、前記第1センサにより検出された前記相対的角度の変化量が予め定められた値以下のときに前記第1出力動作及び前記第2出力動作の前記少なくともいずれかを実施する請求項5記載の映像表示装置。
  7. 前記データ出力部は、前記観視者による操作に基づいて前記第2動作及び前記第4動作の少なくともいずれかを実施する請求項1〜6のいずれか1つに記載の映像表示装置。
  8. 前記データ出力部は、
    前記第1動作における前記第1表示オブジェクトの前記第1映像内における動きが予め定められた条件のときに前記第2動作を実施し、
    前記第3動作における前記第3表示オブジェクトの前記第2映像内における動きが予め定められた条件のときに前記第4動作を実施する請求項1〜7のいずれか1つに記載の映像表示装置。
  9. 前記第1表示装置の周囲に存在する物体像を検出する第2センサをさらに備え、
    前記データ出力部は、前記第4動作において、前記観視者が前記第1表示部を介して前記第2センサが検出した前記物体像を見たときの前記物体像の位置を基準として前記第1映像中に前記第4表示オブジェクトを表示する前記第1映像の情報を含む前記第1データを出力する請求項1〜8のいずれか1つに記載の映像表示装置。
  10. 前記第1表示装置の周囲に存在する物体像を検出する第2センサをさらに備え、
    前記データ出力部は、前記第1動作において、前記観視者が前記第1表示部を介して前記第2センサが検出した前記物体像を見たときの前記物体像の位置を基準として前記第1映像中に前記第1表示オブジェクトを表示する前記第1映像の情報を含む前記第1データを出力する請求項1〜8のいずれか1つに記載の映像表示装置。
  11. 前記データ出力部は、
    前記第1出力動作においては、前記第2動作における前記第2表示オブジェクトが、前記第1動作における前記第1映像中の前記第1表示オブジェクトの変化と連続するように、前記第2動作における前記第2データを出力し、
    前記第2出力動作においては、前記第4動作における前記第4表示オブジェクトが、前記第3動作における前記第2映像中の前記第3表示オブジェクトの変化と連続するように、前記第4動作における前記第1データを出力する請求項1〜10のいずれか1つに記載の映像表示装置。
  12. 前記データ出力部は、
    前記第1出力動作においては、前記第1動作における前記第1表示オブジェクトの色及び輝度を予め定められた方法によって変換して、前記第2動作における前記第2表示オブジェクトの色及び輝度を定め、
    前記第2出力動作においては、前記第3動作における前記第3表示オブジェクトの色及び輝度を予め定められた方法によって変換して、前記第4動作における前記第4表示オブジェクトの色及び輝度を定める請求項1〜11のいずれか1つに記載の映像表示装置。
  13. 前記データ出力部における前記第1出力動作及び前記第2出力動作の前記少なくともいずれかの動作の際に音を発生する音発生部をさらに備えた請求項1〜12のいずれか1つに記載の映像表示装置。
JP2012037502A 2012-02-23 2012-02-23 映像表示装置 Pending JP2013174642A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012037502A JP2013174642A (ja) 2012-02-23 2012-02-23 映像表示装置
US13/764,032 US20130222410A1 (en) 2012-02-23 2013-02-11 Image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012037502A JP2013174642A (ja) 2012-02-23 2012-02-23 映像表示装置

Publications (1)

Publication Number Publication Date
JP2013174642A true JP2013174642A (ja) 2013-09-05

Family

ID=49002364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012037502A Pending JP2013174642A (ja) 2012-02-23 2012-02-23 映像表示装置

Country Status (2)

Country Link
US (1) US20130222410A1 (ja)
JP (1) JP2013174642A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016122085A (ja) * 2014-12-25 2016-07-07 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2017027206A (ja) * 2015-07-17 2017-02-02 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
JP2017511943A (ja) * 2014-01-17 2017-04-27 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー プライベート追跡ヘッドアップディスプレイとしての第2画面の使用
WO2019155916A1 (ja) * 2018-02-09 2019-08-15 国立大学法人 福井大学 網膜走査型表示部を用いた画像表示装置およびその方法
WO2020235035A1 (ja) * 2019-05-22 2020-11-26 マクセル株式会社 ヘッドマウントディスプレイ
JP2021162607A (ja) * 2020-03-30 2021-10-11 セイコーエプソン株式会社 表示システム、情報処理装置及び表示システムの表示制御方法
WO2024013777A1 (ja) * 2022-07-11 2024-01-18 日本電気株式会社 買物支援システム、買物支援方法、および記録媒体

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9753534B2 (en) * 2012-11-09 2017-09-05 Sony Corporation Information processing apparatus, information processing method, and computer-readable recording medium
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
GB2522855A (en) * 2014-02-05 2015-08-12 Royal College Of Art Three dimensional image generation
WO2015159550A1 (ja) * 2014-04-18 2015-10-22 日本電気株式会社 情報処理システム、制御方法、及びプログラム記録媒体
KR20150131577A (ko) * 2014-05-15 2015-11-25 엘지전자 주식회사 글래스 타입 단말기
US9880799B1 (en) * 2014-08-26 2018-01-30 Sprint Communications Company L.P. Extendable display screens of electronic devices
DE102014114742A1 (de) * 2014-10-10 2016-04-14 Infineon Technologies Ag Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
EP3570665A2 (en) 2017-01-22 2019-11-27 Senecio Ltd. Automatic handling and sorting of insects for growth and release
CN107784693B (zh) * 2017-09-22 2021-06-04 西安点云生物科技有限公司 一种信息处理方法和装置
US10559133B2 (en) * 2018-02-07 2020-02-11 Dell Products L.P. Visual space management across information handling system and augmented reality
US11049322B2 (en) 2018-06-18 2021-06-29 Ptc Inc. Transferring graphic objects between non-augmented reality and augmented reality media domains
US11385856B2 (en) * 2020-10-23 2022-07-12 Streem, Llc Synchronizing positioning systems and content sharing between multiple devices
US11735138B2 (en) * 2021-04-22 2023-08-22 GM Global Technology Operations LLC Dual image plane HUD with automated illuminance setting for AR graphics displayed in far virtual image plane

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3022558B1 (ja) * 1998-05-21 2000-03-21 日本電信電話株式会社 三次元表示方法及び装置
JP2000134640A (ja) * 1998-10-27 2000-05-12 Sony Corp 受像機、その位置認識装置、その位置認識方法及び仮想画像立体合成装置
JP2001028765A (ja) * 1999-07-14 2001-01-30 Sony Corp 3次元映像の送受信システム及びその送受信方法
JP2010151997A (ja) * 2008-12-24 2010-07-08 Brother Ind Ltd プレゼンテーションシステム及びそのプログラム
JP2011028309A (ja) * 2009-07-21 2011-02-10 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3022558B1 (ja) * 1998-05-21 2000-03-21 日本電信電話株式会社 三次元表示方法及び装置
JP2000134640A (ja) * 1998-10-27 2000-05-12 Sony Corp 受像機、その位置認識装置、その位置認識方法及び仮想画像立体合成装置
JP2001028765A (ja) * 1999-07-14 2001-01-30 Sony Corp 3次元映像の送受信システム及びその送受信方法
JP2010151997A (ja) * 2008-12-24 2010-07-08 Brother Ind Ltd プレゼンテーションシステム及びそのプログラム
JP2011028309A (ja) * 2009-07-21 2011-02-10 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511943A (ja) * 2014-01-17 2017-04-27 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー プライベート追跡ヘッドアップディスプレイとしての第2画面の使用
JP2016122085A (ja) * 2014-12-25 2016-07-07 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2017027206A (ja) * 2015-07-17 2017-02-02 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
WO2019155916A1 (ja) * 2018-02-09 2019-08-15 国立大学法人 福井大学 網膜走査型表示部を用いた画像表示装置およびその方法
JPWO2019155916A1 (ja) * 2018-02-09 2020-12-10 国立大学法人福井大学 網膜走査型表示部を用いた画像表示装置およびその方法
WO2020235035A1 (ja) * 2019-05-22 2020-11-26 マクセル株式会社 ヘッドマウントディスプレイ
JPWO2020235035A1 (ja) * 2019-05-22 2020-11-26
JP7157244B2 (ja) 2019-05-22 2022-10-19 マクセル株式会社 ヘッドマウントディスプレイ
JP2021162607A (ja) * 2020-03-30 2021-10-11 セイコーエプソン株式会社 表示システム、情報処理装置及び表示システムの表示制御方法
JP7501044B2 (ja) 2020-03-30 2024-06-18 セイコーエプソン株式会社 表示システム、情報処理装置及び表示システムの表示制御方法
WO2024013777A1 (ja) * 2022-07-11 2024-01-18 日本電気株式会社 買物支援システム、買物支援方法、および記録媒体

Also Published As

Publication number Publication date
US20130222410A1 (en) 2013-08-29

Similar Documents

Publication Publication Date Title
JP2013174642A (ja) 映像表示装置
US11989842B2 (en) Head-mounted display with pass-through imaging
JP6511386B2 (ja) 情報処理装置および画像生成方法
US8199186B2 (en) Three-dimensional (3D) imaging based on motionparallax
US20220076496A1 (en) Tangibility visualization of virtual objects within a computer-generated reality environment
US8576276B2 (en) Head-mounted display device which provides surround video
JP6644371B2 (ja) 映像表示装置
US20150312561A1 (en) Virtual 3d monitor
US20130113701A1 (en) Image generation device
JP2007052304A (ja) 映像表示システム
CN112041788B (zh) 使用眼睛注视来选择文本输入字段
KR20130097014A (ko) 확장형 3차원 입체영상 디스플레이 시스템
WO2016201015A1 (en) Display for stereoscopic augmented reality
CN112116716A (zh) 基于检测到的对象来定位的虚拟内容
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
US11961194B2 (en) Non-uniform stereo rendering
JP6687751B2 (ja) 画像表示システム、画像表示装置、その制御方法、及びプログラム
CN111602391B (zh) 用于根据物理环境定制合成现实体验的方法和设备
WO2017191702A1 (ja) 画像処理装置
JP2005175538A (ja) 立体映像表示装置及び映像表示方法
JP7392723B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11417055B1 (en) Integrated display rendering
JP6814686B2 (ja) 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム
CN117981296A (zh) 使用多个相机的扩展视场
CN114690408A (zh) 近眼显示系统及显示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140901