JP2018041180A - 仮想空間表示システム - Google Patents

仮想空間表示システム Download PDF

Info

Publication number
JP2018041180A
JP2018041180A JP2016173308A JP2016173308A JP2018041180A JP 2018041180 A JP2018041180 A JP 2018041180A JP 2016173308 A JP2016173308 A JP 2016173308A JP 2016173308 A JP2016173308 A JP 2016173308A JP 2018041180 A JP2018041180 A JP 2018041180A
Authority
JP
Japan
Prior art keywords
virtual space
image
observer
angle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016173308A
Other languages
English (en)
Other versions
JP6564975B2 (ja
Inventor
繁壮 成田
Shigeto Narita
繁壮 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxmalla Systems Inc
Original Assignee
Maxmalla Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxmalla Systems Inc filed Critical Maxmalla Systems Inc
Priority to JP2016173308A priority Critical patent/JP6564975B2/ja
Publication of JP2018041180A publication Critical patent/JP2018041180A/ja
Application granted granted Critical
Publication of JP6564975B2 publication Critical patent/JP6564975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Abstract

【課題】 本発明は、ヘッドマウントディスプレイ又はスマートフォン等を使った仮想空間表示システムに関する。特に観察者が水に浮かんだ状態で動画を楽しむ仮想空間表示システムに関する。【解決手段】 水が観察者の眼球側に侵入しないように、観察者の顔を防水する防水部材と、カバー部材の内側に配置され、観察者の視覚に仮想空間の画像を提示する画像表示部と、水に観察者の伏臥位で浮いた状態で、観察者が下方を向いた第1角度を検出する第1角度検出部と、水に観察者の伏臥位で浮いた状態で、観察者が左右に動かす第2角度を検出する第2角度検出部と、を備える。【選択図】図1

Description

本発明は、ヘッドマウントディスプレイ(以下、HMDという。)又はスマートフォン等を使った仮想空間表示システムに関する。特に観察者が水に浮かんだ状態で動画を楽しむ仮想空間表示システムに関する。
ゲーム機に接続されたHMDを観察者の頭部に装着して、HMDに表示された画面を見ながら、コントローラなどを操作してゲームすることが行われている。ゲーム機に接続された通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にも観察者の視野範囲が広がっているため、ゲームへの没入感に欠けることがある。その点、観察者がHMDを装着すると、HMDに表示される映像以外を観察者は見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。
例えば、特許文献1に開示される発明は、HMDを使ったシューティングゲームである。観察者は地上で椅子に座った状態又は立った状態でゲームをしたりする。
特開2015−150064号公報
しかしながら、陸上に限られず、水(淡水又は海水)に浮かんだ状態でHMDを装着した観察者が風景等の仮想空間の画像を楽しみたいという要望がある。
そこで本発明は、水に浮かんだ状態で観察者が風景等の仮想空間画像を楽しめるシステムを提供する。
第1の観点の仮想空間表示システムは、水が観察者の眼球側に侵入しないように、観察者の顔を防水する防水部材と、カバー部材の内側に配置され、観察者の視覚に仮想空間の画像を提示する画像表示部と、水に観察者の伏臥位で浮いた状態で、観察者が下方を向いた第1角度を検出する第1角度検出部と、水に観察者の伏臥位で浮いた状態で、観察者が左右に動かす第2角度を検出する第2角度検出部と、を備える。
さらに、システムは、第1角度検出部及び第2角度検出部の検出結果から観察者の姿勢を算出する姿勢算出部と、表示対象物の画像を記憶する記憶部と、第1角度が第1所定範囲内であると姿勢算出部が算出した際に、記憶部に記憶された表示対象物の画像に基づいて、観察者の頭部から脚部方向に第1移動速度で移動する仮想空間の画像を生成し、第2角度検出部で観察者が左右に動かした第2角度を検出した際に、第2角度に応じた仮想空間の画像を生成する仮想空間画像生成部と、を備える。
別の観点において、仮想空間画像生成部は、第1所定範囲よりも大きい角度の第2所定範囲内の状態で、第1移動速度よりも遅い第2移動速度で移動する仮想空間の画像を生成する。
仮想空間画像生成部は、第1所定範囲内及び第2所定範囲内において、角度に応じた斜視の仮想空間の画像を生成する。
また、仮想空間画像生成部は、第2所定範囲内よりも大きい角度の第3所定範囲内において、斜視の静止画の仮想空間の画像を生成する。
さらに、第2の観点の仮想空間表示システムは、水が観察者の眼球側に侵入しないように、観察者の顔を防水する防水部材と、カバー部材の内側に配置され、観察者の視覚に仮想空間の画像を提示する画像表示部と、水に観察者の伏臥位で浮いた状態で、観察者が下方を向いた第1角度を検出する第1角度検出部と、水に観察者の伏臥位で浮いた状態で、観察者が左右に動かす第2角度を検出する第2角度検出部と、を備える。 さらにシステムは、第1角度検出部及び第2角度検出部の検出結果から観察者の姿勢を算出する姿勢算出部と、表示対象物の画像を記憶する記憶部と、第1角度が第2所定範囲内であると姿勢算出部が算出した際に、記憶部に記憶された表示対象物の画像に基づいて、第1角度に応じた観察者の頭部から脚部方向に移動速度が可変になるとともに第1角度に応じた斜視の仮想空間の画像を生成し、第2角度検出部で観察者が左右に動かした第2角度を検出した際に、第2角度に応じた仮想空間の画像を生成する仮想空間画像生成部と、を備える。
さらに、第3の観点の仮想空間表示システムは、淡水もしくは海水に接していることを検出する液体検出部と、観察者の前方の風景を撮影する撮影部と、を備える。そして、画像表示部は、液体検出部が淡水もしくは海水に接することを検出する前は、撮影部が撮影する風景を表示し、液体検出部が淡水もしくは海水に接したことを検出した後は、仮想空間の画像を表示する。
さらに、別の観点の仮想空間表示システムは、表示対象物の画像は方位を含んでおり、観察者の頭部から脚部方向の方位を検出する方位検出部を備える。そして仮想空間画像生成部は、方位に基づいて、仮想空間の画像の方位を変えた仮想空間の画像を生成する。
また、表示対象物の画像は空中撮影又は水中撮影された風景である。
本発明の仮想空間表示システムは、水に浮かんだ状態で観察者が仮想空間の画像を楽しむことができる。
仮想空間表示システム100の概略の構成を示すブロック図である。 (A)及び(B)は、仮想空間表示システム100を観察者が装着した図である。 仮想空間表示システム100に関する処理の概略のフローチャートである。 第1角度、第2角度及び方位に基づいて生成される仮想空間画像のフローチャートである。 (A)、(B)及び(C)は、観察者の第1角度の、第1所定範囲、第2所定範囲及び第3所定範囲を示す図である。 観察者が伏臥位で水に浮かんで横になった状態を水面の法線方向から見た図である。 第2実施形態である仮想空間表示システム110の概略の構成を示すブロック図である。 観察者が仮想空間表示システム110を装着した例である。
以下、添付図面を参照して、観察者が水に浮かんだ状態で動画を楽しむ好適な実施形態について説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。
[第1実施形態]
<仮想空間表示システム100の構成>
図1は、第1実施形態である仮想空間表示システム100の概略の構成を示すブロック図である。本システムは、HMD10及び制御部20を含んで構成される。制御部20の全体又は一部を本システムの処理を行う専用のハードウェアで構成することも可能であるが、第1実施形態では制御部20は基本的にコンピュータ、及び当該コンピュータ上で実行されるプログラムを用いて構築される。
HMD10は仮想空間を観察する観察者(ユーザ)の頭部に装着される。HMD10は、液晶又は有機ELなどの画像表示部12、第1角度を検出する第1角度検出部13、第1角度と直交する第2角度を検出する第2角度検出部14、及び方位検出部15を備える。またHMD10は、第1通信部16、撮影部であるカメラ17及び液体検出部18を備える。画像表示部12、第1角度検出部13、第2角度検出部14、方位検出部15、第1通信部16、及びカメラ17は、防水機能を有する防水部材11の内側に配置されている。すなわち、画像表示部12等が淡水及び海水に濡れることがなく、HMD10は淡水又は海水などの水中で使用できる。また、液体検出部18は、防水部材11の外側に配置され、淡水又は海水などの液体を検出する。
HMD10の画像表示部12は、後述する制御部20から入力される仮想空間の画像データに基づいて画像を表示しユーザの視覚に仮想空間画像を提示する。HMD10では画像表示部12が左眼及び右眼に視差を有した画像を表示することで、ユーザの立体視を実現することができる。
第1角度検出部13は、観察者が頭部を上下に振る第1角度を検出する。第2角度検出部14は、観察者が頭部を左右に振る第2角度を検出する。方位検出部15は観察者が伏臥位で水に浮いた状態であると、頭部から脚部への方向がどちらの東西南北の方位であるかを検出する。第1角度検出部13、第2角度検出部14及び方位検出部15は、例えば、GPS/IMU(Global Positioning System:全地球測位システム、InertialMeasurement Unit:慣性計測装置)やジャイロスコープ、加速度センサ、磁気センサなどをそれぞれ又は組み合わせて用いている。
第1データ通信部16は、制御部20の第2データ通信部25との間でデータを送受信する。具体的には、第1データ通信部16は仮想空間の画像データを制御部20から受信したり、第1角度検出部13、第2角度検出部14及び方位検出部15の検出結果やカメラ17が撮影した画像を制御部20へ送信したりする。第1データ通信部16及び第2データ通信部25間の通信は、無線通信もしくは有線通信のいずれかである。また、撮影部であるカメラ17は観察者の正面方向の風景画像を撮影する。
制御部20はコンピュータのCPU(Central Processing Unit)及び記憶部などからなり、姿勢算出部21、仮想空間画像生成部22、現実画像生成部23、操作制御部24、データ通信部25、記憶部26及びスピーカ27を有している。
姿勢算出部21は、HMD10の第1角度検出部13、第2角度検出部14及び方位検出部15の出力データに基づいて、観察者の現実空間での姿勢、特に視線方向及び体軸方向を算出する。液体検出部18が液体を検出した後、姿勢検出部21が姿勢を算出してもよい。本実施形態では、姿勢算出部21は、観察者が伏臥位で水に浮いた状態で、視線の第1角度(水面に対して法線方向の水底が0度)、視線の第2角度、及び体軸の方位を算出する。
仮想空間画像生成部22は仮想空間に表示対象物の画像を配置し、それを観察者の仮想空間における仮想視点位置から見た仮想空間画像を生成する。生成された画像は画像表示部12に表示される。第1実施形態では表示対象物は3次元の空中もしくは水中の風景画(以下、3D画像と略す。)であり、飛んでいる飛行機等から下方である地上を撮影した3D画像もしくは移動している船舶等から下方である海底を撮影した3D画像である。これら3D画像は、ある速度で移動しながら撮影された動画であり、記憶部26に格納されている。また、3D画像は東西南北の方位データを含んでいることが好ましい。
仮想空間画像生成部22は、3D画像に基づいて、観察者の目からその視線方向への仮想空間に仮想空間画像を形成する。仮想方向は、姿勢算出部21が算出した観察者の現実空間での姿勢で観察者が見る視線方向である。例えば、現実空間にて伏臥位で水に浮いた状態の観察者の顔が下を向いているならば、仮想空間画像生成部22は下を向いた第1移動速度で移動する仮想空間画像を生成する。また現実空間にて、下を向いた状態の観察者の顔が左を向いたり右を向いたりするならば、仮想空間画像生成部22は左側もしくは右側の第1移動速度で移動する仮想空間画像を生成する。また現実空間にて、伏臥位で水に浮いた状態の観察者の方位が北方向から東方向に変わったならば、第1移動速度で移動する仮想空間画像が所定の方向から90度右回りの方向に移動する仮想空間画像を生成する。
また、仮想空間画像生成部22は、姿勢算出部21が算出した観察者の第1角度方向に基づいて、第1移動速度よりも遅い第2移動速度の仮想空間画像を生成したり、静止した仮想空間画像を生成したりする。これらの仮想空間画像生成部22の生成処理についてはさらに後述する。
現実画像生成部23は、仮想空間画像とHMD10のカメラ17が撮影した現実空間の画像を生成する。例えば、観察者がHMD10を装着し、仮想空間表示システム100を動作させると、現実画像生成部23は、カメラ17が撮影した現実空間の画像を生成し、観察者の目の前の画像を画像表示部12に表示させる。これにより観察者は、HMD10を装着したまま、海やプールなどに歩いて向かうことができる。
操作制御部24は、観察者の操作に応じた動作を仮想空間表示システム100に実行させる。観察者は操作スイッチ等の操作により仮想空間表示システム100に対する動作指示を行うことができる。具体的には観察者がHMD10にある画像切替スイッチ19(図2を参照。)を操作することに基づいて、操作制御部24は、記憶部26に記憶されている複数の3D画像のうちから1つの3D画像を選択する。また、観察者が、ズームスイッチを操作することに基づいて、操作制御部24は、仮想空間画像をズームイン(大きく)したりもしくは仮想空間画像をズームアウト(小さく)したりする。さらに、観察者が、速度スイッチ等を操作することに基づいて、第1移動速度で移動する仮想空間画像の速度を可変したりする。また、観察者がHMD10にある画像切替スイッチ19を操作すること又は液体検出部18が液体を検出することに基づいて、操作制御部24は、現実画像生成部23が生成する現実空間の画像と仮想空間の画像とを切り替えることができる。
第2データ通信部25はHMD10の第1データ通信部16との間でデータの送受信を行う。また、第2データ通信部25は、インターネットなどの通信媒体を介して他の仮想空間表示システムやその他、コンピュータと通信を行うことができる。
記憶部26は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置等の記憶装置である。記憶部26は制御部20にて実行される各種のプログラムや、本システムの処理に必要な各種データなどを記憶し、制御部20との間でこれらの情報を入出力する。例えば、記憶部26には仮想空間に配置される表示対象物を表す3D画像が予め格納される。例えば、3D画像は、移動しながら撮影された少なくとも1つの空中撮影もしくは水中撮影した風景画(動画)である。また記憶部26は、風景画に関する音もしくは音楽を記憶してもよい。
スピーカ27は、音声や音楽などの音発生装置である。記憶部26に記憶された音楽等の音を発生する。また複数人が仮想空間表示システム100を楽しんでいる際には複数人間で会話をすることもできる。
図2(A)及び(B)は、第1実施形態の仮想空間表示システム100を観察者が装着した図である。図2(A)及び(B)はともに、観察者の脚部から頭部の方向がプラスZ軸方向であり、観察者の脚部から頭部の方向がマイナスZ軸方向であり、観察者の正面方向がプラスY軸方向であり、観察者の左側から右側の方向がプラスX軸方向である。また、説明の便宜上、第1実施形態では、観察者が起立した状態であっても、伏臥位で横になった状態であっても、観察者の頭部方向をプラスZ軸方向、観察者の顔の正面方向をプラスY軸方向、観察者の顔の左右方向をマイナスプラスX軸方向という。
HMD10は、観察者の顔の目の周辺を覆うとともに、防水部材11が観察者の顔とHMD10との間を密着させる。防水部材11は、ラバーなどの非浸透性の弾性部材を使用している。図2(A)及び(B)において、制御部20は、ヘッドフォンタイプの形状になっており、観察者の耳を覆う。図2(A)及び(B)では制御部20に防水部材が図示されていないが、防水機能を有している。
カメラ17のレンズは、HMD10の中央上部に配置されており、HMD10の左右には、液体検出部18及び画像切替スイッチ19が配置されている。またHMD10の内部には、第1角度検出部13、第2角度検出部14及び方位検出部15は配置される。ヘッドフォンタイプの制御部20にはスピーカ27が内蔵される。
図2(B)において、第1角度検出部13は観察者の頭部から脚部への上下方向、すなわちX軸を中心とした回転方向を検出する。第2角度検出部14は観察者の左右方向、すなわちZ軸を中心とした回転方向を検出する。
<仮想空間表示システム100の動作>
図3は、第1実施形態の仮想空間表示システム100に関する処理の概略のフローチャートである。
最初に、観察者は、HMD10及び制御部20を装着し、電源等のスイッチを入れる(ステップS71)。
すると、カメラ17が起動し、現実画像生成部23が現実画像を生成する。そして現実画像が第1データ通信部16及び第2データ通信部25を介して画像表示部12に送られる。観察者は、画像表示部12に表示された観察者の目の前の現実風景を認識することができる(ステップS72)。
次に、制御部20は、液体検出部18が液体を検出するか否かを判断する(ステップS73)。例えば、HMD10及び制御部20を装着した観察者が、海やプール等に向かい、伏臥位で海水もしくは淡水に浮かんで横になると、液体検出部18が液体を検出する(ステップS73)。液体検出部18が液体を検出するまで、画像表示部12には観察者の目の前の現実風景が表示される。液体検出部18が液体を検出すると、ステップS74に進み、仮想空間画像生成部22は、仮想空間画像を生成する。
または制御部20は、画像切替スイッチ19が操作されたか否かを判断する(ステップS73)。観察者が水に接することのない室内で起立した状態や伏臥位で横になった状態で仮想空間画像を見たい場合には、観察者は画像切替スイッチ19を操作する。画像切替スイッチ19が操作されるまで、画像表示部12には観察者の目の前の現実風景が表示される。画像切替スイッチ19が操作されると、ステップS74に進み、仮想空間画像生成部22は、仮想空間画像を生成する。
ステップS74では、仮想空間画像生成部22が、記憶部26に記憶されている3D画像に基づいて、仮想空間の画像を生成する。そして、仮想空間画像が第1データ通信部16及び第2データ通信部25を介して画像表示部12に送られる。観察者は、画像表示部12に表示された仮想空間画像を観察することができる。画像表示部に仮想空間の画像を表示させる。記憶部26に空中の3D画像又は水中の3D画像など複数の3D画像が記憶されている場合には、不図示のスイッチ等で、3D画像を切り替えることができ、その3D画像に基づいて仮想空間画像も切り替わる。
観察者が海やプールから出ると、制御部20は、液体検出部18が液体を検出していないと判断する(ステップS75)。または制御部20は、画像切替スイッチ19が操作されたか否かを判断する(ステップS75)。するとステップS72に戻り、カメラ17が起動し、観察者は画像表示部12で現実画像を観察できる。制御部20が、液体検出部18が液体を検出しているまで又は画像切替スイッチ19が操作されるまで、仮想空間画像生成部22は仮想空間画像を生成し続ける。
観察者は、仮想空間画像を見終わったりしたら、HMD10及び制御部20を外し、電源等のスイッチを切る。
<仮想空間画像生成部22の処理方法>
次に、図4を使って仮想空間画像生成部22の処理について詳述する。図4は、第1角度、第2角度及び方位に基づいて生成される仮想空間画像のフローチャートである。
まず、ステップS740において、 姿勢算出部21は、観察者の現実空間での姿勢、つまり観察者の視線方向の第1角度、第2角度及び方位を算出する。
ステップS741において、制御部20は、観察者の視線方向の第1角度が、第1所定範囲か第2所定範囲か第3所定範囲かを判断する。第1角度が第1所定範囲である場合にはステップS742に進み、第1角度が第2所定範囲である場合にはステップS743に進み、第1角度が第3所定範囲である場合にはステップS744に進む。
ここで、第1所定範囲、第2所定範囲及び第3所定範囲について、図5(A)、(B)及び(C)を参酌して説明する。
まず水面に対しての下方の法線方向が0度であり、頭部方向をプラス側、脚部方向をマイナス側とする。姿勢算出部21は、水面の法線方向に対する観察者の視線方向の第1角度を算出する。図5(A)に示される網掛け範囲が第1所定範囲であり、第1角度VLは0°である。第1所定範囲は、例えば第1角度がプラス40°からマイナス40°の範囲であり、観察者が伏臥位で海水もしくは淡水に浮かんで横になって、観察者の顔を上下に動かした範囲である。つまり伏臥位の観察者が、ほぼ海底方向又はプールの底面方向を向いている状態である。
図5(B)に示される網掛け範囲が第2所定範囲であり、第1角度VLは65°である。第2所定範囲は、視線方向の第1角度が例えばプラス40°からプラス80°の範囲である。観察者が首を上に上げた状態で、且つ脚部が海水もしくは淡水に少し沈んだ状態である。図示しないが、観察者がプールの底面に立った状態で腰を曲げた状態(下方の法線方向を基準として上半身が150°で視線方向がプラス60度)も該当する。
図5(C)に示される網掛け範囲が第3所定範囲であり、第1角度VLは90°である。第3所定範囲は、視線方向の第1角度が例えばプラス80°からプラス120°の範囲である。観察者がほぼ正面を向いた状態で、脚部が海底もしくはプールの底面についた状態である。つまり観察者が海又はプールに入るとき又は出るときの状態である。なお、図5(C)で描かれている観察者の姿勢は、厳密には伏臥位とは言わない。しかし、伏臥位で水に浮く状態になる過程で、観察者が採りうる姿勢であるため、本実施形態では、図5(C)で描かれている観察者の姿勢も、伏臥位と呼ぶ。
なお、図5(A)、(B)及び(C)に示した観察者の姿勢は一例であり、両腕を広げていたり、膝が45°曲がっていたりなどいろいろな姿勢があってもよい。肝心な点は、観察者の視線方向である。
再び図4に戻り、ステップS742において、仮想空間画像生成部22は、3D画像に基づいて、第1移動速度で移動する仮想空間画像を生成する。例えば第1角度がプラス20°であってもマイナス20°であっても、仮想空間画像生成部22は、第1移動速度で移動する仮想空間画像を生成する。さらに仮想空間画像生成部22は、第1角度に応じた仮想空間画像を生成する。例えば仮想空間画像生成部22は、第1角度がプラス20°であればその角度に応じた仮想空間画像を生成し、第1角度がマイナス20°であればその角度に応じた仮想空間画像を生成する。仮想空間画像が空中の風景である場合、浮かんでいる観察者は、自身が第1移動速度で空中を飛んでいるような感じを受ける。仮想空間画像が水中の風景である場合、浮かんでいる観察者は、自身が第1移動速度で海中を泳いでいるような感じを受ける。
ステップS743において、仮想空間画像生成部22は、3D画像に基づいて、第1移動速度より遅い第2移動速度で移動する仮想空間画像を生成する。また第2移動速度は、第一角度に応じて速度が可変になることが好ましい。例えば、プラス40°からプラス80°になるにつれて速度が漸次的に遅くなることが好ましい。仮想空間画像生成部22は、第1角度に応じた仮想空間画像を生成する。例えば仮想空間画像生成部22は、第1角度がプラス50°であればその角度に応じた仮想空間画像を生成し、第1角度がプラス70°であればその角度に応じた仮想空間画像を生成する。第1角度が第2所定範囲にある場合には、浮かんでいる観察者は、自身に空中に浮かんでいる又は水中に浮かんでいるような感じを受ける。なお仮想空間画像生成部22は、第1角度に応じて速度が可変にしなくても、第1移動速度より遅い一定速度の第2移動速度で仮想空間画像を生成してもよい。
ステップS744において、仮想空間画像生成部22は、3D画像に基づいて、静止画の仮想空間画像を生成する。また仮想空間画像生成部22は、第1角度に応じた仮想空間画像を生成する。例えば仮想空間画像生成部22は、第1角度がプラス80°であればその角度に応じた仮想空間画像を生成し、第1角度がプラス110°であればその角度に応じた仮想空間画像を生成する。第1角度が第3所定範囲にある場合には、観察者は、静止してどの方角に何があるかなどを検討している。
ステップS745において、仮想空間画像生成部22は、第2角度に応じた仮想空間画像を生成する。例えば仮想空間画像生成部22は、第2角度が右側に10°であればその角度に応じた仮想空間画像を生成し、第2角度が左側に20°であればその角度に応じた仮想空間画像を生成する。これは、ステップS742の第1移動速度の仮想空間画像、ステップS743の第2移動速度の仮想空間画像、及びステップS744の静止画の仮想空間画像のいずれでも同様である。
ステップS746において、仮想空間画像生成部22は、方位に応じた仮想空間画像を生成する。ここで、方位について、図6を参酌して説明する。
図6は観察者が伏臥位で海水もしくは淡水に浮かんで横になった状態を水面の法線方向から見た図である。姿勢算出部21は、この状態で例えば観察者の頭部が北方向、東方向、南方向又は西方向に向いているかを算出する。姿勢算出部21は、図5(B)のように水面に対して観察者の体軸が斜めであっても、その頭部が北方向、東方向、南方向又は西方向であるかを算出する。なお姿勢算出部21は、図5(C)のように、水面に対して観察者の体軸が垂直であると、顔の正面方向が北方向、東方向、南方向又は西方向であるかを算出する。
仮想空間画像生成部22は、3D画像に基づいて、方位に応じた仮想空間画像を生成するが、3D画像の方位と必ずしも一致している仮想空間画像を生成する必要は無い。仮想空間画像生成部22は、3D画像の第一方位を例えば北方向として仮想空間画像を生成し、姿勢算出部21が観察者の頭部が北方向から東方向へ45度方向(北東方向)に向いたと算出したら、仮想空間画像生成部22は、仮想空間画像を第一方位から45度右回りに回転させた仮想空間画像を生成すればよい。
なお、説明の便宜上、ステップS740からS746に分けて説明してきたが、実際には、姿勢算出部21が算出した第1角度、第2角度及び方位に基づいて、仮想空間画像生成部22は、一度に仮想空間画像を生成する。
ステップS747において、ステップS740からS746を経て生成された仮想空間画像が画像表示部12に表示される。ステップS747で表示される仮想空間画像は、図4のフローチャートのステップS746を割愛してもよい。
さらに、HMD10にズームスイッチ(不図示)がある場合には、仮想空間画像生成部22は、ズームインした仮想空間画像を生成したり、ズームアウトした仮想空間画像を生成したりしてもよい。HMD10に速度可変スイッチ(不図示)がある場合には、仮想空間画像生成部22は、第1移動速度より早くした仮想空間画像を生成したり、第1移動速度より遅くした仮想空間画像を生成したりしてもよい。
図4のフローチャート及び図5では、第1角度を3つの所定範囲に分けたが、2つの所定範囲だけにしてもよい。例えば、第1所定範囲は第1角度がプラス40°からマイナス40°の範囲であり、第2所定範囲がプラス40°からプラス120°の範囲と分けて、第3所定範囲をなくしてもよい。また第1所定範囲だけ又は第2所定範囲だけの1つの区分だけにしてもよい。なお、第2所定範囲だけである場合は、仮想空間画像生成部22は、マイナス40°からプラス100°の範囲まで第一角度に応じて速度が可変になり且つその第1角度に応じた仮想空間画像を生成する。そしてプラス100°以上では仮想空間画像生成部22は、仮想空間画像を作成しないようにしてもよい。
[第2実施形態]
<仮想空間表示システム110の構成>
図7は、第2実施形態である仮想空間表示システム110の概略の構成を示すブロック図である。図8は、観察者が仮想空間表示システム110を装着した例である。本システムは、5インチ以上の画像表示部を有するスマートフォン50で構成される。第2実施形態ではスマートフォン50及びそのアプリ(プログラム)を用いて構築される。
仮想空間表示システム110と第1実施形態仮想空間表示システム100との違いは、図7に示された仮想空間表示システム110は、方位検出部15及び液体検出部18を有さない点である。また、一体のスマートフォン50で処理されるため、第1実施形態の第1通信部16と第2通信部とが一体になっている。また、仮想空間表示システム110は、音を電気信号に変えるマイク68とマイク68からの音声を認識する音声認識部60とを有している。さらに仮想空間表示システム110と第1実施形態仮想空間表示システム100との違いは、図8に示されたように、仮想空間表示システム110は防水のヘルメットにスマートフォン50を取り付けて使用する点で異なる。
第2実施形態において、図8に示されたように、仮想空間表示システム110は、スマートフォン50をヘルメット70に装着具71を利用して装着される。ヘルメット70は、防水機能を有する防水部材51を備えており、防水部材51は、不図示のファスナーなどを絞めることにより、観察者の首に密着して水の侵入を防ぐ。このヘルメット70は、頭部から首までを覆うタイプであるが、顔の目、鼻、耳及び口を覆い、後頭部や首を覆わないマスクであってもよい。マスクの場合には、マスクの周囲に防水部材51が配置される。観察者が水に浮いて使用し、防水のために頭部を覆うヘルメット70であるため、強度はさほど必要ない。装着具71は、正面(Y軸方向)から見て長方形のスマートフォン50の四隅又は長手方向の2辺を固定する。または図示していないが、装着具71は、スマートフォン50の画像表示部52の反対面を吸盤で吸着するタイプでもよい。
図7に戻り、仮想空間表示システム110のスマートフォン50は、液晶又は有機ELなどの画像表示部52、第1角度を検出する第1角度検出部53、及び第1角度と直交する第2角度を検出する第2角度検出部54を備える。またスマートフォン50は、撮影部であるカメラ57、音声認識部60及び音声を集音するマイク68を備える。防水機能51により、スマートフォン50は淡水又は海水などの水中で使用できる。
スマートフォン50の画面表示部52は、入力される仮想空間の画像データに基づいて画像を表示しユーザの視覚に仮想空間を提示する。画像表示部52は左眼及び右眼に視差を有した画像を表示することで、ユーザの立体視を実現することができる。
第1角度検出部53及び第2角度検出部54は、第1実施形態の第1角度検出部13及び第2角度検出部14と同じである。また、撮影部であるカメラ57も第1実施形態の火炎ら17と同じである。音声認識部60は、マイク68を使って観察者が発した音声、特に操作指示に関する音声、を認識する。例えば、観察者が、“カメラ画像を表示”、“仮想空間画像を表示”、“仮想空間画像の変更”、“ズームイン”、“ズームアップ”、“速度変更”などを発すると、それらの操作指示の音声を認識する。
スマートフォン50は、姿勢算出部61、仮想空間画像生成部62、現実画像生成部63、データ通信部65、記憶部66及びスピーカ67を有している。これらの機能も、第1実施形態の姿勢算出部21、仮想空間画像生成部22、現実画像生成部23、第2データ通信部25、記憶部26及びスピーカ27とほぼ同じである。なお、操作制御部64は、第1実施形態の操作制御部24とは異なり、スイッチなどの操作指示ではなく、音声認識部60が認識した操作指示に基づいて、操作を制御することが可能である。また、仮想空間画像生成部62は、方位検出部15からの指示がないため、基本的に一方位に移動する仮想空間画像を生成する。
データ通信部65は、インターネットなどの通信媒体を介して他の仮想空間表示システムやその他、コンピュータと通信を行うことができる。
<仮想空間表示システム110の動作>
第2実施形態の仮想空間表示システム110の動作は、図3で説明した第1実施形態の仮想空間表示システム100に関する処理のフローチャートとほぼ同じである。しかしながら、第2実施形態では、液体検出部18及び画面切替スイッチ19を有さないため、図3のステップ73及びステップ75は、音声認識部60の認識によって、現実画像から仮想空間画像に切り替わったり仮想空間画像から現実画像に切り替わったりする。
<仮想空間画像生成部62の処理方法>
姿勢算出部61は、第1角度検出部53及び第2角度検出部54に基づいて、観察者の姿勢を算出する。第2実施形態の仮想空間表示システム110は、方位検出部を有していないため、姿勢算出部61は、観察者の第1角度及び第2角度のみを算出する。このため、第2実施形態では、図4で説明したステップS746を実施しない。別言すれば、第2実施形態では、図4で示した処理方法のステップS740からS745及びステップS747の処理を行う
なお、第2実施形態の主たる構成に対する変更は、第1実施形態にも適用され得る。
10 … ヘッドマウントディスプレイ
11、51 … 防水部材
12、52 … 画像表示部
13、53 … 第1角度検出部
14、54 … 第2角度検出部
15 … 方位検出部
16 … 第1通信部
17、57 … カメラ
18 … 液体検出部
19 … 画像切替スイッチ
20 … 制御部
21 … 姿勢算出部
22、62 … 仮想空間画像生成部
23、63 … 現実画像生成部
24、64 … 操作制御部
25 … 第2データ通信部
26、66 … 記憶部
27、67 … スピーカ
50 … スマートフォン
60 … 音声認識部
61 … 姿勢算出部
65 … データ通信部
68 … マイク
70 … ヘルメット
71 … 装着具
100、110 … 仮想空間表示システム

Claims (8)

  1. 水が観察者の眼球側に侵入しないように、前記観察者の顔を防水する防水部材と、
    前記カバー部材の内側に配置され、前記観察者の視覚に仮想空間の画像を提示する画像表示部と、
    水に前記観察者の伏臥位で浮いた状態で、前記観察者が下方を向いた第1角度を検出する第1角度検出部と、
    水に前記観察者の伏臥位で浮いた状態で、前記観察者が左右に動かす第2角度を検出する第2角度検出部と、
    前記第1角度検出部及び前記第2角度検出部の検出結果から前記観察者の姿勢を算出する姿勢算出部と、
    表示対象物の画像を記憶する記憶部と、
    前記第1角度が第1所定範囲内であると前記姿勢算出部が算出した際に、前記記憶部に記憶された表示対象物の画像に基づいて、前記観察者の頭部から脚部方向に第1移動速度で移動する前記仮想空間の画像を生成し、前記第2角度検出部で前記観察者が左右に動かした第2角度を検出した際に、前記第2角度に応じた前記仮想空間の画像を生成する仮想空間画像生成部と、
    を備える仮想空間表示システム。
  2. 前記仮想空間画像生成部は、前記第1所定範囲よりも大きい角度の第2所定範囲内の状態で、前記第1移動速度よりも遅い第2移動速度で移動する前記仮想空間の画像を生成する請求項1に記載の仮想空間表示システム。
  3. 前記仮想空間画像生成部は、前記第1所定範囲内及び前記第2所定範囲内において、角度に応じた斜視の前記仮想空間の画像を生成する請求項2に記載の仮想空間表示システム。
  4. 水が観察者の眼球側に侵入しないように、前記観察者の顔を防水する防水部材と、
    前記カバー部材の内側に配置され、前記観察者の視覚に仮想空間の画像を提示する画像表示部と、
    水に前記観察者の伏臥位で浮いた状態で、前記観察者が下方を向いた第1角度を検出する第1角度検出部と、
    水に前記観察者の伏臥位で浮いた状態で、前記観察者が左右に動かす第2角度を検出する第2角度検出部と、
    前記第1角度検出部及び前記第2角度検出部の検出結果から前記観察者の姿勢を算出する姿勢算出部と、
    表示対象物の画像を記憶する記憶部と、
    前記第1角度が第2所定範囲内であると前記姿勢算出部が算出した際に、前記記憶部に記憶された表示対象物の画像に基づいて、第1角度に応じた前記観察者の頭部から脚部方向に移動速度が可変になるとともに第1角度に応じた斜視の仮想空間の画像を生成し、前記第2角度検出部で前記観察者が左右に動かした第2角度を検出した際に、前記第2角度に応じた前記仮想空間の画像を生成する仮想空間画像生成部と、
    を備える仮想空間表示システム。
  5. 前記仮想空間画像生成部は、前記第2所定範囲内よりも大きい角度の第3所定範囲内において、斜視の静止画の前記仮想空間の画像を生成する請求項1から請求項4のいずれか一項に記載の仮想空間表示システム。
  6. さらに、前記淡水もしくは海水に接していることを検出する液体検出部と、
    前記観察者の前方の風景を撮影する撮影部と、を備え、
    前記画像表示部は、
    前記液体検出部が前記淡水もしくは海水に接することを検出する前は、前記撮影部が撮影する風景を表示し、
    前記液体検出部が前記淡水もしくは海水に接したことを検出した後は、前記仮想空間の画像を表示する請求項1から請求項5のいずれか一項に記載の仮想空間表示システム。
  7. 前記表示対象物の画像は方位を含んでおり、
    さらに、前記観察者の頭部から脚部方向の方位を検出する方位検出部を備え、
    前記仮想空間画像生成部は、前記方位に基づいて、前記仮想空間の画像の方位を変えた前記仮想空間の画像を生成する請求項1から請求項6のいずれか一項に記載の仮想空間表示システム。
  8. 前記表示対象物の画像は移動しながら空中撮影又は水中撮影された風景である請求項1から請求項7のいずれか一項に記載の仮想空間表示システム。
JP2016173308A 2016-09-06 2016-09-06 仮想空間表示システム Active JP6564975B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016173308A JP6564975B2 (ja) 2016-09-06 2016-09-06 仮想空間表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173308A JP6564975B2 (ja) 2016-09-06 2016-09-06 仮想空間表示システム

Publications (2)

Publication Number Publication Date
JP2018041180A true JP2018041180A (ja) 2018-03-15
JP6564975B2 JP6564975B2 (ja) 2019-08-28

Family

ID=61626202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173308A Active JP6564975B2 (ja) 2016-09-06 2016-09-06 仮想空間表示システム

Country Status (1)

Country Link
JP (1) JP6564975B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172266A1 (ja) 2018-03-07 2019-09-12 東ソー株式会社 2価のホスファゼニウム塩およびそれを含むポリアルキレンオキシド組成物、並びに該ポリアルキレンオキシド組成物を含むポリウレタン形成性組成物
JP2020005012A (ja) * 2018-06-25 2020-01-09 株式会社XrossVate 映像表示装置
JP2020064469A (ja) * 2018-10-17 2020-04-23 株式会社Rockin′Pool 仮想空間表示システム
WO2020115824A1 (ja) * 2018-12-04 2020-06-11 株式会社Rockin’ Pool 仮想空間表示システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172266A1 (ja) 2018-03-07 2019-09-12 東ソー株式会社 2価のホスファゼニウム塩およびそれを含むポリアルキレンオキシド組成物、並びに該ポリアルキレンオキシド組成物を含むポリウレタン形成性組成物
JP2020005012A (ja) * 2018-06-25 2020-01-09 株式会社XrossVate 映像表示装置
JP7138335B2 (ja) 2018-06-25 2022-09-16 株式会社XrossVate 映像表示装置
JP2020064469A (ja) * 2018-10-17 2020-04-23 株式会社Rockin′Pool 仮想空間表示システム
WO2020115824A1 (ja) * 2018-12-04 2020-06-11 株式会社Rockin’ Pool 仮想空間表示システム

Also Published As

Publication number Publication date
JP6564975B2 (ja) 2019-08-28

Similar Documents

Publication Publication Date Title
JP6511386B2 (ja) 情報処理装置および画像生成方法
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5122659B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム
US20090046140A1 (en) Mobile Virtual Reality Projector
EP3479203A1 (en) Dynamic entering and leaving of virtual-reality environments navigated by different hmd users
JP6564975B2 (ja) 仮想空間表示システム
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
JP2016062486A (ja) 画像生成装置および画像生成方法
US11277603B2 (en) Head-mountable display system
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
JP7317024B2 (ja) 画像生成装置および画像生成方法
JP2017204674A (ja) 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP7177054B2 (ja) ユーザ頭部回転ガイド付きヘッドマウントディスプレイ
JP2017134716A (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
WO2019044084A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
CN108744511B (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
US11099392B2 (en) Stabilized and tracked enhanced reality images
US20240036327A1 (en) Head-mounted display and image displaying method
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2012069126A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
GB2558283A (en) Image processing
JPWO2019155934A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190522

R150 Certificate of patent or registration of utility model

Ref document number: 6564975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250