JP6346131B2 - 情報処理装置および画像生成方法 - Google Patents

情報処理装置および画像生成方法 Download PDF

Info

Publication number
JP6346131B2
JP6346131B2 JP2015176033A JP2015176033A JP6346131B2 JP 6346131 B2 JP6346131 B2 JP 6346131B2 JP 2015176033 A JP2015176033 A JP 2015176033A JP 2015176033 A JP2015176033 A JP 2015176033A JP 6346131 B2 JP6346131 B2 JP 6346131B2
Authority
JP
Japan
Prior art keywords
image
line
angle
sight direction
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015176033A
Other languages
English (en)
Other versions
JP2017055173A (ja
Inventor
篠原 隆之
隆之 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2015176033A priority Critical patent/JP6346131B2/ja
Priority to US15/755,653 priority patent/US10614589B2/en
Priority to EP16844259.8A priority patent/EP3349183A4/en
Priority to PCT/JP2016/075550 priority patent/WO2017043398A1/ja
Publication of JP2017055173A publication Critical patent/JP2017055173A/ja
Application granted granted Critical
Publication of JP6346131B2 publication Critical patent/JP6346131B2/ja
Priority to US16/802,930 priority patent/US11030771B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は、ヘッドマウントディスプレイに表示する画像を生成する技術に関する。
ヘッドマウントディスプレイ(HMD)はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。最近ではユーザがHMDに表示された画面を見ながらゲームをプレイできるアプリケーションも登場している。テレビなどの従来型の据え置き型のディスプレイでは画面外側にもユーザの視野範囲が広がるため、ユーザが画面に集中できなかったり、ゲームへの没入感を欠くことがある。その点、HMDを装着すると、HMDに表示される映像しかユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して表示画面を更新するようにすると、さらに映像世界への没入感が向上する。
近年、上下左右全方位の360度パノラマ写真を撮影する全天球カメラ(全方位カメラ)が普及している。また遠隔操縦可能な無人飛行物体の開発も進められており、このような飛行物体に複数カメラを搭載することで、空中から上下左右全方位のパノラマ写真を撮影できる。このように撮影された全方位パノラマ画像をHMDに表示させ、ヘッドトラッキング機能によりユーザの頭部の姿勢と連動して表示画面を更新することで、現実の場所にいるかのような感覚をユーザに与えられることが期待される。
特開2015−95045号公報
映像の臨場感を高めるための最近の動向として、HMDの視野角を広くする開発が活発化している。視野角が80度を超えるHMDが既に市販されており、広視野角のHMDは、実世界と遜色ない映像世界をユーザに提供する。
本発明者は、広視野角のHMDにおける画像表示を様々試した結果、画像の見せ方によっては、ユーザが酔うような感覚に陥る可能性があることを認識した。本明細書では、このような感覚を「画像酔い(motion sickness, simulator sickness)」と呼ぶことにする。同じ画像をテレビ画面で見ている場合には画像酔いが生じなくても、HMDの画面では画像酔いが生じることがあった。また表示画像にメニューなどの情報要素を含ませる場合に、情報要素の提示の仕方によっては、ユーザに違和感を生じさせることも認識した。本発明者は、様々な試行により得られた知見に基づいて、HMDに適した表示制御を想到するに至った。
本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDに適した表示制御を実現する技術を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部と、検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、視線方向を定める視線方向決定部と、定めた視線方向にもとづく画像を生成する画像生成部と、生成した画像をヘッドマウントディスプレイに提供する画像提供部と、入力装置から視線方向の切替指示を取得する指示取得部とを備える。指示取得部が切替指示を取得すると、視線方向決定部は、視線方向を所定角度変更する。
本発明の別の態様は、画像生成方法である。この方法は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出するステップと、検出したヘッドマウントディスプレイの姿勢に応じて、視線方向を定めるステップと、定めた視線方向にもとづく画像を生成するステップと、入力装置から視線方向の切替指示を取得するステップと、を有する。視線方向を定めるステップは、切替指示が取得されると、視線方向を所定角度変更する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、HMDに適した表示制御を実現する技術を提供できる。
実施例における情報処理システムの構成例を示す図である。 情報処理装置におけるレンダリング処理の説明図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 情報処理装置の機能ブロックを示す図である。 画像記憶部に記憶されるパノラマ画像データを説明するための図である。 表示画像を示す図である。 表示画像を示す図である。 表示画像を示す図である。 入力装置の上面、奥側側面を示す図である。 表示画像を示す図である。 切替前後の表示画像を示す図である。 表示画像に情報要素を重畳表示した例を示す図である。 情報要素がパノラマ画像とともに動く様子を示す図である。 パノラマ画像に重畳表示される情報要素を示す図である。 パノラマ画像に重畳表示される情報要素を示す図である。
図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は、情報処理装置10と、ユーザが頭部に装着するヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置6と、HMD100を装着したユーザを撮影する撮像装置7と、画像を表示する出力装置4とを備える。
実施例において情報処理装置10は、処理装置12、出力制御装置14を備える。ここで処理装置12は、ユーザにより操作された入力装置6の操作情報を受けて、ゲームなど様々なアプリケーションを実行する端末装置である。処理装置12と入力装置6とはケーブルで接続されても、既知の無線通信技術により接続されてもよい。出力制御装置14はHMD100に対して画像データを出力する処理ユニットである。出力制御装置14とHMD100とはケーブルで接続されても、既知の無線通信技術により接続されてもよい。
撮像装置7はHMD100を装着したユーザを撮影して、処理装置12に提供する。撮像装置7はステレオカメラであってよい。後述するがHMD100には、ユーザ頭部のトラッキングを実現するためのマーカ(トラッキング用LED)が搭載されており、処理装置12は、撮影したマーカの位置にもとづいて、HMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサ、ジャイロセンサ)も搭載され、処理装置12は、姿勢センサで検出されたセンサ情報をHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実現する。
情報処理システム1において、ユーザはHMD100に表示された画像を見るため、出力装置4は必ずしも必要ではないが、出力制御装置14または処理装置12は、HMD100に表示させる画像と同じ画像を、出力装置4から出力させてもよい。これによりユーザがHMD100で見ている画像を、別のユーザが出力装置4で見ることができる。なお後述するがHMD100に表示させる画像には、光学レンズの歪み補正が施されているため、歪み補正を行っていない画像が出力装置4から出力される必要がある。
情報処理システム1において、処理装置12、出力装置4、入力装置6および撮像装置7は、従来型のゲームシステムを構築してよい。この場合、処理装置12は、ゲームなどのアプリケーションを実行するゲーム装置であり、入力装置6はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置12にユーザの操作情報を供給する機器であってよい。このゲームシステムの構成要素に、出力制御装置14およびHMD100を追加することで、仮想現実(VR)アプリケーションを実行する情報処理システム1が構成される。
なお出力制御装置14による機能は、VRアプリケーションの一部の機能として処理装置12に組み込まれてもよい。つまり情報処理装置10は、1台の処理装置12から構成されても、また処理装置12および出力制御装置14から構成されてもよい。以下においては、VRアプリケーションの実現に必要な処理装置12、出力制御装置14の機能をまとめて、情報処理装置10の機能として説明する。
情報処理装置10はHMD100に表示させる画像データを生成する。実施例において情報処理装置10は、全天球カメラで撮影された上下左右全方位の360度パノラマ画像を用意し、ユーザの頭部に装着されたHMD100の姿勢から定まる視線方向にもとづいて生成した画像をHMD100に表示させる。なお表示コンテンツは、静止画または動画のいずれであってもよい。また実撮影された画像に限るものでもなく、ゲームアプリケーションによりリアルタイムで描画されたものであってもよい。
HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに、光学レンズを通して画像を表示する表示装置である。HMD100は、表示パネルの左半分には左目用の画像を、右半分には右目用の画像をそれぞれ独立して表示する。これらの画像は、左右の視点から見た視差画像を形成し、表示パネルを2分割してなる左右の領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザは光学レンズを通して表示パネルを見るために、情報処理装置10は、予めレンズによる光学歪みを補正した画像データをHMD100に供給する。情報処理装置10において、この光学歪みの補正処理は、処理装置12、出力制御装置14のいずれが行ってもよい。
図2は、情報処理装置10におけるレンダリング処理の説明図である。実施例のVRアプリケーションでは、ユーザが球体の中心に位置し、視線の方向を変更することで、見える画像が変更される仮想環境を実現する。画像素材であるコンテンツ画像は、ユーザが位置する中心点9を中心とする仮想球体の内周面に貼り付けられている。ここでコンテンツ画像は、全天球カメラで撮影された上下左右全方位の360度パノラマ画像であり、コンテンツ画像の天地と仮想球体の天地とが一致するように仮想球体の内周面に貼り付けられる。これによりユーザの実世界の天地と、HMD100に提供される映像世界の天地とが揃えられ、リアルな映像世界を再現するVRアプリケーションが実現される。
情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の回転角度および傾きを検出する。ここでHMD100の回転角度とは、水平面の基準方向に対する回転角度であり、基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。またHMD100の傾きとは、水平面に対する傾斜角度である。ヘッドトラッキング処理として既知の技術が利用されてよく、情報処理装置10は、HMD100の姿勢センサが検出したセンサ情報のみから、HMD100の回転角度および傾きを検出でき、さらに撮像装置7で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の回転角度および傾きを検出できる。
情報処理装置10は、検出したHMD100の回転角度および傾きにしたがって、仮想球体における仮想カメラ8の姿勢を定める。仮想カメラ8は、仮想球体の中心点9から仮想球体の内周面を撮影するように配置されており、情報処理装置10は、検出した回転角度および傾きと、仮想球体における仮想カメラ8の光軸の回転角度および傾きを一致させる。情報処理装置10は、仮想カメラ8の撮影画像5を取得し、つまりレンダリング処理を行って、光学レンズ用の光学歪み補正を施し、HMD100に画像データを供給する。なお図2においては1つの仮想カメラ8が示されているが、実際には左目用と右目用の2つの仮想カメラ8が配置されて、それぞれの画像データが生成される。
図3は、HMD100の外観形状の例を示す。この例においてHMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する位置に表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどで実現する。筐体108内部にはさらに、HMD100装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置7により撮影されて、情報処理装置10が画像解析可能なものであればよい。発光マーカ110の数や配置は特に限定されないが、撮影されて画像解析されることで、HMD100の姿勢(回転角度および傾き)が検出されるような数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置7に対して背を向けたときにも撮像できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信技術により接続されてもよい。HMD100は、姿勢センサが検出したセンサ情報を情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、表示パネルに表示する。
なお図3に示すHMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置を示すが、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。
図4は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサ情報などの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。マイク126は、ユーザの声を電気信号に変換する。発光マーカ110は、LEDであって、HMD100の装着バンド106や筐体108に複数取り付けられる。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から入力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。また制御部120は、姿勢センサ124からのセンサ情報や、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
図5は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入力インタフェースとして、センサ情報取得部20、撮影画像取得部22および指示取得部24を備える。センサ情報取得部20は、HMD100の姿勢センサ124から所定の周期でセンサ情報を取得する。撮影画像取得部22は、撮像装置7から所定の周期でHMD100を撮像した撮影画像を取得する。たとえば撮像装置7は(1/60)秒ごとに撮影し、撮影画像取得部22は、(1/60)秒ごとに撮影画像を取得する。指示取得部24は、入力装置6から、ユーザが入力した指示を取得する。
情報処理装置10は、さらに動き検出部30、視線方向決定部32、画像生成部34、画像提供部36を備える。動き検出部30は、ユーザの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部32は、動き検出部30により検出されたHMD100の姿勢に応じて視線方向を定める。画像生成部34は、検出されたHMD100の姿勢に応じて画像を生成し、具体的には、視線方向決定部32が定めた視線方向にもとづく画像を生成する。画像提供部36は、生成した画像をHMD100に提供する。
図5において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像記憶部40は、予め撮影された360度パノラマ画像データを記憶する。画像記憶部40は複数のコンテンツ画像を記憶してよく、コンテンツ画像は静止画像であっても、動画像であってもよい。実施例の画像記憶部40は、上下左右全方位のパノラマ画像データを記憶しており、情報処理装置10は、HMD100を装着したユーザに、全方位のパノラマ画像を提供する。したがってユーザが首を左または右に回し(ユーザが体ごと左回りまたは右回りに回転してもよい)水平方向の視線を左または右に回転させることで、左方向または右方向のパノラマ画像がHMD100の表示パネル130に表示され、またユーザが首を上または下に傾けて、垂直方向に視線を傾けることで、上方向または下方向のパノラマ画像がHMD100の表示パネル130に表示されるようになる。
情報要素記憶部42は、パノラマ画像に含める情報要素を記憶する。この情報要素はたとえば、コンテンツ画像の輝度などを変更させるためのメニュー項目であったり、または画像素材であるコンテンツ画像を選択するためのメニュー項目であってもよい。ユーザが入力装置6に情報要素の表示指示を入力すると、画像生成部34が、生成する画像に情報要素を含め、パノラマ画像に重畳された情報要素がHMD100の表示パネル130に表示される。なお情報要素はユーザに対する通知情報であってもよく、この場合、情報要素はユーザによる入力装置6の操作によらずに、パノラマ画像に重畳されてよい。
図6は、画像記憶部40に記憶されるパノラマ画像データを説明するための図である。なお説明の便宜上、図6は、上下左右全方位のパノラマ画像データの一部を示し、水平面から下向きの画像の一部、および左右方向の画像の一部を省略している。図2に関して説明したように、HMD100の表示パネル130には、仮想球体の内周面に貼り付けられたパノラマ画像をレンダリングした画像が表示され、ユーザがHMD100の回転角度および傾きを動かして視線方向を変化させることで、表示されるパノラマ画像が視線方向に応じて動かされる。
HMD100において通信制御部128は、所定の周期で、姿勢センサ124により取得したセンサ情報を情報処理装置10に送信する。また撮像装置7は、HMD100を所定の周期で撮像し、撮影画像を情報処理装置10に送信する。図5を参照して、センサ情報取得部20は、姿勢センサ124のセンサ情報を取得し、動き検出部30に供給する。また撮影画像取得部22は、撮影画像を取得し、動き検出部30に供給する。
動き検出部30は、HMD100の姿勢を検出することで、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。このヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル130に表示する視野を連動させるために行われる。実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。
このヘッドトラッキング処理は既知の手法を利用し、動き検出部30は、姿勢センサ124のセンサ情報のみからHMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とを検出してよいが、トラッキング用の発光マーカ110の撮影結果をさらに利用して、検出精度を高めることが好ましい。動き検出部30は、所定の周期で回転角度および傾き角度を検出する。たとえばHMD100に供給する画像が60fpsであれば、動き検出部30の検出処理も(1/60)秒の周期で実行されることが好ましい。
視線方向決定部32は、動き検出部30により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザの視線方向であり、ひいては仮想球体の中心点9に配置される仮想カメラ8の視線方向(光軸方向)である(図2参照)。ここで視線方向決定部32は、動き検出部30により検出された回転角度および傾き角度を、そのまま仮想カメラ8の視線方向(光軸方向)として決定してもよく、また何らかの補正処理を行って仮想カメラ8の視線方向を決定してもよい。たとえばセンサ情報にノイズがのるなどして、安定したセンサ情報が動き検出部30に提供されない場合、動き検出部30は、ユーザ頭部が動いてないにもかかわらず、振動するような動きを検出する可能性がある。そのような場合、視線方向決定部32は、動き検出部30により検出された動きを平滑補正して、視線方向を定めてもよい。
また人間の視野は上下が非対称で、視線の上側より下側が若干広くなっている。そのため視線方向決定部32は、動き検出部30により検出された傾き角度を若干下側に傾けて、仮想カメラ8の視線方向を定めてもよい。
画像生成部34は、動き検出部30が検出したHMD100の姿勢に応じて画像を生成し、具体的には視線方向決定部32が定めた仮想カメラ8の視線方向にもとづく画像を生成する。画像生成部34は、視線方向により特定される左目用の視野と右目用の視野とを画定し、左目用と右目用の画像をそれぞれレンダリングして生成する。このとき画像生成部34は、表示パネルからの画像光が光学レンズを通過することによる歪みを補正したパノラマ画像を生成する。
実施例のHMD100は、水平方向に約100度、垂直方向に約100度の視野をユーザに提供する。図2を参照して、仮想球体において撮影画像5は、水平方向に約100度、垂直方向に約100度の画角で撮影され、HMD100の表示パネル130に表示される。なお上記したように人間の視野は、視線の上側より下側が若干広くなっていることから、HMD100において光学レンズおよび表示パネル130は、目の正対方向に対して5度傾けられて、上側45度、下側55度の垂直視野を、光学レンズおよび表示パネル130の配置により実現してもよい。
図7は、画像生成部34により生成される表示画像200aを示す。なお以下の図面においては、パノラマ画像全体の中での表示画像の位置関係の理解を容易にするために、表示画像をパノラマ画像において切り出す画像として表現している。
画像生成部34は、視線方向決定部32が定めた視線方向202aにもとづく画像を生成する。なお実際には画像生成部34は、左目用の表示画像と右目用の表示画像をそれぞれレンダリングして生成し、これらの表示画像は互いに視差を含む異なる画像であるが、以下では両目用の画像をそれぞれ生成することについて特に説明しない。画像提供部36は、画像生成部34が生成した表示画像200aをHMD100に提供する。HMD100において制御部120は表示画像200aを表示パネル130に表示させ、これによりユーザは、表示パネル130に表示される表示画像200aを見ることができる。
図8は、画像生成部34により生成される表示画像200bを示す。視線方向決定部32はHMD100の姿勢に応じて視線方向を定め、画像生成部34は、定めた視線方向にもとづいて画像を生成する。この例では、ユーザが水平方向に首を左回りに回して、視線が視線方向202aから視線方向202bに連続して変化した様子を示す。ここではユーザが頭部を左回りに約60度回転し、この回転動作により、画像生成部34は、表示画像200aから左回り方向に連続してパノラマ画像を動かす画像を(1/60)秒の周期で生成する。画像提供部36は、生成された画像を(1/60)秒の周期でHMD100に提供する。
図9は、画像生成部34により生成される表示画像200cを示す。視線方向決定部32はHMD100の姿勢に応じて視線方向を定め、画像生成部34は、定めた視線方向にもとづいて画像を生成する。この例では、表示画像200aが表示パネル130に表示された状態からユーザが上向きに首を傾けて、視線が視線方向202aから視線方向202cに連続して変化した様子を示す。ここではユーザが頭部を上向きに約30度傾け、この傾斜動作により、画像生成部34は、表示画像200aから上向き方向に連続してパノラマ画像を動かす画像を(1/60)秒の周期で生成する。画像提供部36は、生成された画像を(1/60)秒の周期でHMD100に提供する。
このようにユーザは頭部を動かすことで視線方向を変化させ、情報処理装置10が、見たい方向のパノラマ画像をHMD100に提供して、表示パネル130に表示させる。頭部を動かすことで視線方向を変化させることは現実世界の動作と同じであり、ユーザの感覚に合致する。このときHMD100がユーザに広視野角を提供することで、パノラマ画像に対する没入感をさらに高められる。
一方で、たとえば真後ろのパノラマ画像を見るためには、ユーザは当然のことながら真後ろを向かなければならない。真後ろを向くためには、首を回転するだけでは足りないため、体の向きを変える必要がある。そのためユーザがソファなどの非回転式の椅子に座っていると、ユーザは立ち上がって体の向きを変えなければならない。またHMD100が非透過型のディスプレイ装置である場合、ユーザは両目を筐体108で覆われており、周囲の環境を見ることができないため、足を動かして体の向きを変えることには若干の抵抗を感じることがある。
そこで実施例では、ユーザが入力装置6から視線方向の切替指示を入力できるようにして、ユーザが頭部を動かさなくても、入力装置6の操作により、視線方向を変更できるようにする。なお実施例では入力装置6を、HMD100とは異なる機器として示すが、入力装置6はHMD100に設けられてもよく、すなわちHMD100の装着バンド106や筐体108などにボタンなどの操作入力部として形成されてもよい。
図10(a)は、入力装置6の上面を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向ボタン71、アナログスティック77a、77bと、操作ボタン76が設けられている。方向ボタン71は、上ボタン71a、左ボタン71b、下ボタン71cおよび右ボタン71dを含む。右アナログスティック77aおよび左アナログスティック77bは、傾動されて方向および傾動量を入力するために用いられる。なお右アナログスティック77aおよび左アナログスティック77bは、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。筐体上面上において、方向ボタン71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
右アナログスティック77aおよび左アナログスティック77bの間にはホームボタン80が設けられる。ホームボタン80は入力装置6の電源をオンし、同時に情報処理装置10と無線接続する通信機能をアクティブにするために使用される。SHAREボタン81は、タッチパッド79の左側に設けられる。SHAREボタン81は、情報処理装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。OPTIONSボタン82は、タッチパッド79の右側に設けられる。OPTIONSボタン82は、情報処理装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
図10(b)は、入力装置6の奥側側面を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から折れ曲がって延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。上側のR1ボタン83a、L1ボタン83bはプッシュ式ボタンとして構成され、下側のR2ボタン84a、L2ボタン84bは回動支持されたトリガー式のボタンとして構成されてよい。
実施例では、入力装置6の操作部材のうち、左アナログスティック77bを、視線方向の切替指示の入力に使用する。左アナログスティック77bを左に傾けると、視線方向を左に動かし、また右に傾けると視線方向を右に動かす。このように左アナログスティック77bは、ユーザが直観的に視線方向を変更するのに適している。なお、他の操作部材、たとえば右アナログスティック77a、方向ボタン71などが、視線方向の切替指示の入力に使用されてもよい。
本発明者は、左アナログスティック77bの操作に対する視線方向の変更処理を様々試した。まず一つの変更処理の手法として、左アナログスティック77bの傾動方向に応じて視線方向を連続的に動かし、パノラマ画像が流れるように動く画像を生成した。これはテレビ画面に表示されるゲームの視線変更手法としては一般的であり、ユーザの感覚にマッチすると考えられる。なお、そのときの画像の移動スピードについても様々試してみた。
その結果、左アナログスティック77bの操作によりパノラマ画像を連続的に動かすと、それを見るユーザが酔うような感じを受けることが分かった。これは画像の移動スピードによらず、ゆっくり動かしても速く動かしても、個人により程度の差こそあれ、画像酔いを生じさせる結果が得られた。
テレビ画面において、表示画像を連続的に一方向に動かすような演出はよく行われており、このときユーザが画像酔いすることは通常ない。この点を検討したところ、本発明者は、視野角の違いが原因の一つであることを突き止めた。
テレビ画面に関して言えば、ユーザは、ある程度離れた位置から見るため、テレビ画面に対するユーザの水平方向の視野角は大きくても数十度である。これに対し、広視野角のHMDにおいてユーザの視野角は90度近く、ないしは90度以上である(以下、HMD100の水平方向の視野角を約100度とする)。つまりHMD100では、約100度の範囲(さらに視野の全てで)画像が連続して動くことで、ユーザに画像酔いを生じさせやすくなり、これはHMD100の特有の問題であることが分かった。そこで本発明者は、左アナログスティック77bの操作によりパノラマ画像を連続的に動かすのではなく、不連続に動かすことを試し、その結果、画像酔いの発生を防止できることの知見を得た。そこで実施例では、情報処理装置10が、左アナログスティック77bの操作を視線方向の切替指示として取得すると、パノラマ画像を不連続に、つまり1回(1ステップ)の切替で所定角度動かすように表示制御する。
ユーザが入力装置6の左アナログスティック77bを倒すと、指示取得部24は、入力装置6から、倒された方向への視線方向の切替指示を取得する。たとえば左アナログスティック77bが一度倒されて、すぐに戻されると、指示取得部24は、倒された方向への一回の切替指示を取得する。また左アナログスティック77bが倒され続けている場合には、指示取得部24は、倒された方向への切替指示を連続して取得する。
指示取得部24が、左アナログスティック77bの傾動操作を一回の切替指示として取得するか、または連続した切替指示として取得するかは、傾動された時間(倒してから元の位置に戻るまでの時間)が所定時間を超えるか否かによって定まる。具体的に指示取得部24は、傾動時間が所定時間未満の場合には、一回の切替指示として取得し、傾動時間が所定時間に達すると、所定時間に達した時点で再度の切替指示として取得する。その後、さらに傾動操作が継続した場合には、所定時間より短い時間が経過する毎に、切替指示が取得されてよい。
指示取得部24が視線方向の切替指示を取得すると、視線方向決定部32は、視線方向を所定角度変更する。たとえば左アナログスティック77bが左方向に倒されると、指示取得部24は、視線方向を左に回転させる切替指示を取得し、視線方向決定部32は、視線方向を左回りに所定角度変更する。以下では、HMD100の表示パネル130に、図7に示す表示画像200aが表示されている状態で、ユーザが、視線方向を左回転させる切替指示を入力装置6に入力した例について説明する。
図11は、画像生成部34により生成される表示画像200dを示す。指示取得部24が視線方向を左回転させる切替指示を取得すると、視線方向決定部32は、視線方向を左回りに所定角度変更する。ここで所定角度は、10度より大きく、HMD100の水平方向の視野角(100度)よりも小さい角度に設定される。
1ステップで変更する角度が10度以下に設定されている場合、たとえば真後ろ(180度回転)の画像を見るためには、少なくとも18ステップが必要となり、ステップ数が多くかかって、ユーザに若干もどかしさを感じさせることになる。一方で、1ステップでの変更角度がHMD100の視野角以上となると、全く新しい画像(切替前と重複箇所のない画像)が突然表示パネル130に表示されることになり、切替前の画像との連続性が担保できない。そこで1ステップでの変更角度は、10度より大きく、HMD100の視野角よりも小さい角度に設定されることが好ましい。
さらに好ましくは、1ステップでの変更角度は、HMD100の視野角の半分以下に設定される。これにより切替前の画像の少なくとも半分以上が、切替後の画像に含まれることになり、ユーザは、切替前と切替後とで、画像の連続性を認識することができる。なお画像の連続性を、より認識させるためには、1ステップの変更角度は小さい方が好ましい。本発明者が、1ステップあたりの様々な変更角度を試したところ、1ステップあたりの変更角度を15度以上、30度以下に設定した場合に、連続的に切り替えたときに所望角度まで到達する時間および画像連続性の観点から最も好ましいとの認識に至った。図11に示す例は、1ステップでの変更角度を22.5度とした様子を示している。
また一般に人間の中心視野は40〜45度、周辺視野は200度程度であると言われている。この中心視野に注目して、1ステップあたりの変更角度は、中心視野よりも小さく設定することで、中心視野内に、切替前後で同じ画像が残るようにしてもよい。その点からも、1ステップあたりの変更角度を30度以下に設定することには意味がある。なお1ステップあたりの変更角度は、360度を整数Nで割った値に設定されて、ユーザが整数回の切替指示を入力装置6から入力することで、元の表示位置に戻れるようにすることが好ましい。
図12は、表示パネル130に表示される切替前後の表示画像を示す。図12(a)は表示画像200aを示し、図12(b)は表示画像200dを示す。表示画像200aを、1ステップの変更角度を22.5度として左回転したのが表示画像200dである。視野角100度のうち、変更角度を22.5度とすることで、切替前後で22.5%の画像が変更されるが、77.5%は切替前後の画像に存在している。そのためユーザは、画像の連続性を容易に認識できる。
指示取得部24が切替指示を連続して取得すると、視線方向決定部32は、視線方向を所定角度ずつ変更する。この変更周期は、1秒などの固定値であってもよく、また左アナログスティック77bの傾動量に応じて動的に定められてもよい。つまり傾動量が大きいほど、変更周期が短く設定されてもよい。
なお実施例において、入力装置6を利用した切替指示は、左右方向のみに有効とし、上下方向は無効とする。これは人間が椅子に座った姿勢や直立姿勢では水平方向を向いており、上方向または下方向を常時向くような状態は通常なく、そのような現実の感覚をVRアプリケーションでも遵守するためである。なお上下方向における切替指示を有効とすることも可能であり、コンテンツ画像に応じて、上下方向の切替指示を有効とするか、無効とするかが設定可能となっていてもよい。天地が気にならないようなコンテンツ画像、たとえば天空の星空の撮影画像などは、上下方向の切替指示を有効としてもよい。
また図12において、1ステップの変更角度を22.5度とした場合の切替前後の表示画像200a、200dを示したが、ユーザによっては変更角度を22.5度よりも大きく、または小さくすることを希望することもある。そこで1ステップあたりの変更角度を選択するための選択肢が表示パネル130に表示されて、ユーザが、入力装置6を操作することで、表示パネル130に表示された選択肢を選択できるようにしてもよい。実施例において、ユーザには22.5度以外に、15度と30度の選択肢が提供される。
以下では、HMD100の表示パネル130に、図12(a)に示す表示画像200aが表示されている状態で、1ステップあたりの変更角度の選択肢を表示させる手順を説明する。
ユーザは入力装置6の所定の入力部を操作することで、メニュー項目を表示パネル130に表示させることができる。たとえば△ボタン75(図10(a)参照)がメニュー表示操作に割り当てられてよい。ユーザが△ボタン75を押下すると、入力装置6は、△ボタン75が押下されたことを示す操作情報を情報処理装置10に送信する。情報処理装置10において指示取得部24は、△ボタン75の押下情報を、メニュー項目の表示指示として取得する。
指示取得部24がメニュー項目の表示指示を取得すると、画像生成部34は、生成するパノラマ画像にメニュー項目を含める処理を行う。なおメニュー項目は、ユーザに提示する情報要素の一例であり、情報要素は、他の項目や通知情報であってよい。画像生成部34が、パノラマ画像にメニューなどの情報要素を含めることで、ユーザはHMD100の表示パネル130で、視線方向にもとづくパノラマ画像を見ながら、提示される情報要素を見ることができる。
情報要素記憶部42は、パノラマ画像に含める情報要素を記憶する。画像生成部34は情報要素記憶部42から、表示指示に応じた情報要素を読み出し、情報要素を並べたウィンドウをパノラマ画像に重畳する。画像提供部36は、メニュー項目を含んだパノラマ画像をHMD100に提供する。
図13(a)は、表示画像200aにメニューウィンドウ204を重畳表示した例を示す。図13(a)では、メニューウィンドウ204により、その背後のパノラマ画像が隠されているが、実際にはメニューウィンドウ204が透過表示されて、ユーザが、メニューウィンドウ204の背後のパノラマ画像も見られるようにすることが好ましい。
メニューウィンドウ204においては、1つの項目を取り囲む選択枠が表示され、ユーザは入力装置6の上ボタン71aまたは下ボタン71cを押下することで、選択枠を移動させられる。所望の項目に選択枠を配置し、決定ボタン(たとえば○ボタン72)を押下することで、選択した項目に対応する下層の情報要素が表示パネル130に表示されるようになる。
情報処理装置10において、指示取得部24が、方向ボタン71の操作情報を、項目の選択指示として取得し、また○ボタン72の操作情報を、項目の決定指示として取得する。画像生成部34は、項目の選択指示にしたがって選択枠を動かし、また項目の決定指示にしたがって、対応する情報要素を情報要素記憶部42から読み出して、パノラマ画像に含ませる。
図13(b)は、表示画像200aに選択ウィンドウ206を重畳表示した例を示す。図13(a)のメニューウィンドウ204において、「1ステップの変更角度を変える」が選択されると、1ステップあたりの変更角度の選択肢を提示する選択ウィンドウ206が表示される。メニューウィンドウ204と同様、選択ウィンドウ206も透過表示されて、背後のパノラマ画像をユーザが見られるようにすることが好ましい。選択ウィンドウ206において、ユーザがいずれかの角度を選択して決定すると、1ステップあたりの変更角度が変更されるようになる。
このようにして情報要素がパノラマ画像に重畳され、表示パネル130に表示される。情報処理システム1において、表示パネル130のパノラマ画像は、HMD100の姿勢の変化(つまり視線方向の動き)や、左アナログスティック77bの操作に応じて変更されるが、本発明者は、パノラマ画像とともに表示する情報要素を、どのように表示制御するのがHMD100に適しているか検討した。
まず本発明者は、表示パネル130の画面中央に情報要素を常に表示する手法を試した。この場合、視線方向を変更して、情報要素の背景のパノラマ画像が変化しても、情報要素の画面内の表示位置は動かず、常に画面中央の固定された位置に表示される。この表示手法は、パノラマ画像の中で、あたかも情報要素が移動しているような印象を与え、違和感を生じさせることが分かった。
そこで本発明者は、パノラマ画像に情報要素を含めると、その配置位置を変更しない手法を試した。つまりパノラマ画像における情報要素の配置位置を固定とし、そのためユーザが視線方向を変更すると、情報要素がパノラマ画像と一体となって動かされる。情報要素とパノラマ画像との相対的な位置関係を固定することで、情報要素がパノラマ画像の一部を構成するような印象を与え、ユーザに違和感を生じさせないことが分かった。
しかしながら、この場合は情報要素がパノラマ画像と一緒に動くことで、視線方向の動きが大きいと、情報要素が表示画面から外れてしまい、ユーザが情報要素を見失うという問題がある。特にメニュー表示中は入力装置6がメニュー操作に割り当てられているため、メニュー操作を継続する場合であっても、またメニュー操作を終了する場合であっても、ユーザは視線方向を変化させて、見失ったメニューウィンドウを探し出す必要がある。
この問題を解決するために、本発明者は、原則として情報要素とパノラマ画像の相対的な位置関係を固定し、情報要素をパノラマ画像と一緒に動かしつつ、一方で情報要素が画面から外れそうになると、外れる前に、情報要素とパノラマ画像の相対的な位置関係を変更する手法を考え出した。
この手法では、情報要素を表示した時点を基準とし、その時点からHMD100の姿勢が変化した場合に、画像生成部34は、姿勢の変化量が所定の第1角度よりも小さければ、画像とともに動くように情報要素を表示させ、姿勢の変化量が所定の第1角度に達すると、情報要素を、画像中で所定の第2角度分動かした位置に表示させるように、画像を生成する。HMD100の姿勢の変化量は、視線方向の動きの変化量に相当する。
具体的には、視線方向決定部32が、情報要素を表示した時点からの視線方向の動きの変化を監視し、視線方向の動きが所定の第1角度よりも小さければ、画像生成部34が、パノラマ画像とともに動くように情報要素を表示させ、一方で視線方向の動きが所定の第1角度に達すると、画像生成部34が、情報要素を、パノラマ画像中で所定の第2角度分動かした位置に表示させる。以下では、視線方向決定部32が、視線方向の動きの変化として、水平方向の視線の回転角度を監視することで、画像生成部34が、情報要素の表示制御を行う例について説明する。
たとえば情報要素の表示を開始した時点から、ユーザが水平方向に首を左回りに回して、視線が左方向に変化した場合を考える。このときパノラマ画像は右方向に流れるように表示され、そのため表示されている情報要素も表示パネル130内で右方向に流れていく。情報要素の移動角度、つまりは水平方向の視線の回転角度が所定の第1角度に達すると、画像生成部34は、情報要素を、パノラマ画像中で所定の第2角度分だけ左回転した位置に動かし、表示させる。この第1角度は、情報要素の全てがユーザ視野から完全に外れない角度に設定され、したがって情報要素は、表示パネル130に、少なくとも一部が常に表示されている状態を維持される。以下、この第1角度を「位置変更基準角度」とよび、第2角度を「戻し角度」とよぶこともある。
以下、図13(a)が、メニューウィンドウ204を最初に表示した状態を示すものとし、この初期表示状態から、ユーザが視線方向を左回転させる例について説明する。
図14は、情報要素であるメニューウィンドウ204がパノラマ画像とともに動く様子を示す。ユーザが水平方向に首を左回りに回すと、動き検出部30が、HMD100の姿勢を検出し、視線方向決定部32が、検出されたHMD100の姿勢に応じて、視線方向を左回転させる。図14(a)は、初期表示状態から、22.5度左回転した表示画像200dを示す。なお既述したように、22.5度の回転は左アナログスティック77bの操作によっても実現され、ユーザが首を動かすことなく、左アナログスティック77bを左に倒すことで、表示画像200dが表示パネル130に表示されてもよい。
メニューウィンドウ204とパノラマ画像との相対的な位置関係は固定されているため、メニューウィンドウ204はパノラマ画像とともに動き、したがって表示パネル130においてユーザは、メニューウィンドウ204が右方向に移動する様子を見る。
図14(b)は、初期表示状態から、45度左回転した表示画像200eを示す。なお表示画像200eを表示するためには、ユーザが首を45度左回りに回してもよいが、45度の左回転は、左アナログスティック77bを左に2回倒す操作によっても実現され、またユーザが首を22.5度左回りに回し且つ左アナログスティック77bを左に1回倒す操作によっても実現される。図14(a)と比較すると、メニューウィンドウ204がさらに右方向に移動している様子が示される。
図15(a)は、初期表示状態から、位置変更基準角度の直前まで左回転した表示画像200fを示す。ここで位置変更基準角度は、情報要素の全てが画面から完全に外れることのない角度に設定される。
そのため位置変更基準角度は、HMD100の視野角よりも小さい角度に設定される必要がある。位置変更基準角度が視野角以上であると、情報要素の全てが完全に画面から外れる状況が発生するためである。水平方向の位置変更基準角度について考えると、HMD100の水平方向の視野角は100度であるため、位置変更基準角度は、100度より小さい角度に設定されなければならない。
なお本発明者は、位置変更基準角度を様々設定して見え方を試したところ、位置変更基準角度がHMD100の視野角に対して非常に小さく設定されると、結局、表示要素が視線に追従するような印象を与えることが分かった。様々試した結果、位置変更基準角度を、HMD100の視野角の半分程度の角度に設定することで、表示要素と背景のパノラマ画像との一体性を認識させることができ、また表示要素を視認可能とするユーザインタフェースを実現できることを知見により得た。実施例において位置変更基準角度(第1角度)は、HMD100の視野角の半分(50度)程度の60度に設定している。
図15(b)は、初期表示状態から、情報要素をパノラマ画像中で戻し角度である第2角度(60度)分だけ左回転させた状態とした表示画像200gを示す。このように、初期表示状態から、視線の所定方向の変化が第1角度(60度)に達すると、画像生成部34は、情報要素とパノラマ画像との相対位置を、所定方向に第2角度分だけ変更した位置に再配置する。ここで第2角度は、第1角度と同じ角度に設定されている。再配置後は、視線方向決定部32が、再配置した時点の視線方向を基準として、視線方向の動きの変化を監視する。
図15(a)では、メニューウィンドウ204の一部のみが表示されていたが、図15(b)では、再度全体が表示されるようになり、これによりユーザは、メニューウィンドウ204のメニュー操作をしやすくなる。また図15(a)に示すように、メニューウィンドウ204の全てが表示外とならないように表示制御を行うことで、ユーザはメニューウィンドウ204を見失うことなく、パノラマ画像を楽しみつつ、好きなタイミングでメニューウィンドウ204を操作可能となる。
以上は、位置変更基準角度である第1角度と、戻し角度である第2角度とが等しい例について説明した。第1角度と第2角度とを等しくした場合、初期表示状態から第1角度だけ視線方向が変化すると、図15(b)に示すように、情報要素が、初期表示状態で表示されていた中央位置に再配置される。そのため、ユーザが水平方向に首をさらに左回りに回すと、メニューウィンドウ204は、中央から右方向に移動していく。そのためメニューウィンドウ204は、中央に対して右寄りに表示されることとなり、若干見づらくなる。
そこで、以下では、位置変更基準角度である第1角度よりも、戻し角度である第2角度を大きく設定する例について説明する。第2角度を60度とし、第1角度を45度とする。
ここで図14(b)が、初期表示状態から第1角度(45度)の直前まで左回転された表示画像200eを示しているものとする。視線方向がさらに左に動き、視線の所定方向の変化が第1角度(45度)に達すると、画像生成部34は、情報要素とパノラマ画像との相対位置を、所定方向に第2角度(60度)分だけ変更した位置に再配置する。ここで第2角度は第1角度より大きく設定されているため、再配置される情報要素は、初期表示状態の中央位置を超えて戻され、したがって中央位置よりも左寄りに表示される。再配置後は、視線方向決定部32が、再配置した時点の視線方向を基準として、視線方向の動きの変化を監視する。
図16は、初期表示状態から、情報要素をパノラマ画像中で第2角度(60度)左回転させた状態とした表示画像200hを示す。このように初期表示状態から、視線の所定方向の変化が第1角度(45度)に達すると、画像生成部34は、情報要素を、パノラマ画像中で所定方向に第2角度(60度)分だけ戻す方向に変更した位置に再配置する。
第2角度を第1角度よりも大きく設定することで、ユーザが引き続き視線方向を左に動かすと、メニューウィンドウ204が徐々に中央に向かって右方向に移動する。そのため表示要素と背景のパノラマ画像との一体性をユーザに認識させつつ、情報要素の視認性を高めることが可能となる。なお第1角度を第2角度の半分よりも大きく設定することで、表示要素を再配置する際に、パノラマ画像中での移動量が大きくなることを防止できる。
以上は、水平方向の視線変化が位置変更基準角度(第1角度)に達したときに、情報要素の水平方向の配置を戻し角度(第2角度)分だけ変更することを説明した。垂直方向についても同様であり、垂直方向の視線変化が、垂直方向に関する位置変更基準角度に達したときに、情報要素の垂直方向の配置を垂直方向に関する戻し角度分だけ変更する表示制御を実行してもよい。なお、垂直方向に関する位置変更基準角度は、水平方向に関する位置変更基準角度よりも小さく設定されてよく、たとえば30度に設定されてよい。
次に、情報要素を、どの位置に初期表示するか検討する。一つの手法は、図13(a)に示したように、情報要素を表示するタイミングで表示されている画像の中央付近に表示する。この手法は、ユーザの感覚的にも理解しやすく、有効である。
別の手法として、仮想球体において、情報要素の表示位置の候補が予め設定されていてもよい。仮想球体の座標系において、水平面における水平基準方向を0度としたとき、水平方向の60度、120度、180度、240度、300度を候補回転角度とし、また垂直方向の0度、±30度、±60度を候補傾斜角度とする。ここで情報要素を表示する際に、視線方向が最も近い候補回転角度、候補傾斜角度を抽出し、抽出した回転角度および傾斜角度を中心として情報要素を表示するようにしてもよい。このように初期位置の候補を予め定めておくことで、画像生成部34は、候補位置の中から初期位置を選択すればよく、表示制御を単純化できる。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
図14(a)において、初期表示状態から22.5度左回転した表示画像200dおよびメニューウィンドウ204を示し、22.5度の左回転が、ユーザの首を回したことで実現されてもよく、また左アナログスティック77bの操作によって実現されてもよいことを説明した。変形例では、左アナログスティック77bの操作がされた場合には、情報要素とパノラマ画像との相対的な位置関係が解除されて、左アナログスティック77bの操作による切替後の画像において情報要素は、図13(a)に示すように中央に表示されるようにしてもよい。これは左アナログスティック77bの操作により画像を切り替える場合には、表示画像がジャンプし、画像の連続性が途切れているためであり、そのような場合には、情報要素とパノラマ画像の相対的な位置関係の固定を解除して、情報要素を表示制御することも可能である。
また実施例では、位置変更基準角度および戻し角度を利用して、情報要素の表示制御を行った。変形例では、情報要素の種類に応じて、情報要素の表示制御を行うようにしてもよい。たとえばユーザに対してシステムから重要な警告をするような場合には、画像生成部34は、常に表示画像の中央に、情報要素である警告を配置するようにしてもよい。
なおVRアプリケーションの一機能として、画像生成部34は、ミラー機能を実現してもよい。ここでミラー機能は、視線方向の反対向きの画像を表示画像に含める機能である。ここでは、視線方向の正反対の画像を含めるのではなく、視線方向の回転角度のみを反転し、つまり視線方向のうち、回転角度を180回転し、傾きは変更しない視線方向の画像を表示画像に含めるようにする。このミラー機能により、ユーザは、同じ高さにある背中側の画像を見ることができるようになる。
1・・・情報処理システム、6・・・入力装置、8・・・仮想カメラ、10・・・情報処理装置、12・・・処理装置、14・・・出力制御装置、20・・・センサ情報取得部、22・・・撮影画像取得部、24・・・指示取得部、30・・・動き検出部、32・・・視線方向決定部、34・・・画像生成部、36・・・画像提供部、40・・・画像記憶部、42・・・情報要素記憶部、100・・・HMD、102・・・出力機構部、104・・・装着機構部、106・・・装着バンド、108・・・筐体、110・・・発光マーカ、120・・・制御部、122・・・記憶部、124・・・姿勢センサ、126・・・マイク、128・・・通信制御部、130・・・表示パネル、132・・・音声出力部。

Claims (8)

  1. ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部と、
    前記検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、視線方向を定める視線方向決定部と、
    定めた視線方向にもとづく画像を生成する画像生成部と、
    生成した画像をヘッドマウントディスプレイに提供する画像提供部と、
    入力装置から視線方向の切替指示を取得する指示取得部と、を備え、
    前記指示取得部が切替指示を取得すると、前記視線方向決定部は、視線方向を所定角度変更する、ことを特徴とする情報処理装置。
  2. 前記指示取得部が切替指示を連続して取得すると、前記視線方向決定部は、視線方向を所定角度ずつ変更する、ことを特徴とする請求項1に記載の情報処理装置。
  3. 所定角度は、10度より大きく、ヘッドマウントディスプレイの視野角よりも小さい角度に設定されることを特徴とする請求項1または2に記載の情報処理装置。
  4. 所定角度は、ヘッドマウントディスプレイの視野角の半分以下に設定されることを特徴とする請求項3に記載の情報処理装置。
  5. 所定角度は、30度以下に設定されることを特徴とする請求項3または4に記載の情報処理装置。
  6. 所定角度は、360度を整数Nで割った値に設定されることを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出するステップと、
    検出したヘッドマウントディスプレイの姿勢に応じて、視線方向を定めるステップと、
    定めた視線方向にもとづく画像を生成するステップと、
    入力装置から視線方向の切替指示を取得するステップと、を有する画像生成方法であって、
    視線方向を定めるステップは、切替指示が取得されると、視線方向を所定角度変更する、
    ことを特徴とする画像生成方法。
  8. コンピュータに、
    ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する機能と、
    検出したヘッドマウントディスプレイの姿勢に応じて、視線方向を定める機能と、
    定めた視線方向にもとづく画像を生成する機能と、
    入力装置から視線方向の切替指示を取得する機能と、を実現させるためのプログラムであって、
    視線方向を定める機能は、切替指示が取得されると、視線方向を所定角度変更する機能を含む、ことを特徴とするプログラム。
JP2015176033A 2015-09-07 2015-09-07 情報処理装置および画像生成方法 Active JP6346131B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015176033A JP6346131B2 (ja) 2015-09-07 2015-09-07 情報処理装置および画像生成方法
US15/755,653 US10614589B2 (en) 2015-09-07 2016-08-31 Information processing apparatus and image generating method
EP16844259.8A EP3349183A4 (en) 2015-09-07 2016-08-31 INFORMATION PROCESSING DEVICE AND PICTURE PRODUCTION METHOD
PCT/JP2016/075550 WO2017043398A1 (ja) 2015-09-07 2016-08-31 情報処理装置および画像生成方法
US16/802,930 US11030771B2 (en) 2015-09-07 2020-02-27 Information processing apparatus and image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015176033A JP6346131B2 (ja) 2015-09-07 2015-09-07 情報処理装置および画像生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018099566A Division JP6556295B2 (ja) 2018-05-24 2018-05-24 情報処理装置および画像生成方法

Publications (2)

Publication Number Publication Date
JP2017055173A JP2017055173A (ja) 2017-03-16
JP6346131B2 true JP6346131B2 (ja) 2018-06-20

Family

ID=58239643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015176033A Active JP6346131B2 (ja) 2015-09-07 2015-09-07 情報処理装置および画像生成方法

Country Status (4)

Country Link
US (2) US10614589B2 (ja)
EP (1) EP3349183A4 (ja)
JP (1) JP6346131B2 (ja)
WO (1) WO2017043398A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036720A (ja) * 2016-08-29 2018-03-08 株式会社タカラトミー 仮想空間観察システム、方法及びプログラム
JP6929674B2 (ja) * 2017-03-22 2021-09-01 株式会社東京エネシス 環境画像表示システム及び環境画像表示方法
CN107168517A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种虚拟现实设备的控制方法及装置
US10388077B2 (en) 2017-04-25 2019-08-20 Microsoft Technology Licensing, Llc Three-dimensional environment authoring and generation
US10542300B2 (en) * 2017-05-31 2020-01-21 Verizon Patent And Licensing Inc. Methods and systems for customizing virtual reality data
KR102479052B1 (ko) * 2017-08-29 2022-12-20 삼성전자주식회사 복수의 컨트롤러를 이용한 전자 장치의 디스플레이 제어 방법 및 그 장치
US10715746B2 (en) * 2017-09-06 2020-07-14 Realwear, Inc. Enhanced telestrator for wearable devices
US20190324283A1 (en) * 2018-04-19 2019-10-24 Htc Corporation Display device and display method
JP7094815B2 (ja) * 2018-07-18 2022-07-04 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体
US10719944B2 (en) * 2018-09-13 2020-07-21 Seiko Epson Corporation Dynamic object tracking
US11244483B2 (en) 2018-10-31 2022-02-08 Facebook Technologies, Llc Systems and methods for modifying a safety boundary for virtual reality systems
JP7278773B2 (ja) * 2018-12-28 2023-05-22 キヤノン株式会社 電子機器及びその制御方法
WO2020166491A1 (ja) 2019-02-15 2020-08-20 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
JP7300287B2 (ja) * 2019-03-20 2023-06-29 任天堂株式会社 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
CN113450258B (zh) * 2021-08-31 2021-11-05 贝壳技术有限公司 视角转换方法和装置、存储介质、电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298364B2 (ja) 1995-06-12 2002-07-02 ミノルタ株式会社 映像表示装置
JP2009259130A (ja) 2008-04-18 2009-11-05 Sony Computer Entertainment Inc 画像表示装置、画像表示装置の制御方法及びプログラム
JP2010256534A (ja) * 2009-04-23 2010-11-11 Fujifilm Corp 全方位画像表示用ヘッドマウントディスプレイ装置
JP2012048597A (ja) 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
JP2013258614A (ja) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
CN104246864B (zh) * 2013-02-22 2016-06-29 索尼公司 头戴式显示器和图像显示装置
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP5884816B2 (ja) * 2013-12-16 2016-03-15 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP6505556B2 (ja) * 2015-09-07 2019-04-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法

Also Published As

Publication number Publication date
JP2017055173A (ja) 2017-03-16
US20200193634A1 (en) 2020-06-18
US11030771B2 (en) 2021-06-08
EP3349183A1 (en) 2018-07-18
EP3349183A4 (en) 2019-05-08
US10614589B2 (en) 2020-04-07
WO2017043398A1 (ja) 2017-03-16
US20190295285A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6346131B2 (ja) 情報処理装置および画像生成方法
WO2017043399A1 (ja) 情報処理装置および画像生成方法
EP3008549B1 (en) Head mounted display
JP6668170B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
EP3392706B1 (en) Image display device
JP6518578B2 (ja) 表示制御装置及び表示制御方法
JP2017097122A (ja) 情報処理装置および画像生成方法
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
JP6257826B1 (ja) 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
JP7416048B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6556295B2 (ja) 情報処理装置および画像生成方法
JP2019046291A (ja) 情報処理装置および画像表示方法
WO2017064926A1 (ja) 情報処理装置及び情報処理方法
JP2019128721A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2022164728A (ja) 情報処理装置および画像生成方法
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018170013A (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018206340A (ja) 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
KR102538480B1 (ko) 프로그램이 기록된 컴퓨터 판독가능 기록 매체, 정보 처리 방법 및, 정보 처리 장치
JP6711891B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP7438786B2 (ja) プログラム、情報処理方法、及び情報処理装置
JP6821461B2 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
JP2018038631A (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP2019125397A (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180524

R150 Certificate of patent or registration of utility model

Ref document number: 6346131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250