JP7384576B2 - 表示制御装置、表示制御方法、及び表示制御プログラム - Google Patents

表示制御装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
JP7384576B2
JP7384576B2 JP2019106245A JP2019106245A JP7384576B2 JP 7384576 B2 JP7384576 B2 JP 7384576B2 JP 2019106245 A JP2019106245 A JP 2019106245A JP 2019106245 A JP2019106245 A JP 2019106245A JP 7384576 B2 JP7384576 B2 JP 7384576B2
Authority
JP
Japan
Prior art keywords
image
virtual space
head
input device
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019106245A
Other languages
English (en)
Other versions
JP2020201575A (ja
Inventor
美希 姜
征志 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2019106245A priority Critical patent/JP7384576B2/ja
Priority to US16/883,130 priority patent/US11181744B2/en
Publication of JP2020201575A publication Critical patent/JP2020201575A/ja
Priority to US17/490,192 priority patent/US11567330B2/en
Application granted granted Critical
Publication of JP7384576B2 publication Critical patent/JP7384576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示制御技術に関し、とくに、ヘッドマウントディスプレイへの表示を制御する表示制御装置、表示制御方法、及び表示制御プログラムに関する。
ユーザの頭部に装着されるヘッドマウントディスプレイに、仮想空間の画像を表示する技術が提供されている。通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にもユーザの視野範囲が広がっているため、ディスプレイの画面に集中できなかったり、映像への没入感に欠けたりすることがある。その点、ヘッドマウントディスプレイを装着すると、ユーザはヘッドマウントディスプレイに表示される映像のみを見ることになるため、映像世界への没入感が一層高められる。
本発明者は、より多くのユーザ層がヘッドマウントディスプレイを用いた仮想現実を楽しむことができるようにするためには、より利便性の高い表示制御技術が必要であると認識した。
上記課題を解決するために、本発明のある態様の表示制御装置は、ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部と、仮想空間の画像をヘッドマウントディスプレイに表示させる表示制御部と、ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付ける位置選択部と、を備える。位置選択部は、位置の選択指示をユーザから受け付ける際に、入力装置の画像をヘッドマウントディスプレイに表示させ、入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から位置の選択指示を受け付ける。
本発明の別の態様は、表示制御方法である。この方法は、表示制御装置が、ヘッドマウントディスプレイに表示される仮想空間の画像を生成するステップと、仮想空間の画像をヘッドマウントディスプレイに表示させるステップと、ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付けるステップと、を備える。位置の選択指示をユーザから受け付ける際に、入力装置の画像をヘッドマウントディスプレイに表示させ、入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から位置の選択指示を受け付ける。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイのユーザの利便性を向上させることができる。
実施の形態に係る表示制御システムの使用環境を示す図である。 実施の形態に係るヘッドマウントディスプレイの外観図である。 ヘッドマウントディスプレイの機能構成図である。 入力装置の外観図である。 表示制御装置の構成を示す図である。 表示制御装置の機能構成図である。 ヘッドマウントディスプレイに表示された表示画面の例を示す図である。 ヘッドマウントディスプレイに表示された表示画面の例を示す図である。 図8に示した位置選択指示受付画面の拡大図である。 位置選択指示受付画面の別の例を示す図である。 位置選択指示受付画面の別の例を示す図である。 実施の形態に係る表示制御方法の手順を示すフローチャートである。
本実施の形態では、ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示をユーザから受け付けるためのユーザインタフェースについて説明する。選択可能な複数の位置の中から位置の選択指示をユーザから受け付けるために、ユーザにより使用される入力装置に備えられた十字キーやアナログスティックなどを利用することが考えられる。この場合、例えば、十字キーやアナログスティックによる入力ごとに、予め定められた順序にしたがって1つずつ位置の選択が切り替えられるので、現在選択されている位置から離れた位置を選択するためには何度も繰り返し入力を行う必要がある。また、十字キーを利用する場合は、現在選択されている位置から斜め方向にある別の位置を選択したいときに、いずれのキーを入力すべきかが分かりにくい場合がありうる。したがって、本実施の形態では、ユーザインタフェースの利便性を更に高めるために、入力装置に備えられたタッチパッドを利用し、タッチパッドに対する入力位置に応じて位置の選択指示を受け付ける。
しかし、ユーザは、ヘッドマウントディスプレイを装着している状態では、入力装置のタッチパッドを直接視認することができないので、タッチパッドに対する入力に慣れていない場合は、所望の位置に対応するタッチパッドの位置を精確にタッチするのが困難であり、結局何度も入力し直す必要があるという新たな課題が生じる。このような新たな課題を解決するために、本実施の形態では、ヘッドマウントディスプレイに入力装置の画像を表示することにより、ユーザが把持している入力装置を実際に見ながら入力しているような操作感を実現する。これにより、位置の選択が容易なユーザインタフェースを提供することができるので、ユーザの利便性を向上させることができる。
図1は、実施の形態に係る表示制御システム1の使用環境を示す。表示制御システム1は、表示制御プログラムを実行する表示制御装置10と、ユーザの指示を表示制御装置10に入力するための入力装置16と、ユーザの周囲の実空間を撮像する撮像装置14と、表示制御装置10により生成される仮想空間の画像を表示するヘッドマウントディスプレイ100を備える。
表示制御装置10は、入力装置16又はヘッドマウントディスプレイ100により入力される指示入力や、入力装置16又はヘッドマウントディスプレイ100の位置又は姿勢などに基づいて表示制御プログラムを実行し、仮想空間の画像を生成してヘッドマウントディスプレイ100に伝送する。
ヘッドマウントディスプレイ100は、ユーザが頭部に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。ヘッドマウントディスプレイ100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、表示制御装置10は、レンズによる光学歪みを補正した視差画像データをヘッドマウントディスプレイ100に供給する。
ヘッドマウントディスプレイ100は、表示制御装置10において生成された仮想空間の画像を表示する。また、ヘッドマウントディスプレイ100に設けられた入力装置に対するユーザの入力に関する情報を表示制御装置10へ伝送する。ヘッドマウントディスプレイ100は、表示制御装置10に有線ケーブルで接続されてもよく、また無線LANなどにより無線接続されてもよい。
入力装置16は、ユーザによる指示入力を表示制御装置10に伝送する機能を有する。本実施の形態では、入力装置16は表示制御装置10との間で無線通信可能な無線コントローラとして構成される。入力装置16と表示制御装置10は、Bluetooth(登録商標)プロトコルを用いて無線接続を確立してもよい。なお入力装置16は、無線コントローラに限らず、表示制御装置10とケーブルを介して接続される有線コントローラであってもよい。入力装置16はバッテリにより駆動され、表示制御装置10への指示入力を行うための複数のボタン、十字キー、アナログスティック、タッチパッドなどを有して構成される。ユーザが入力装置16のボタンなどを操作すると、その操作による指示入力が無線通信により表示制御装置10に送信される。
撮像装置14は、CCD撮像素子またはCMOS撮像素子などから構成されるビデオカメラであり、実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。撮像装置14は、USB(Universal Serial Bus)あるいはその他のインタフェースを介して表示制御装置10と接続する。撮像装置14により撮像された画像は、表示制御装置10において、入力装置16及びヘッドマウントディスプレイ100の位置及び姿勢を導出するために用いられる。撮像装置14は、距離を取得可能な測距カメラ又はステレオカメラであってもよい。この場合、撮像装置14により、撮像装置14と入力装置16又はヘッドマウントディスプレイ100などとの間の距離を取得することができる。
本実施の形態の表示制御システム1において、入力装置16及びヘッドマウントディスプレイ100は、複数色で発光可能に構成された発光部を有する。仮想空間の画像の表示中、発光部は表示制御装置10から指示された色で発光し、撮像装置14により撮像される。撮像装置14は入力装置16を撮像し、フレーム画像を生成して表示制御装置10に供給する。表示制御装置10はフレーム画像を取得して、フレーム画像における発光部の画像の位置及び大きさから、実空間における発光部の位置情報を導出する。表示制御装置10が、ゲームプログラムを実行し、ゲーム画像をヘッドマウントディスプレイ100に表示させるゲーム装置である場合、表示制御装置10は、位置情報をゲームの操作指示として取り扱い、プレイヤーズキャラクタの動作を制御するなど、ゲームの処理に反映させてもよい。
また、入力装置16及びヘッドマウントディスプレイ100は、加速度センサ及びジャイロセンサを有する。センサの検出値は、所定周期で表示制御装置10に送信され、表示制御装置10は、センサの検出値を取得して、実空間における入力装置16及びヘッドマウントディスプレイ100の姿勢情報を取得する。表示制御装置10がゲーム装置である場合、表示制御装置10は、姿勢情報をゲームの操作指示として取り扱い、ゲームの処理に反映させてもよい。
表示制御装置10は、処理装置11、出力制御装置12、及び記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ヘッドマウントディスプレイ100に表示させる画像を生成する。出力制御装置12は、処理装置11で生成された画像データをヘッドマウントディスプレイ100に出力する。記憶装置13は、処理装置11において使用される表示制御プログラム、仮想空間の画像や形状などのデータ、制御パラメータ、その他の各種のデータなどを記憶する。
なお出力制御装置12による機能は、処理装置11に組み込まれてもよい。つまり表示制御装置10は、1台の処理装置11から構成されてもよいし、また処理装置11及び出力制御装置12から構成されてもよい。以下においては、仮想空間の画像をヘッドマウントディスプレイ100に提供する機能を、まとめて表示制御装置10の機能として説明する。
出力装置15は、表示制御装置10により生成された画像を表示する。出力装置15は、ディスプレイ及びスピーカを有するテレビジョン受像機であってもよいし、コンピュータディスプレイなどであってもよい。ユーザはヘッドマウントディスプレイ100で画像を見るため、ヘッドマウントディスプレイ100を装着したユーザにとって出力装置15は必要ではないが、出力装置15を用意することで、別のユーザが出力装置15の表示画像を見ることができる。出力制御装置12又は処理装置11は、ヘッドマウントディスプレイ100を装着したユーザが見ている画像と同じ画像を出力装置15に表示させてもよいし、別の画像を表示させてもよい。例えば、ヘッドマウントディスプレイ100を装着したユーザと別のユーザとが一緒にゲームをプレイするような場合、出力装置15には、当該別のユーザのキャラクタ視点からのゲーム画像が表示されてもよい。
図2は、実施の形態に係るヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、頭部接触部112、及び発光部114を備える。
本体部110には、ディスプレイ、位置情報を取得するためのGPSユニット、姿勢センサ、通信装置などが備えられる。頭部接触部112には、ユーザの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが備えられてもよい。発光部114は、上述したように、表示制御装置10から指示された色で発光し、撮像装置14により撮像される画像においてヘッドマウントディスプレイ100の位置を算出するための基準として機能する。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの視線、瞳孔の動き、瞬きなどを検出することができる。
本実施の形態においては、ヘッドマウントディスプレイ100について説明するが、本実施の形態の表示制御技術は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図3は、ヘッドマウントディスプレイ100の機能構成図である。ヘッドマウントディスプレイ100は、入力インタフェース122、出力インタフェース130、バックライト132、通信制御部140、ネットワークアダプタ142、アンテナ144、記憶部150、GPSユニット161、無線ユニット162、姿勢センサ164、外部入出力端子インタフェース170、外部メモリ172、時計部180、表示装置190、及び制御部160を備える。
図3において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、又はそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
制御部160は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース122は、入力ボタンなどから操作信号や設定信号を受け付け、制御部160に供給する。出力インタフェース130は、制御部160から画像信号を受け取り、表示装置190に表示させる。バックライト132は、表示装置190を構成する液晶ディスプレイにバックライトを供給する。
通信制御部140は、ネットワークアダプタ142またはアンテナ144を介して、有線または無線通信により、制御部160から入力されるデータを外部に送信する。通信制御部140は、また、ネットワークアダプタ142またはアンテナ144を介して、有線または無線通信により、外部からデータを受信し、制御部160に出力する。
記憶部150は、制御部160が処理するデータやパラメータ、操作信号などを一時的に記憶する。
GPSユニット161は、制御部160からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部160に供給する。無線ユニット162は、制御部160からの操作信号にしたがって、無線基地局から位置情報を受信して制御部160に供給する。
姿勢センサ164は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ164は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。
外部入出力端子インタフェース170は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ172は、フラッシュメモリなどの外部メモリである。
時計部180は、制御部160からの設定信号によって時間情報を設定し、時間データを制御部160に供給する。
図4は、入力装置の外観図である。図4(a)は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置16を操作する。入力装置16の筐体上面には、入力部である方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。4種のボタン72~75には、それぞれを区別するために、異なる色で異なる図形が記されている。すなわち、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。筐体上面上において、方向キー71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置16の電源をオンし、同時に入力装置16と表示制御装置10とを接続する通信機能をアクティブにするために使用される。入力装置16が表示制御装置10と接続した後は、機能ボタン80は、表示制御装置10にメニュー画面を表示させるためにも使用される。
SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、表示制御装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。またOPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、表示制御装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
図4(b)は、入力装置奥側側面の外観構成を示す。入力装置16の筐体奥側側面の上側には、タッチパッド79が筐体上面から延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、表示制御装置10から送信される発光色情報にしたがって点灯する。
筐体奥側側面において、上側ボタン83a、下側ボタン84aと、上側ボタン83b、下側ボタン84bとが長手方向の左右対称な位置に設けられる。上側ボタン83a、下側ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、上側ボタン83b、下側ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。図示されるように発光部85が、右側の上側ボタン83a、下側ボタン84aの並びと、左側の上側ボタン83b、下側ボタン84bの並びの間に設けられることで、各ボタンを操作する人差し指または中指によって隠れることはなく、撮像装置14は、点灯した発光部85を好適に撮像することができる。上側ボタン83はプッシュ式ボタンとして構成され、下側ボタン84は回動支持されたトリガー式のボタンとして構成されてよい。
図5は、表示制御装置10の構成を示す。表示制御装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50、及びメインシステム60を有して構成される。これらの構成は、処理装置11、出力制御装置12、及び記憶装置13として機能する。
メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリ及びメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUは表示制御プログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2に記録された表示制御プログラムを実行する機能をもつ。
サブシステム50は、サブCPU、主記憶装置であるメモリ及びメモリコントローラなどを備え、GPUを備えず、表示制御プログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、表示制御装置10の筐体の前面に設けられ、表示制御装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50及びメインシステム60に供給する。
デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50、及びメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、及びライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。
USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置及び撮像装置14とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置16と無線通信する。なお無線通信モジュール38は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT-2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応してもよく、さらには別の世代のデジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介して外部ネットワークに接続する。
図6は、表示制御装置10の機能構成図である。表示制御装置10の処理装置11は、表示制御部311、指示入力取得部312、撮像画像取得部313、HMD情報取得部314、入力装置情報取得部315、画像生成部316、及び位置選択部317を備える。これらの機能ブロックも、ハードウェアのみ、ソフトウェアのみ、又はそれらの組合せによっていろいろな形で実現できる。
指示入力取得部312は、入力装置16又はヘッドマウントディスプレイ100が受け付けたユーザによる指示入力に関する情報を入力装置16又はヘッドマウントディスプレイ100から取得する。
撮像画像取得部313は、撮像装置14が撮像した画像を取得し、取得した画像を解析して、入力装置16及びヘッドマウントディスプレイ100の位置及び姿勢を算出する。撮像画像取得部313は、撮像装置14から所定の撮像速度(例えば30フレーム/秒)でフレーム画像を取得し、フレーム画像から入力装置16及びヘッドマウントディスプレイ100の発光部の画像を抽出して、フレーム画像中の発光部の画像の位置及び大きさを特定する。例えば、撮像画像取得部313は、フレーム画像における発光体の画像の重心座標と半径を特定する。ユーザが表示制御システム1を使用する環境内で使われそうにない色にて発光部を点灯させることにより、フレーム画像から高精度で発光部の画像を抽出することができる。
撮像画像取得部313は、特定された発光体の画像の位置及び大きさから、撮像装置14から見た入力装置16及びヘッドマウントディスプレイ100の位置情報を導出する。撮像画像取得部313は、発光体の画像の重心座標から、カメラ座標における位置座標を導出し、また発光体の画像の半径から、撮像装置14からの距離情報を導出する。この位置座標及び距離情報は、入力装置16及びヘッドマウントディスプレイ100の位置情報を構成する。
HMD情報取得部314は、ヘッドマウントディスプレイ100から、ヘッドマウントディスプレイの姿勢に関する情報を取得する。また、HMD情報取得部314は、撮像画像取得部313から、ヘッドマウントディスプレイ100の位置に関する情報を取得する。これらの情報は、画像生成部316へ伝達される。ヘッドマウントディスプレイ100の姿勢に関する情報は、撮像画像取得部313がヘッドマウントディスプレイ100の撮像画像を解析することにより取得されてもよい。
入力装置情報取得部315は、入力装置16から、入力装置16の姿勢に関する情報を取得する。また、入力装置情報取得部315は、撮像画像取得部313から、入力装置16の位置に関する情報を取得する。これらの情報は、画像生成部316又は位置選択部317へ伝達される。入力装置16の姿勢に関する情報は、撮像画像取得部313が入力装置16の撮像画像を解析することにより取得されてもよい。
入力装置16が撮像装置14の撮像範囲から外れたり、ユーザの体や障害物などに隠されたりして、撮像装置14により撮像されなかった場合、入力装置情報取得部315は、前回取得された入力装置16の位置と、その時点以降に取得された入力装置16の姿勢に関する情報に基づいて、入力装置16の位置を算出する。例えば、入力装置16の加速度センサから取得される並進加速度のデータに基づいて、前回取得された入力装置16の位置からのずれを算出することにより、現在の入力装置16の位置を算出してもよい。入力装置16が撮像装置14により撮像されない間は、同様にして入力装置16の位置を逐次算出する。入力装置16が撮像装置14により再度撮像された場合、加速度データにより逐次算出された入力装置16の位置は、ドリフト誤差の累積により正確な位置を示していない可能性があるので、撮像画像取得部313により新たに算出された入力装置16の位置を現在の入力装置16の位置としてもよい。ヘッドマウントディスプレイ100についても同様である。
画像生成部316は、ヘッドマウントディスプレイ100に表示される仮想空間の画像を生成する。画像生成部316は、後述する位置選択部317により受け付けられたユーザによる位置の選択指示に基づいて視点位置を設定し、ヘッドマウントディスプレイ100の姿勢に基づいて視線方向を設定して、仮想空間の画像を生成する。画像生成部316は、所定のタイミングでヘッドマウントディスプレイ100の姿勢と仮想空間における視線方向とを対応づけ、以降、ヘッドマウントディスプレイ100の姿勢の変化に伴って、視線方向を変化させる。これにより、ユーザは、実際に頭を動かすことにより、仮想空間内を見渡すことができるので、仮想空間内に現実に存在しているかのような体験をすることができる。画像生成部316は、現実空間の複数の位置に設置された撮像装置により撮像された映像から仮想空間の画像を生成してもよいし、仮想三次元空間の形状データをレンダリングすることにより仮想空間の画像を生成してもよい。画像生成部316は、生成した仮想空間の画像に、仮想空間に関する情報やヘッドマウントディスプレイ100に表示すべき画像などを追加して、表示画面を生成する。
表示制御部311は、画像生成部316により生成された表示画面を、無線通信モジュール38又は有線通信モジュール40を介してヘッドマウントディスプレイ100に送信し、ヘッドマウントディスプレイ100に表示させる。
位置選択部317は、ヘッドマウントディスプレイ100に表示された仮想空間における視点位置の選択指示を、ユーザにより使用される入力装置16のタッチパッド79を介して受け付ける。位置選択部317は、位置の選択指示をユーザから受け付ける際に、入力装置16の画像をヘッドマウントディスプレイ100に表示させ、入力装置16に備えられたタッチパッド79に対する入力位置に応じて、選択可能な複数の視点位置の中から視点位置の選択指示を受け付ける。
図7は、ヘッドマウントディスプレイ100に表示された表示画面の例を示す。本図の例では、講演会場において複数の位置に設置された撮像画像により撮像された映像がヘッドマウントディスプレイ100に表示されている。この映像は、現実世界において撮像されたものであるが、視聴しているユーザの眼前に現在する現実世界の映像ではないという点で、仮想空間の画像の一例である。
図8は、ヘッドマウントディスプレイ100に表示された表示画面の例を示す。ユーザが入力装置16の△ボタン75又はタッチパッド79を押下すると、位置選択部317は、入力装置16の画像210と、選択可能な複数の視点位置を含む仮想空間の画像(以下、「バーチャルマップ画像220」ともいう)とを含む位置選択指示受付画面200をヘッドマウントディスプレイ100に表示し、入力装置16のタッチパッド79を介して視点位置の選択指示を受け付ける。
図9は、図8に示した位置選択指示受付画面200の拡大図である。位置選択部317は、入力装置16とヘッドマウントディスプレイ100の相対位置に基づいて、入力装置16の画像210をヘッドマウントディスプレイ100に表示する。また、位置選択部317は、入力装置16の姿勢に合わせて、ヘッドマウントディスプレイ100に表示される入力装置の画像210の姿勢を変更する。ヘッドマウントディスプレイ100を装着しているユーザは、現実世界における入力装置16を視認することはできないが、ユーザがヘッドマウントディスプレイ100を装着していなければ入力装置16が見えるであろう位置に入力装置16の画像210を表示することにより、ユーザが入力装置16のタッチパッド79に対する入力をより容易に行えるようにすることができる。
位置選択部317は、ヘッドマウントディスプレイ100に表示された入力装置16の画像210のタッチパッド211に重畳して、又はタッチパッド211の近傍に、選択可能な複数の視点位置を含むバーチャルマップ画像220を表示する。このバーチャルマップ画像220は、仮想空間を所定の方向から見た平面視画像であってもよいし、所定の視点位置及び視線方向を設定して仮想空間をレンダリングした画像であってもよい。本図の例では、仮想空間を上方から見た上面視画像がバーチャルマップ画像220として表示されている。
位置選択部317は、バーチャルマップ画像220に重畳して、選択可能な複数の視点位置を示すマーカー221と、現在設定されている視点位置を示すマーカー222と、現在選択されている視点位置を示すマーカー223を表示する。
位置選択部317は、タッチパッド79に対する入力位置を示すポインター212を、ヘッドマウントディスプレイ100に表示された入力装置16の画像210におけるタッチパッド211の対応する位置に表示する。
位置選択部317は、ユーザが○ボタン72又はタッチパッド79を押下すると、現在選択されている視点位置を確定し、画像生成部316に通知する。画像生成部316は、位置選択部317から通知された視点位置を新たに設定し、新しい視点位置から見た仮想空間の画像を生成する。位置選択部317は、視点位置を確定する前に、現在選択されている視点位置から見た仮想空間のプレビュー画像を入力装置16の画像210の近傍に表示してもよい。位置選択部317は、視点位置を確定する際に、入力装置16を振動させてもよい。
以上のようなユーザインタフェースを提供することにより、ユーザはタッチパッド79に対する入力位置を視認しながら視点位置を選択することができるので、ユーザの利便性を向上させることができる。所望の視点位置に対応するタッチパッド79の位置とは異なる位置にタッチしてしまった場合であっても、入力位置を示すポインター212と、選択された視点位置を示すマーカー223を参照して、所望の視点位置に対応する位置に向けて指をスライドさせ、タッチパッド79をなぞることにより、所望の視点位置を容易に選択することができる。入力装置16の画像210及びバーチャルマップ画像220は、ユーザの手元の位置に表示されるので、現在視聴中の仮想空間の画像を遮ることなく、視聴を継続しながら視点を変更することができる。
本実施の形態の例では、選択可能な複数の視点位置は離散的に設けられたが、視点位置が連続的に変更可能である場合にも、本実施の形態の技術を適用可能である。本実施の形態の技術によれば、離散的な視点位置が多数用意されている場合であっても、視点位置を連続的に変更可能である場合であっても、視点位置の選択指示を受け付けるためのユーザインタフェースを複雑化させることなく、容易に選択指示を受け付けることができる。
位置選択部317は、選択可能な複数の視点位置を複数のグループに分類し、タッチパッド79に対する入力の態様に応じたグループに属する視点位置の中から視点位置の選択指示を受け付けてもよい。例えば、図9に示した複数の視点位置を、観客席側の視点位置のグループと、ステージ上の視点位置のグループに分類し、タッチパッド79に入力した指の種類や数などに応じてグループを選択し、選択されたグループに属する視点位置の中から、入力位置に応じて視点位置の選択指示を受け付けてもよい。位置選択部317は、撮像画像取得部313により取得された撮像画像を参照してタッチパッド79に対する入力の態様を判定してもよい。例えば、撮像画像を参照してタッチパッド79に入力した指の種類及び数を判定し、右手の指で入力した場合は観客席側、左手の指で入力した場合はステージ上の視点位置を選択可能としてもよいし、人差し指で入力した場合は観客席側、中指で入力した場合はステージ上の視点位置を選択可能としてもよいし、1本の指で入力した場合は観客席側、2本の指で入力した場合はステージ上の視点位置を選択可能としてもよい。タッチパッド79が静電容量の変化を検出可能な静電容量方式のタッチパッドである場合、位置選択部317は、タッチパッド79により検出された静電容量の変化に基づいてタッチパッド79に対する入力の態様を判定してもよい。この場合も、タッチパッド79に入力した指や爪などの種類や数などの態様を判定することができるので、判定結果に応じて視点位置のグループを選択することができる。
位置選択部317は、仮想空間を複数の領域に分割し、タッチパッド79に対する入力の態様に応じて領域を切り替えてもよい。例えば、2本指でのスワイプ操作や、タッチパッド79の両サイドを押し込みながらのスワイプ操作などにより領域をスクロールしてもよい。または、ユーザの視線の変更や、入力装置16の方向キー71又はアナログスティック77による操作などにより領域をスクロールしてもよい。また、複数の会場における講演や公演などを視聴可能である場合に、上下方向のスワイプ操作により同一会場内で領域をスクロールし、左右方向のスワイプ操作により別の会場に切り替えてもよい。
位置選択部317は、入力装置16に備えられた方向キー71又はアナログスティック77による位置の選択指示を受け付けてもよい。タッチパッド79だけでなく、方向キー71やアナログスティック77などによっても視点位置を選択可能とすることにより、ユーザの利便性を更に向上させることができる。
位置選択部317は、ユーザが使用する端末装置などから位置の選択指示を受け付けてもよい。この場合、位置選択部317は、表示制御装置10と通信可能な端末装置がタッチパッドを介して受け付けたユーザによる操作入力を端末装置から受信する。位置選択部317は、例えば、渦を巻くようにタッチパッドを指でなぞる操作を受け付けたときに位置選択指示受付画面200をヘッドマウントディスプレイ100に表示し、タッチパッドに対する入力位置に応じて視点位置の選択指示を受け付けてもよい。
上記の例では、仮想空間の画像を生成する際に使用される視点位置の選択指示をユーザから受け付けるためのユーザインタフェースについて説明したが、本実施の形態の技術は、仮想空間においてキャラクタやオブジェクトなどを配置又は移動させる位置など、任意の位置の選択指示をユーザから受け付ける場合にも適用可能である。
図8及び図9に示した例では、位置選択指示受付画面200において、仮想空間の全体の上面視画像をバーチャルマップ画像220として表示したが、位置選択部317は、仮想空間のうちの一部の領域の画像を表示し、表示している仮想空間の領域に含まれる位置の選択指示を受け付けてもよい。例えば、ゲームフィールドの一部の領域の画像をバーチャルマップ画像220として表示し、バーチャルマップ画像220として表示している領域内で、ユーザが操作するキャラクタなどの移動先の位置の選択指示を受け付けてもよい。この場合、位置選択部317は、ユーザからの指示やゲームの進行状況などに応じて、表示するゲームフィールドの領域を変更可能としてもよい。表示するゲームフィールドを変更する指示は、入力装置16の方向キー71、アナログスティック77、タッチパッド79などにより受け付けてもよい。
図10は、位置選択指示受付画面200の別の例を示す。図10(a)に示した例では、ゲームフィールドのうち、ユーザにより操作されるキャラクタ213の現在位置の近傍の領域がバーチャルマップ画像220として表示されている。位置選択部317は、ゲームフィールドの少なくとも一部の画像と入力装置の画像210とを重畳して表示し、入力装置の画像210のタッチパッド211と重畳して表示されているゲームフィールドの領域に含まれる位置の選択指示を受け付ける。すなわち、位置選択部317は、タッチパッド79に対する入力位置に対応するタッチパッド211の位置に表示されているゲームフィールドの位置の選択指示を受け付ける。ゲームプログラムを実行するゲーム制御部は、位置選択部317が受け付けたゲームフィールドの位置にキャラクタ213を移動させる。ユーザは、図10(b)に示すように、バーチャルマップ画像220として表示されるゲームフィールドの領域をスクロールすることにより、タッチパッド211と重畳して表示されるゲームフィールドの領域を変更しながら、キャラクタ213の移動先の位置を任意に選択することができる。
図11は、位置選択指示受付画面200の別の例を示す。図10に示した例では、ゲームフィールドの画像をスクロールすることにより入力装置の画像210のタッチパッド211と重畳する領域を変更したが、図11に示した例では、ユーザが入力装置16の位置を変更することにより入力装置の画像210の表示位置を変更し、タッチパッド211と重畳するゲームフィールドの領域を変更可能とする。このとき、バーチャルマップ画像220の表示位置を固定しておいてもよい。
図10に示した例と図11に示した例を組み合わせてもよい。すなわち、ゲームフィールドをスクロールすることによっても、入力装置16を移動させることによっても、位置を選択可能なゲームフィールドの領域を変更することができるようにしてもよい。
図12は、実施の形態に係る表示制御方法の手順を示すフローチャートである。ユーザが入力装置16の△ボタン75又はタッチパッド79を押下すると、位置選択部317は、入力装置16の画像210と、選択可能な複数の視点位置を含むバーチャルマップ画像220をヘッドマウントディスプレイ100に表示し(S100)、入力装置16のタッチパッド79を介して視点位置の選択指示を受け付ける(S102)。ユーザが○ボタン72又はタッチパッド79を押下すると、位置選択部317は、現在選択されている視点位置に決定し(S104)、画像生成部316に通知する。画像生成部316は、位置選択部317から通知された視点位置を反映させ、新しい視点位置から見た仮想空間の画像を生成する(S106)。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、その各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記の例では、ヘッドマウントディスプレイ100の表示装置190に単眼視用の画像が表示されたが、別の例では、両眼立体視用の画像が表示されてもよい。
1 表示制御システム、10 表示制御装置、16 入力装置、71 方向キー、77 アナログスティック、79 タッチパッド、100 ヘッドマウントディスプレイ、311 表示制御部、312 指示入力取得部、313 撮像画像取得部、314 HMD情報取得部、315 入力装置情報取得部、316 画像生成部、317 位置選択部。

Claims (16)

  1. ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部と、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させる表示制御部と、
    前記ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付ける位置選択部と、
    を備え、
    前記位置選択部は、前記画像生成部が前記仮想空間の画像を生成する際に使用する視点位置の選択指示を受け付け、
    前記画像生成部は、前記位置選択部により受け付けられた位置に視点位置を設定して前記仮想空間の画像を生成し、
    前記位置選択部は、前記位置の選択指示をユーザから受け付ける際に、前記入力装置の画像を前記ヘッドマウントディスプレイに表示させ、前記入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から前記位置の選択指示を受け付け
    前記ヘッドマウントディスプレイに表示された入力装置の画像におけるタッチパッドに重畳して、又はタッチパッドの近傍に、選択可能な複数の位置を含む仮想空間の画像を表示する
    表示制御装置。
  2. 前記位置選択部は、前記タッチパッドに対する入力位置を示すポインターを、前記ヘッドマウントディスプレイに表示された入力装置の画像におけるタッチパッドの対応する位置に表示する請求項1に記載の表示制御装置。
  3. 前記ユーザにより使用される入力装置の位置を示す情報を取得する入力装置情報取得部を更に備え、
    前記位置選択部は、前記ヘッドマウントディスプレイの表示画面において、前記入力装置の前記ヘッドマウントディスプレイに対する相対位置に基づいて決定された位置に前記入力装置の画像を表示する請求項1又は2に記載の表示制御装置。
  4. 前記仮想空間の画像は、前記仮想空間を所定の方向から見た平面視画像、又は、所定の視点位置及び視線方向を設定して前記仮想空間をレンダリングした画像である請求項1から3のいずれかに記載の表示制御装置。
  5. 前記位置選択部は、前記仮想空間の画像に重畳して、選択可能な複数の位置を示すマーカーを表示する請求項1から4のいずれかに記載の表示制御装置。
  6. 前記位置選択部は、前記仮想空間のうちの一部の領域の画像が表示しているとき、表示している前記仮想空間の領域に含まれる位置の選択指示を受け付け、表示する前記仮想空間の領域を変更可能である請求項からのいずれかに記載の表示制御装置。
  7. 前記位置選択部は、前記仮想空間の少なくとも一部の画像と前記入力装置の画像とを重畳して表示し、前記入力装置の画像のタッチパッドと重畳して表示されている前記仮想空間の領域に含まれる位置の選択指示を受け付ける請求項からのいずれかに記載の表示制御装置。
  8. 前記位置選択部は、前記入力装置の位置の変化に応じて前記入力装置の画像の表示位置を変更することにより前記入力装置の画像のタッチパッドと重畳して表示される前記仮想空間の領域を変更可能とする請求項に記載の表示制御装置。
  9. ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部と、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させる表示制御部と、
    前記ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付ける位置選択部と、
    を備え、
    前記位置選択部は、前記画像生成部が前記仮想空間の画像を生成する際に使用する視点位置の選択指示を受け付け、
    前記画像生成部は、前記位置選択部により受け付けられた位置に視点位置を設定して前記仮想空間の画像を生成し、
    前記位置選択部は、前記位置の選択指示をユーザから受け付ける際に、前記入力装置の画像を前記ヘッドマウントディスプレイに表示させ、前記入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から前記位置の選択指示を受け付け、
    前記位置選択部は、選択可能な複数の位置を複数のグループに分類し、前記タッチパッドに対する入力の態様に応じたグループに属する位置の中から位置の選択指示を受け付ける表示制御装置。
  10. 撮像装置により撮像された前記入力装置を含む画像を取得する撮像画像取得部を更に備え、
    前記位置選択部は、前記撮像画像取得部により取得された撮像画像を参照して前記タッチパッドに対する入力の態様を判定する請求項に記載の表示制御装置。
  11. 前記タッチパッドは、静電容量の変化を検出可能であり、
    前記位置選択部は、前記タッチパッドにより検出された静電容量の変化に基づいて前記タッチパッドに対する入力の態様を判定する請求項に記載の表示制御装置。
  12. 前記位置選択部は、前記入力装置に備えられた方向キー又はアナログスティックによる前記位置の選択指示を受け付ける請求項1から1のいずれかに記載の表示制御装置。
  13. 表示制御装置が、
    ヘッドマウントディスプレイに表示される仮想空間の画像を生成するステップと、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させるステップと、
    前記ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付けるステップと、
    を備え、
    前記位置は、前記仮想空間の画像を生成する際に使用される視点位置であり、
    前記位置の選択指示をユーザから受け付ける際に、前記入力装置の画像を前記ヘッドマウントディスプレイに表示させ、前記入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から前記位置の選択指示を受け付け
    前記ヘッドマウントディスプレイに表示された入力装置の画像におけるタッチパッドに重畳して、又はタッチパッドの近傍に、選択可能な複数の位置を含む仮想空間の画像を表示する
    表示制御方法。
  14. 表示制御装置が、
    ヘッドマウントディスプレイに表示される仮想空間の画像を生成するステップと、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させるステップと、
    前記ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付けるステップと、
    を備え、
    前記位置は、前記仮想空間の画像を生成する際に使用される視点位置であり、
    前記位置の選択指示をユーザから受け付ける際に、前記入力装置の画像を前記ヘッドマウントディスプレイに表示させ、前記入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から前記位置の選択指示を受け付け、
    前記位置の選択指示を受け付けるステップは、選択可能な複数の位置を複数のグループに分類し、前記タッチパッドに対する入力の態様に応じたグループに属する位置の中から位置の選択指示を受け付けるステップを含む
    表示制御方法。
  15. コンピュータを、
    ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させる表示制御部、
    前記ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付ける位置選択部、
    として機能させ、
    前記位置選択部は、前記画像生成部が前記仮想空間の画像を生成する際に使用する視点位置の選択指示を受け付け、
    前記画像生成部は、前記位置選択部により受け付けられた位置に視点位置を設定して前記仮想空間の画像を生成し、
    前記位置選択部は、前記位置の選択指示をユーザから受け付ける際に、前記入力装置の画像を前記ヘッドマウントディスプレイに表示させ、前記入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から前記位置の選択指示を受け付け
    前記ヘッドマウントディスプレイに表示された入力装置の画像におけるタッチパッドに重畳して、又はタッチパッドの近傍に、選択可能な複数の位置を含む仮想空間の画像を表示する
    表示制御プログラム。
  16. コンピュータを、
    ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させる表示制御部、
    前記ヘッドマウントディスプレイに表示された仮想空間における位置の選択指示を、ユーザにより使用される入力装置を介して受け付ける位置選択部、
    として機能させ、
    前記位置選択部は、前記画像生成部が前記仮想空間の画像を生成する際に使用する視点位置の選択指示を受け付け、
    前記画像生成部は、前記位置選択部により受け付けられた位置に視点位置を設定して前記仮想空間の画像を生成し、
    前記位置選択部は、前記位置の選択指示をユーザから受け付ける際に、前記入力装置の画像を前記ヘッドマウントディスプレイに表示させ、前記入力装置に備えられたタッチパッドに対する入力位置に応じて、選択可能な複数の位置の中から前記位置の選択指示を受け付け、
    前記位置選択部は、選択可能な複数の位置を複数のグループに分類し、前記タッチパッドに対する入力の態様に応じたグループに属する位置の中から位置の選択指示を受け付ける
    表示制御プログラム。
JP2019106245A 2019-06-06 2019-06-06 表示制御装置、表示制御方法、及び表示制御プログラム Active JP7384576B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019106245A JP7384576B2 (ja) 2019-06-06 2019-06-06 表示制御装置、表示制御方法、及び表示制御プログラム
US16/883,130 US11181744B2 (en) 2019-06-06 2020-05-26 Display control apparatus, display control method, and display control program
US17/490,192 US11567330B2 (en) 2019-06-06 2021-09-30 Display control apparatus, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019106245A JP7384576B2 (ja) 2019-06-06 2019-06-06 表示制御装置、表示制御方法、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2020201575A JP2020201575A (ja) 2020-12-17
JP7384576B2 true JP7384576B2 (ja) 2023-11-21

Family

ID=73651460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019106245A Active JP7384576B2 (ja) 2019-06-06 2019-06-06 表示制御装置、表示制御方法、及び表示制御プログラム

Country Status (2)

Country Link
US (2) US11181744B2 (ja)
JP (1) JP7384576B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4142285A4 (en) * 2021-05-17 2023-11-15 Qingdao Pico Technology Co., Ltd. HEAD-MOUNTED DISPLAY DEVICE AND HEAD-MOUNTED DISPLAY SYSTEM
JP2023148674A (ja) * 2022-03-30 2023-10-13 株式会社バンダイナムコエンターテインメント コンピュータシステム、仮想空間制御システムおよび仮想空間制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143505A (ja) 2001-11-06 2003-05-16 Sony Corp 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
JP2016081476A (ja) 2014-10-22 2016-05-16 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP2016158795A (ja) 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2017102297A (ja) 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
US20180137684A1 (en) 2016-11-11 2018-05-17 Sony Corporation Apparatus, computer program and method
JP6434667B1 (ja) 2018-04-19 2018-12-05 株式会社 ディー・エヌ・エー 仮想空間を提供するためのプログラム、システム、及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545584B2 (en) * 2016-05-17 2020-01-28 Google Llc Virtual/augmented reality input device
US10373342B1 (en) * 2017-01-10 2019-08-06 Lucasfilm Entertainment Company Ltd. Content generation in an immersive environment
US10701431B2 (en) * 2017-11-16 2020-06-30 Adobe Inc. Handheld controller gestures for virtual reality video playback

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143505A (ja) 2001-11-06 2003-05-16 Sony Corp 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
JP2016081476A (ja) 2014-10-22 2016-05-16 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP2016158795A (ja) 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2017102297A (ja) 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
US20180137684A1 (en) 2016-11-11 2018-05-17 Sony Corporation Apparatus, computer program and method
JP6434667B1 (ja) 2018-04-19 2018-12-05 株式会社 ディー・エヌ・エー 仮想空間を提供するためのプログラム、システム、及び方法

Also Published As

Publication number Publication date
US11181744B2 (en) 2021-11-23
US20200386998A1 (en) 2020-12-10
US20220019084A1 (en) 2022-01-20
JP2020201575A (ja) 2020-12-17
US11567330B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
US10620699B2 (en) Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
US10303244B2 (en) Information processing apparatus, information processing method, and computer program
CN108292490B (zh) 显示控制装置和显示控制方法
JP6788327B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6346131B2 (ja) 情報処理装置および画像生成方法
US10949055B2 (en) Display system, display apparatus, control method for display apparatus
JP2016158795A (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
WO2017094606A1 (ja) 表示制御装置及び表示制御方法
WO2017094608A1 (ja) 表示制御装置及び表示制御方法
JP2017054201A (ja) 情報処理装置および画像生成方法
US11567330B2 (en) Display control apparatus, display control method, and display control program
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6556295B2 (ja) 情報処理装置および画像生成方法
JP2018091882A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP7462591B2 (ja) 表示制御装置及び表示制御方法
JP6891319B2 (ja) 表示制御装置及び表示制御方法
JP6683862B2 (ja) 表示制御装置及び表示制御方法
JP6705929B2 (ja) 表示制御装置及び表示制御方法
JP2018160249A (ja) ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ、表示制御プログラム、及び表示制御方法
JP6711891B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP2017146647A (ja) 表示装置、入力装置、頭部装着型表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231010

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7384576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150