JP6518645B2 - 情報処理装置および画像生成方法 - Google Patents

情報処理装置および画像生成方法 Download PDF

Info

Publication number
JP6518645B2
JP6518645B2 JP2016241561A JP2016241561A JP6518645B2 JP 6518645 B2 JP6518645 B2 JP 6518645B2 JP 2016241561 A JP2016241561 A JP 2016241561A JP 2016241561 A JP2016241561 A JP 2016241561A JP 6518645 B2 JP6518645 B2 JP 6518645B2
Authority
JP
Japan
Prior art keywords
image
user
mounted display
head mounted
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016241561A
Other languages
English (en)
Other versions
JP2018094086A (ja
Inventor
貴一 池田
貴一 池田
心 渡部
心 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2016241561A priority Critical patent/JP6518645B2/ja
Priority to US15/805,375 priority patent/US10369468B2/en
Publication of JP2018094086A publication Critical patent/JP2018094086A/ja
Application granted granted Critical
Publication of JP6518645B2 publication Critical patent/JP6518645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Description

本発明は、ヘッドマウントディスプレイに表示される画像を生成する技術に関する。
ヘッドマウントディスプレイ(HMD)はユーザの頭部に装着されて仮想現実(VR)の映像世界をユーザに提供する。最近ではHMDをゲーム装置に接続して、ユーザがHMDに表示されたゲーム画像を見ながら、ゲームコントローラを操作してゲームをプレイすることも行われている。HMDはユーザの視野全体にVR画像を提供するために、映像世界へのユーザの没入感を高め、ゲームのエンタテインメント性を飛躍的に向上させる効果がある。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して仮想3次元空間のゲーム画像を生成することで、映像世界への没入感をさらに高めることができる。
HMDを装着したユーザはゲームプレイ中、ゲーム以外の操作を行うためにシステムメニュー画像(ホーム画像)を表示させたいことがある。たとえば一緒にゲームをプレイするためにフレンドをゲームに招待したり、フレンドからメッセージが届いたような場合には、ユーザはゲームを一時中断して、表示画像をシステムメニュー画像に切り替える。テレビとは異なり、HMDは360度全方位の映像空間を提供できるため、ユーザがゲーム画像からシステムメニュー画像に切り替えたとき、空いている映像空間が効率よく利用されることが好ましい。
本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDに表示していたゲーム画像をシステムメニュー画像に切り替えたときに、ユーザに有用な情報を提供可能とする技術を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を示す姿勢情報を取得する取得部と、ヘッドマウントディスプレイの姿勢情報に応じて、視線方向を定める視線方向決定部と、ヘッドマウントディスプレイに表示される仮想3次元空間のゲーム画像を生成する第1画像生成部と、ヘッドマウントディスプレイがゲーム画像を表示しているときに、ユーザから切替操作を受け付ける受付部と、受付部が切替操作を受け付けると、第1画像生成部が生成したゲーム画像に代えてヘッドマウントディスプレイに表示されるシステムメニュー画像を生成する第2画像生成部と、を備える。第2画像生成部は、仮想3次元空間における視点位置に対して、システムメニュー画像を配置した方向とは異なる方向に、所定の画像を配置する。
本発明の別の態様は、画像生成方法である。この方法は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を示す姿勢情報を取得するステップと、ヘッドマウントディスプレイの姿勢情報に応じて視線方向を定めるステップと、ヘッドマウントディスプレイに表示される仮想3次元空間のゲーム画像を生成するステップと、ヘッドマウントディスプレイがゲーム画像を表示しているときに、ユーザから切替操作を受け付けるステップと、切替操作を受け付けた後、視点位置に対してそれぞれ異なる方向に配置したシステムメニュー画像および所定の画像を含む仮想3次元空間の画像を、定めた視線方向にもとづいて生成するステップと、を有する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、HMDに表示していたゲーム画像をシステムメニュー画像に切り替えたときに、ユーザに有用な情報を提供可能とする技術を提供できる。
実施例における情報処理システムの構成例を示す図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 情報処理装置の機能ブロックを示す図である。 HMDに表示されるゲーム画像の一例を示す図である。 矩形状のシステムメニュー画像の一例を示す図である。 HMDに表示されるシステムメニュー画像の一例を示す図である。 仮想3次元空間における各画像の配置を説明するための図である。 HMDに表示されるスクリーンショット画像の一例を示す図である。 HMDに表示されるシステムメニュー画像の一例を示す図である。
図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は情報処理装置10と、ヘッドマウントディスプレイ(HMD)100と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。出力装置15はテレビであってよい。情報処理装置10は、アクセスポイント(AP)17を介して、インターネットなどの外部のネットワーク2に接続される。AP17は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。
HMD100はユーザの頭部に装着されて仮想現実(VR)の映像世界をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画像を更新することで、映像世界への没入感を高められる。
情報処理装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ゲームなどのアプリケーションを実行する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の姿勢情報をゲームに対するユーザの操作情報として受け付けて、ゲームを進行させる機能をもつ。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットであり、出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。
ユーザはHMD100で画像を見るため、HMD100を装着したユーザにとって出力装置15は必ずしも必要ではないが、出力装置15を用意することで、別のユーザが出力装置15の表示画像を見ることができる。出力制御装置12または処理装置11は、HMD100を装着したユーザが見ている画像と同じ画像を出力装置15に表示させてもよいが、別の画像を表示させてもよい。たとえばHMDを装着したユーザと、別のユーザとが一緒にゲームをプレイするような場合、出力装置15からは、当該別のユーザのキャラクタ視点からのゲーム画像が表示されてもよい。
HMD100は、ユーザが頭部に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。
処理装置11、記憶装置13、出力装置15、入力装置16および撮像装置14は、従来型のゲームシステムを構築してよい。この場合、処理装置11はゲームを実行するゲーム装置であり、入力装置16はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置11にユーザによる操作情報を供給する機器である。記憶装置13は、システムソフトウェアやゲームソフトウェアなどを記憶している。このゲームシステムの構成要素に、出力制御装置12およびHMD100を追加することで、仮想3次元空間のVR画像をHMD100に提供する情報処理システム1が構築される。
なお出力制御装置12による機能は、処理装置11に組み込まれてもよい。つまり情報処理装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、VR画像をHMD100に提供する機能を、まとめて情報処理装置10の機能として説明する。
実施例のゲームは、入力装置16から入力された操作情報にもとづいて仮想3次元空間内でユーザキャラクタを動かし、ユーザの頭部に装着されたHMD100の姿勢情報にもとづいてユーザキャラクタの視線方向を定める。実施例ではゲームがHMD100の姿勢情報を、ユーザキャラクタの視線方向を制御するための操作情報として利用するが、入力装置16における入力情報を、視線方向を制御するための操作情報として利用してもよい。またユーザキャラクタを移動させるための操作情報は、入力装置16の入力情報を用いずに、HMD100の位置情報を利用してもよい。実施例において、ユーザキャラクタの操作情報は、入力装置16およびHMD100のいずれから取得されてもよく、また他のユーザインタフェースから取得されてもよい。
情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。
情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。上記したように情報処理装置10は、HMD100の位置情報をもとにユーザキャラクタの仮想3次元空間内の位置を算出し、HMD100の姿勢情報をもとにユーザキャラクタの視線方向を算出してもよいが、実施例では仮想3次元空間内におけるユーザキャラクタの位置は、入力装置16の操作情報をもとに算出する。
図2は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよく、外付けのヘッドホンが接続されるように構成されてもよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
図3は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
図4は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサデータ受信部20、撮影画像受信部22、入力データ受信部24および画像提供部50を備える。情報処理装置10は、さらにHMD情報取得部30、視線方向決定部32、受付部34および画像生成部40を備える。画像生成部40は、ゲームを実行してゲーム画像を生成する第1画像生成部42と、システムメニュー画像を生成する第2画像生成部44とを有する。
図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
以下、ファーストパーソンシューター(FPS)ゲームの画像を生成するときの情報処理装置10の動作について説明する。
図5は、HMD100に表示されるゲーム画像の一例を示す。
第1画像生成部42は、左目用のゲーム画像と右目用のゲーム画像を生成して、画像提供部50が、それぞれのゲーム画像をHMD100に提供して、表示パネル130に表示させる。
センサデータ受信部20は、ユーザが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、HMD情報取得部30に供給する。撮影画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、HMD情報取得部30に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、撮影画像受信部22は、(1/60)秒ごとに撮影画像を受信する。実施例においてHMD情報取得部30は、センサデータおよび撮影画像を、ユーザの頭部に装着されたHMD100の姿勢を示す姿勢情報として取得する。HMD情報取得部30は、取得した姿勢情報を、視線方向決定部32に供給する。
視線方向決定部32は、HMD100の姿勢情報に応じてユーザの視線方向を定める。具体的にHMD情報取得部30は、姿勢センサ124のセンサデータから、HMD100の姿勢の変化を検出する。このときHMD情報取得部30は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定してよい。なおHMD情報取得部30は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。視線方向決定部32は、決定した視線方向を、第1画像生成部42に提供する。
入力データ受信部24は入力装置16から、ユーザが入力したキーデータを受信して、受付部34に供給する。受付部34はキーデータを、ゲームに対する操作情報として第1画像生成部42に提供する。
第1画像生成部42は、視線方向決定部32から提供される視線方向を、ユーザキャラクタの視線を定める操作情報として利用する。また第1画像生成部42は、受付部34から供給されるキーデータを、ユーザキャラクタの動作を定める操作情報として利用する。入力装置16の操作により仮想3次元空間内のキャラクタを動作させる処理は、既知の技術を利用してよい。第1画像生成部42は、仮想3次元空間においてユーザキャラクタを動かし、ユーザキャラクタの位置(仮想3次元空間座標値)および視線方向にもとづいて、仮想3次元空間のレンダリング処理を行う。具体的に第1画像生成部42は、ユーザキャラクタの位置に、ユーザキャラクタの視線方向を光軸とする仮想カメラを配置して、仮想カメラの画像を取得することで、HMD100に表示される仮想3次元空間のゲーム画像を生成する。画像提供部50は、生成された画像データをHMD100に提供する。
実施例のFPSゲームでは、ユーザが入力装置16のキー入力によりキャラクタを動作させ、またHMD100の向きを動かすことで、キャラクタの視線方向を変えられる。このゲームでユーザは360度全方位に移動し、また360度全方位を見ることができ、その意味においてHMD100は、ゲーム仮想空間の全方位を表示可能な表示装置として利用される。
ゲームプレイ中、ユーザはゲームを一時中断して、システムメニュー画像をHMD100に表示させたいことがある。このときユーザは、入力装置16の所定のボタン(ホームボタン)を操作すると、表示パネル130に表示されているゲーム画像を、システムメニュー画像に切り替えることができる。つまり表示パネル130がゲーム画像を表示しているときに、ユーザが入力装置16のホームボタンを操作すると、ホームボタンの操作は、表示画像の切替操作として情報処理装置10に入力される。
入力データ受信部24がホームボタンの操作データを受信すると、受付部34は、ホームボタンの操作データを画像切替操作として受け付け、画像切替指示を画像生成部40に供給する。画像生成部40において、第1画像生成部42は画像切替指示にもとづいて、ゲーム進行を一時停止させる。同時に第2画像生成部44は画像切替指示にもとづいて、第1画像生成部42が生成したゲーム画像に代えてHMD100に表示されるシステムメニュー画像を生成する。
図6は、第2画像生成部44が生成する矩形状のシステムメニュー画像の一例を示す。第2画像生成部44は、上段のシステムエリアに、情報処理装置10が提供する複数のシステム機能を示す複数のアイコンを配置する。また第2画像生成部44は、中段のアイコンエリアに、記憶装置13に記憶されたコンテンツのアイコンを並べる。システムメニュー画像は従来型のゲームシステムにおいて使用されているシステムメニュー画像と同じであってよい。第2画像生成部44は、システムメニュー画像を生成し、画像提供部50は、システムメニュー画像をHMD100に提供する。
図7は、HMD100に表示されるシステムメニュー画像の一例を示す。
第2画像生成部44は、システムメニュー画像を配置した仮想3次元空間を構築する。第2画像生成部44は、仮想3次元空間におけるユーザの視点位置に対して、第1方向にシステムメニュー画像の横方向中央部分が位置するように、仮想3次元空間にシステムメニュー画像を配置する。ここで第1方向は、受付部34が画像切替操作を受け付けたときのユーザの視線方向に設定される。このとき第2画像生成部44は、第1方向が矩形状のシステムメニュー画像の中心に直交するように、仮想3次元空間にシステムメニュー画像を配置することが好ましい。これによりユーザがゲームプレイ中に入力装置16のホームボタンを操作して、ゲーム画像がシステムメニュー画像に切り替わったとき、システムメニュー画像は、ユーザに正対して表示されることになる。つまりゲーム画像の表示中にユーザがホームボタンを操作したとき、システムメニュー画像は常にユーザの正面に表示される。これによりユーザは視線を動かすことなく、入力装置16を用いて、所望のメニュー操作を行うことができる。
図7に示すように、仮想3次元空間において、システムメニュー画像は、1枚の2次元画像として表示される。2次元表現されるシステムメニュー画像を表示パネル130の全体に表示すると、ユーザがシステムメニュー画像を客観視できず、操作しにくくなることが分かっている。そのためシステムメニュー画像は、表示パネル130の全体に表示されるのではなく、表示パネル130よりも狭い画角で表示される。なお空いたスペースは単色で塗りつぶされ、ここではシステムメニュー画像の視認性を高めるために、システムメニュー画像の外側が黒色で塗りつぶされている。
第2画像生成部44は、仮想3次元空間における視点位置に対して、システムメニュー画像を配置した第1方向とは異なる第2方向に、所定の画像を配置する。このとき第2画像生成部44は、第2方向に所定の画像の横方向中央部分が位置するように、仮想3次元空間に所定の画像を配置する。第2方向に配置する画像は、ユーザがプレイしていたゲームに関する画像であってよく、画像切替前にユーザがプレイしていたゲームの状況を思い出させる画像であってよい。第2画像生成部44は、第1画像生成部42から、受付部34が画像切替操作を受け付けたときのゲーム画像のスクリーンショットを提供されて、所定の画像として、画像切替直前のゲーム画像のスクリーンショットを配置してよい。
図8は、仮想3次元空間における各画像の配置を説明するための図である。第2画像生成部44は、視点位置を中心とする仮想球体を形成し、図8は、上方から仮想球体を見た様子を示している。第2画像生成部44は、視点位置からの第1方向ベクトルがシステムメニュー画像200の中心に直交するように、システムメニュー画像200を仮想球体内に配置する。また第2画像生成部44は、視点位置からの第2方向ベクトルがスクリーンショット画像202の中心に直交するように、スクリーンショット画像202を仮想球体内に配置する。
図8に示す配置例において、スクリーンショット画像202は、システムメニュー画像200に対して、反時計回りに90度の位置に配置されている。そのためユーザは、システムメニュー画像200を正対して見ている状態(図7参照)から首を左に90度回転させると、スクリーンショット画像202が表示パネル130に正対して表示されるようになる。
図9は、HMD100に表示されるスクリーンショット画像の一例を示す。
ユーザは、システムメニュー画像をゲーム画像に切り替える際には、入力装置16のホームボタンを再度操作すればよい。ただホームボタンを再操作すると、すぐにゲームが再開されるため、ユーザは一時中断前のゲームの状況をよく覚えていなければ、ただちにゲームに入り込めず、ゲームが不利に進行することが予想される。そこで第2画像生成部44は、仮想3次元空間内にシステムメニュー画像200とは異なる方向にスクリーンショット画像202を配置しておき、ユーザが首を回してHMD100を左に向けると、表示パネル130にスクリーンショット画像202を表示させるようにする。これによりユーザは、一時中断前のゲームの状況を確認でき、支障なくゲームに復帰できるようになる。
このように実施例の情報処理システム1によると、ユーザのゲームプレイ中に、受付部34が画像切替操作を受け付けた後、第2画像生成部44は、視点位置に対してそれぞれ異なる方向に配置したシステムメニュー画像200およびスクリーンショット画像202を含む仮想3次元空間の画像を、視線方向決定部32が定めた視線方向にもとづいて生成する。仮想3次元空間にスクリーンショット画像202を配置することで、仮想3次元空間を有効活用できるとともに、ユーザに有用な情報を提供できるようになる。
図10は、HMD100に表示されるシステムメニュー画像の一例を示す。
図10においては、表示パネル130の左端に、スクリーンショット画像が一部表示されている。図7に示す表示例と比較して、スクリーンショット画像の一部が表示されるか否かは、仮想球体において、システムメニュー画像200に対してスクリーンショット画像202をどの方向に配置するかに依存する。図8に示す配置例では、スクリーンショット画像202は、システムメニュー画像200に対して、反時計回りに90度の位置に配置されているが、反時計回りに45度の位置に配置されると、システムメニュー画像が正対表示される際に、スクリーンショット画像の一部が表示されるようになる。
ユーザは、システムメニュー画像の全体とともにスクリーンショット画像の一部を見ることで、スクリーンショット画像がどこにあるか探す必要がないという利点を享受する。なお同様のことを実現するためには、図7に示す画面例において、第2画像生成部44がスクリーンショット画像の位置を示すインジケータを画面に含めてもよい。インジケータは、たとえば矢印などの向きを示すものであってもよいし、テキストでスクリーンショット画像の表示位置を示すものであってもよい。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施例では、システムメニュー画像が表示された状態からユーザが左を向くことで、表示パネル130にスクリーンショット画像が表示されることを説明した。仮想球体における2つの画像の位置関係は、これに限るものではなく、ユーザが右を向いたとき、上を向いたとき、斜めを向いたときに、スクリーンショット画像が表示されるようにしてもよい。また第2画像生成部44は、仮想球体内にシステムメニュー画像とスクリーンショット画像とを配置することを説明したが、他の画像をさらに配置してもよい。
また第2画像生成部44は、スクリーンショット画像202ではなく、ユーザの視線方向に応じたゲーム画像を表示するようにしてもよい。この場合、画像のフレーム枠の位置は固定とし、視線方向に応じて第1画像生成部42が生成するゲーム画像を、第2画像生成部44がフレーム枠に表示してもよい。たとえばユーザがフレーム枠に表示されているゲーム画像に視線を向けた状態でホームボタンを操作すると、第1画像生成部42が、その視線方向を用いてゲーム画像を生成する。これによりユーザは、フレーム枠に表示されていたゲーム画像からゲームに復帰できるようになる。
1・・・情報処理システム、10・・・情報処理装置、20・・・センサデータ受信部、22・・・撮影画像受信部、24・・・入力データ受信部、30・・・HMD情報取得部、32・・・視線方向決定部、34・・・受付部、40・・・画像生成部、42・・・第1画像生成部、44・・・第2画像生成部、50・・・画像提供部、100・・・HMD。

Claims (5)

  1. ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を示す姿勢情報を取得する取得部と、
    ヘッドマウントディスプレイの姿勢情報に応じて、視線方向を定める視線方向決定部と、
    ヘッドマウントディスプレイに表示される仮想3次元空間のゲーム画像を生成する第1画像生成部と、
    ヘッドマウントディスプレイがゲーム画像を表示しているときに、ユーザから切替操作を受け付ける受付部と、
    前記受付部が切替操作を受け付けると、前記第1画像生成部が生成したゲーム画像に代えてヘッドマウントディスプレイに表示されるシステムメニュー画像を生成する第2画像生成部と、を備え、
    前記第2画像生成部は、仮想3次元空間における視点位置に対して、システムメニュー画像を配置した方向とは異なる方向に、所定の画像を配置し、
    システムメニュー画像および所定の画像のそれぞれは、ヘッドマウントディスプレイの表示パネルよりも小さく表示される、
    ことを特徴とする情報処理装置。
  2. 前記第2画像生成部は、前記受付部が切替操作を受け付けたときの第1方向にシステムメニュー画像の横方向中央部分が位置するように、仮想3次元空間にシステムメニュー画像を配置し、第1方向とは異なる第2方向に所定の画像の横方向中央部分が位置するように、仮想3次元空間に所定の画像を配置する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2画像生成部は、所定の画像として、前記受付部が切替操作を受け付けたときのゲーム画像のスクリーンショットを配置する、
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を示す姿勢情報を取得するステップと、
    ヘッドマウントディスプレイの姿勢情報に応じて、視線方向を定めるステップと、
    ヘッドマウントディスプレイに表示される仮想3次元空間のゲーム画像を生成するステップと、
    ヘッドマウントディスプレイがゲーム画像を表示しているときに、ユーザから切替操作を受け付けるステップと、
    切替操作を受け付けた後、視点位置に対してそれぞれ異なる方向に配置したシステムメニュー画像および所定の画像を含む仮想3次元空間の画像を、定めた視線方向にもとづいて生成するステップとを有する画像生成方法であって、
    システムメニュー画像および所定の画像のそれぞれは、ヘッドマウントディスプレイの表示パネルよりも小さく表示される、
    ことを特徴とする画像生成方法。
  5. コンピュータに、
    ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を示す姿勢情報を取得する機能と、
    ヘッドマウントディスプレイの姿勢情報に応じて、視線方向を定める機能と、
    ヘッドマウントディスプレイに表示される仮想3次元空間のゲーム画像を生成する機能と、
    ヘッドマウントディスプレイがゲーム画像を表示しているときに、ユーザから切替操作を受け付ける機能と、
    切替操作を受け付けた後、視点位置に対してそれぞれ異なる方向に配置したシステムメニュー画像および所定の画像を含む仮想3次元空間の画像を、定めた視線方向にもとづいて生成する機能と、を実現させるためのプログラムであって、
    システムメニュー画像および所定の画像のそれぞれは、ヘッドマウントディスプレイの表示パネルよりも小さく表示される、
    ことを特徴とするプログラム。
JP2016241561A 2016-12-13 2016-12-13 情報処理装置および画像生成方法 Active JP6518645B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016241561A JP6518645B2 (ja) 2016-12-13 2016-12-13 情報処理装置および画像生成方法
US15/805,375 US10369468B2 (en) 2016-12-13 2017-11-07 Information processing apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016241561A JP6518645B2 (ja) 2016-12-13 2016-12-13 情報処理装置および画像生成方法

Publications (2)

Publication Number Publication Date
JP2018094086A JP2018094086A (ja) 2018-06-21
JP6518645B2 true JP6518645B2 (ja) 2019-05-22

Family

ID=62488307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241561A Active JP6518645B2 (ja) 2016-12-13 2016-12-13 情報処理装置および画像生成方法

Country Status (2)

Country Link
US (1) US10369468B2 (ja)
JP (1) JP6518645B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003410B2 (en) * 2018-02-13 2021-05-11 SentiAR, Inc. Augmented reality display sharing
KR20200017068A (ko) 2018-08-08 2020-02-18 삼성전자주식회사 외부 객체의 위치의 변화에 따라 외부 객체에 대응하는 아바타를 표시하기 위한 전자 장치
US11195498B2 (en) * 2020-01-15 2021-12-07 Charter Communications Operating, Llc Compensating for latency in a streaming virtual reality environment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
US8108092B2 (en) * 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
JP5635850B2 (ja) * 2010-09-16 2014-12-03 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システムおよび情報処理方法
JP2013258614A (ja) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US9563331B2 (en) * 2013-06-28 2017-02-07 Microsoft Technology Licensing, Llc Web-like hierarchical menu display configuration for a near-eye display
US9728428B2 (en) * 2013-07-01 2017-08-08 Applied Materials, Inc. Single use rinse in a linear Marangoni drier
JP2016115329A (ja) * 2015-05-22 2016-06-23 株式会社コロプラ ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイへ表示するための方法、及びプログラム

Also Published As

Publication number Publication date
US10369468B2 (en) 2019-08-06
JP2018094086A (ja) 2018-06-21
US20180161676A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
JP6511386B2 (ja) 情報処理装置および画像生成方法
US11030771B2 (en) Information processing apparatus and image generating method
US10627628B2 (en) Information processing apparatus and image generating method
WO2018051815A1 (ja) 情報処理装置および方法、並びにプログラム
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
JP6576536B2 (ja) 情報処理装置
JP6518578B2 (ja) 表示制御装置及び表示制御方法
JP2017162309A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6615732B2 (ja) 情報処理装置および画像生成方法
WO2019039378A1 (ja) 情報処理装置および画像表示方法
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
JP6518645B2 (ja) 情報処理装置および画像生成方法
US10319346B2 (en) Method for communicating via virtual space and system for executing the method
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
KR20200115631A (ko) 멀티뷰잉 가상 현실 사용자 인터페이스
JP2018170013A (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP6921204B2 (ja) 情報処理装置および画像出力方法
WO2022255058A1 (ja) 情報処理装置および画像生成方法
JP6705929B2 (ja) 表示制御装置及び表示制御方法
JP2017162443A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP2024031113A (ja) 情報処理装置および画像生成方法
JP2024031114A (ja) 情報処理装置および画像生成方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R150 Certificate of patent or registration of utility model

Ref document number: 6518645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250