JP6706473B2 - 情報処理装置、表示制御方法、及び表示制御プログラム - Google Patents

情報処理装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
JP6706473B2
JP6706473B2 JP2015181213A JP2015181213A JP6706473B2 JP 6706473 B2 JP6706473 B2 JP 6706473B2 JP 2015181213 A JP2015181213 A JP 2015181213A JP 2015181213 A JP2015181213 A JP 2015181213A JP 6706473 B2 JP6706473 B2 JP 6706473B2
Authority
JP
Japan
Prior art keywords
user
virtual space
information
game
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015181213A
Other languages
English (en)
Other versions
JP2017055851A (ja
Inventor
洋輔 相澤
洋輔 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Games Co Ltd
Original Assignee
Koei Tecmo Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Games Co Ltd filed Critical Koei Tecmo Games Co Ltd
Priority to JP2015181213A priority Critical patent/JP6706473B2/ja
Priority to US15/262,065 priority patent/US10029176B2/en
Publication of JP2017055851A publication Critical patent/JP2017055851A/ja
Application granted granted Critical
Publication of JP6706473B2 publication Critical patent/JP6706473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報処理装置、表示制御方法、及び表示制御プログラムに関する。
従来では、HMD(Head Mounted Display)やFMD(Face Mounted Display)等の装着型の情報表示装置が普及し始めている。このような情報表示装置を装着することで、拡大光学系により視界全体に画像や映像を表示したり、VR(Virtual Reality、仮想現実)技術により、仮想空間上にいるような視界を提供することができる。
また、近年では、上述した情報表示装置を、ゲーム機器等にも装備し、仮想空間上でのゲームに参加しているような感覚をユーザに与えることで、ゲームへの没入感を向上させることで、娯楽性を向上させる方向で検討されている。例えば、操作対象のキャラクタの移動については、コントローラによる移動だけでなく、ユーザ(プレイヤー)のモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算し、モーション入力情報を、キャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させる手法が存在する(例えば、特許文献1参照)。
特開2012−212237号公報
しかしながら、上述した従来手法では、カメラによって、ユーザの頭部の動きを検出し、その検出結果に応じて仮想空間映像を移動させたり、キャラクタの体全体を動作させるものであり、ユーザの顔の向きや目の動きに応じて、仮想空間上のキャラクタの顔の向きや目の動きを動作させるものではなかった。また、上記のような仮想空間上のキャラクタの顔の向きや目の動きを、同じ仮想空間上に存在する他のキャラクタを操作する他のユーザに通知する手法も存在していなかった。そのため、お互いの頭部の動きや視線によるコミュニケーションが取れず、現実世界に近い体験をすることができなかった。
本発明は、上述した課題に鑑みてなされたものであって、ユーザの実際の動作に対応させて仮想空間上のキャラクタを適切に動作させることを目的とする。
本発明の一つの態様として、情報処理装置が、第1ユーザの頭部に装着される情報表示装置を装着した前記第1ユーザの頭部及び目の動作情報から計測された視線方向に対応させて、ゲームにおける仮想空間上で前記第1ユーザの操作によって動作する第1オブジェクトの視線方向を制御し、前記ゲームにおける当該仮想空間上で第2ユーザの操作によって動作する第2オブジェクトの視線方向を制御する手段と、
記第1オブジェクトの前記ゲームにおける当該仮想空間上での視線方向と、前記第2オブジェクトの前記ゲームにおける当該仮想空間上での視線方向とに基づいたオブジェクトを、前記情報表示装置に表示させる手段とを有する。
本発明によれば、ユーザの実際の動作に対応させて仮想空間上のキャラクタを適切に動作させることができる。
第1の実施形態における情報処理装置の機能構成の一例を示す図である。 第1の実施形態における情報処理装置のハードウェア構成の一例を示す図である。 第1の実施形態における表示制御処理の一例を示すフローチャートである。 第1の実施形態における表示制御された画面例を示す図である。 第2の実施形態における情報処理システムの機能構成の一例を示す図である。 第2の実施形態におけるサーバの機能構成の一例を示す図である。 第2の実施形態における情報処理装置側の表示制御処理の一例を示すフローチャートである。 第2の実施形態におけるサーバ側の表示制御処理の一例を示すフローチャートである。
以下、図面に基づいて実施形態を説明する。なお、以下の説明では、本実施形態の一態様として、所定のゲームプログラム(コンテンツの一例)等により提供される同一の仮想空間上に複数のユーザ(プレイヤー)がそれぞれ操作する複数のキャラクタが存在する場合の例について説明するが、仮想空間は、ゲームプログラムにより提供されるものに限定されるものではなく、また同一仮想空間上に一人のキャラクタのみが存在する場合にも適用することができる。
<第1の実施形態>
<情報処理装置の機能構成例>
図1は、第1の実施形態における情報処理装置の機能構成の一例を示す図である。図1に示す情報処理装置10は、通信手段11と、記憶手段12と、視線方向計測手段13と、焦点距離計測手段14と、オブジェクト表示制御手段15と、画面生成手段16と、制御手段17とを有する。なお、情報処理装置10は、例えばゲーム機器やPC(Personal Computer)、タブレット端末等であるが、これに限定されるものではない。
通信手段11は、外部装置と有線又は無線により接続され、データの送受信を行う。通信手段11には、図1に示すように、情報表示装置(情報表示手段)の一例としての複数のHMD21−1,21−2(以下、必要に応じて「HMD21」という)と、操作装置(操作手段)の一例としての複数のコントローラ22−1,22−2(以下、必要に応じて「コントローラ22」という)とが接続されている。つまり、第1の実施形態は、1台の情報処理装置に複数のHMD21及びコントローラ22が接続され、それぞれを複数のユーザに割り当てることで、いわゆる「2人同時プレイ(2Pプレイ)」、「3人同時プレイ(3Pプレイ)」等を実現するものである。
なお、通信手段11に接続されるHMD21及びコントローラ22の数については、1以上であればよく、これに限定されるものではない。各ユーザは、1つのHMD21を頭部に装着し、1つのコントローラ22等を用いて各種指示、操作等を行う。
HMD21は、例えば、眼鏡やゴーグル、ヘルメットのように、ユーザの頭部に装着可能な形状をした表示装置(装着型の情報提示装置)である。頭部に装着すると左右の目のすぐ前に画面が一つずつセットされる。単に画像を表示するだけでなく、左右のディスプレイに少しずつ違った映像を表示することで立体感を表現することができる。また、HMD21は、装着者の頭部の移動に応じて画面を変化させることで、仮想空間上の視界を提供することができる。
また、HMD21は、単位時間毎に頭部の位置、顔の向き、加速度(速度も含む)に関する情報を検知し、その内容を情報処理装置10に送信してもよい。また、HMD21は、目の位置を検出する内向きのカメラ(撮像手段)等を設け、単位時間毎にユーザの目(黒目)の位置、方向から視点(注視点)を検出し、その内容を情報処理装置10に送信してもよい。
また、HMD21は、ユーザの発汗量を検知するセンサや体温を検知する体温センサ、心拍数を検知する心拍数検知センサを有していてもよく、これらの各センサから得られた情報のうち、少なくとも1つを情報処理装置10に送信してもよい。
コントローラ22は、HMD21に表示する映像の設定や、本実施形態における表示制御処理における各種設定を行う。また、情報処理装置10がゲーム機器である場合には、コントローラ22は、ゲームの開始や終了、項目の選択、ゲーム実行時における動作制御等を行う。
また、通信手段11は、例えば、インターネットやLAN(Local Area Network)等に代表される通信ネットワークにより接続される外部装置とデータの送受信が可能な状態で接続され、例えば外部装置からゲームプログラムをダウンロードしたり、本実施形態における表示制御プログラムに関する各種データを受信したり、送信したりすることができる。
記憶手段12は、本実施形態における表示制御処理に必要な各種データを記憶する。例えば記憶手段12は、本実施形態におけるゲームプログラム等を実行するための各種設定情報や、HMD21から取得したユーザの頭部の位置、顔の向き、視点等の情報等を記憶するが、記憶する内容については、これに限定されるものではない。
視線方向計測手段13は、HMD21から得られる単位時間毎のユーザの頭部又は目の動作等の情報から、HMD21の画面に表示されている仮想空間に対する視線方向を計測する。
例えば、視線方向計測手段13は、各HMD21に設けられた位置センサ、姿勢センサ、加速度センサにより、ユーザの頭部(顔)の位置、姿勢(向き)、加速度等を取得し、現時点における各ユーザの頭部の位置、顔の向きはどこにあるか、又は頭部がどの方向にどの程度の速度で移動中であるか等の情報を、現時点において、各HMD21の画面に表示している仮想空間に対応付けた動作情報(頭部動作情報)として取得する。また、視線方向計測手段13は、各HMD21に設けらた内向きのカメラ(撮像手段)等から撮影されたユーザの左右の目付近の画像を解析し、その左右の黒目の位置、向き、大きさ等から得られる視点(注視点)情報(目動作情報)を、仮想空間に対応付けた情報として取得する。視線方向計測手段13は、上述した頭部動作情報及び目動作情報に基づいて、視線方向を計測する。視線方向とは、例えば各ユーザがHMD21の画面に表示された仮想空間上のどこに視線を向けているかの情報であるが、これに限定されるものではなく、例えば仮想空間に対応付けていない現時点での視線方向であってもよい。
焦点距離計測手段14は、各HMD21から得られる視点(注視点)から、各HMD21の画面に表示されている仮想空間に対する焦点距離を計測する。例えば、焦点距離計測手段14は、例えば、HMD21から得られる頭部動作情報及び目動作情報等に基づいて、仮想空間上における焦点距離を計測する。例えば、頭部の向き及び黒目の位置の先(視線先)に建物等のオブジェクトがあれば、操作対象のキャラクタからその建物までの距離が焦点距離となる。また、上記の視線先に他のキャラクタがいれば、その他のキャラクタまでの距離が焦点距離となる。
ここで、焦点距離とは、例えば数値(例えば、焦点距離3m、15m等)の情報であってもよく、また「近くを見ている(近距離)」、「遠くを見ている(遠距離)」等の大まかな遠近情報であってもよい。また、焦点距離計測手段14は、例えば顔の向きが、基準位置より上を向いている場合には、遠くの方を見ている可能性が高いと判断し、焦点距離を「遠距離」として計測してもよい。
オブジェクト表示制御手段15は、視線方向計測手段13及び焦点距離計測手段14のうち、少なくとも1つにより得られた各種情報に基づいて、HMD21の画面に表示された仮想空間上に存在する操作対象のオブジェクトの顔の向き及び視線方向を調整する。ここで、オブジェクトとは、キャラクタ、アバター等であるが、これに限定されるものではない。また、オブジェクトは、人物のキャラクタ等に限定されず、例えば動物、魚、花、虫、妖怪、モンスター、ロボット等、仮想空間上で動作可能な物体であればよい。
オブジェクト表示制御手段15は、例えば各ユーザそれぞれが操作する対象のキャラクタ(オブジェクトの一例)に対する現在の頭部(顔)の向き及び視点の中心に対し、視線方向計測手段13及び焦点距離計測手段14から得られる視線方向及び焦点方向のうち、少なくとも1つに対するずれの情報を検出し、ずれがなくなるようにキャラクタの顔の向き、視線、焦点のうち、少なくとも1つの情報を反映させた表示制御を行う。
なお、オブジェクト表示制御手段15は、焦点距離計測手段14により得られる焦点距離に基づく各キャラクタの表示制御を行わなくてもよく、その場合には、情報処理装置10から焦点距離計測手段14の構成を除いてもよい。
画面生成手段16は、例えばHMD21の画面に表示する内容を生成する。例えば、画面生成手段16は、ユーザが実行指示したゲームプログラムが提供する仮想空間を表示し、その仮想空間上に、各ユーザが操作するそれぞれのキャラクタを合成した映像を生成する。各キャラクタは、オブジェクト表示制御手段15から得られる表示制御情報に基づいて、頭部(顔)の向き、視線、焦点等を変更する。
また、画面生成手段16は、視線方向計測手段13及び焦点距離計測手段14により得られた各種情報(視点方向、焦点距離等)に基づいて、仮想空間の映像の位置、向き(方向)等を移動させてもよい。画面生成手段16により生成された映像は、HMD21により各ユーザに提供される。これにより、第1の実施形態では、仮想空間上で2人以上のプレイヤーが出会った際に、お互いの頭部又は目の動きや、視線によるコミュニケーションが可能になり、より現実世界に近い体験をすることができる。
制御手段17は、情報処理装置10の各構成全体を制御する。制御手段17は、例えば通信手段11による各種装置とのデータの送受信、視線方向計測手段13による視線方向の計測、焦点距離計測手段14による焦点距離の計測、オブジェクト表示制御手段15によるオブジェクト表示制御、画面生成手段16による画面生成等を制御するが、制御内容については、これに限定されるものではない。
例えば、制御手段17は、ゲーム処理の実行の開始や終了を制御したり、ユーザ認証時の処理、エラー発生時の処理等を制御する。また、制御手段17は、ユーザ毎にログイン認証時の処理を行い、認証成功時に、ユーザに対応するゲームの実行や表示制御処理等を行ってもよい。
なお、上述の例では、HMD21と、情報処理装置10とが別体として構成されているが、これに限定されるものではなく、それぞれのHMD21に対して情報処理装置10が一体に構成されていてもよい。その場合、それぞれのHMD21が、情報処理装置10に相当する。また、第1の実施形態では、コントローラ22を設けない構成であってもよい。
<情報処理装置10のハードウェア構成例>
次に、情報処理装置10のハードウェア構成例について、図を用いて説明する。図2は、第1の実施形態における情報処理装置のハードウェア構成の一例を示す図である。図2の例において、情報処理装置(コンピュータ)10は、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、主記憶装置35と、CPU(Central Processing Unit)36と、通信制御装置37とを有し、これらはシステムバスBで相互に接続されている。
入力装置31は、例えばユーザ等が操作するキーボード及びマウス等のポインティングデバイスや、マイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。入力装置31は、上述したコントローラ22等の操作デバイスでもよい。
出力装置32は、本実施形態における処理を行うためのコンピュータ本体(情報処理装置10)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置32は、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。出力装置32は、上述したHMD21等の情報表示装置でもよい。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体38等により提供される。記録媒体38は、ドライブ装置33にセット可能である。CPU36からの制御信号に基づき、記録媒体38に格納された実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。
補助記憶装置34は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージ手段等である。補助記憶装置34は、CPU36からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置34は、CPU36からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。主記憶装置35は、ROM(Read Only Memory)やRAM(Random Access Memory)等である。
CPU36は、OS(Operating System)等の制御プログラム、及び主記憶装置35に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置34から取得することができ、また実行結果等を格納することもできる。
具体的には、CPU36は、例えば入力装置31から得られるプログラムの実行指示等に基づき、補助記憶装置34にインストールされたプログラムを実行させることにより、主記憶装置35上でプログラムに対応する処理を行う。例えば、CPU36は、表示制御プログラムを実行させることで、通信手段11による各種装置とのデータの送受信、視線方向計測手段13による視線方向の計測、焦点距離計測手段14による焦点距離の計測、オブジェクト表示制御手段15によるオブジェクト表示制御、画面生成手段16による画面生成等の処理を行う。CPU36における処理内容は、これに限定されるものではない。CPU36により実行された内容は、必要に応じて補助記憶装置34等に記憶される。
通信制御装置37は、上述した通信ネットワークを介して、他の外部装置との通信を行う。通信制御装置37は、CPU36からの制御信号に基づき、通信ネットワーク等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、通信制御装置37は、プログラムを実行することで得られた実行結果を外部装置等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体38は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体38は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図2に示すハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における各種ゲーム処理、表示制御処理等を実現することができる。また、記録媒体38にインストールされているゲームプログラムを実行させることで、HMD21にゲーム画面を表示させて、ユーザの操作によりゲームを実行することができる。
<第1の実施形態における表示制御処理>
次に、第1の実施形態における表示制御処理について説明する。図3は、第1の実施形態における表示制御処理の一例を示すフローチャートである。図3の例において、情報処理装置10の通信手段11は、ゲーム実行指示を受け付ける(S01)。次に、画面生成手段16は、仮想空間上に各ユーザが操作する対象のキャラクタを表示する(S02)。
次に、情報処理装置10は、HMD21により各ユーザの頭部の位置や向き等の頭部動作情報、及びユーザの黒目の向き等の目動作情報を取得する(S03)。次に、視線方向計測手段13は、取得した頭部動作情報及び目動作情報から仮想空間上における視線方向を計測する(S04)。また、焦点距離計測手段14は、取得した頭部動作情報及び目動作情報から仮想空間上における焦点距離を計測する(S05)。なお、上述したS04及びS05の処理は、必要に応じて何れかを省略してもよい。
次に、オブジェクト表示制御手段15は、計測した計測方向及び焦点距離のうち、少なくとも1つに基づき、それぞれのキャラクタの視線(顔の向き、焦点距離等)を調整する制御を行う(S06)。次に、画面生成手段16は、S06の処理により調整した各キャラクタを仮想空間上に合成して画面を生成し(S07)、各ユーザが装着するHMD21に生成画面を表示する(S08)。この処理により、各ユーザは、自己が操作するキャラクタの顔の向きや焦点距離だけでなく、他のユーザが操作するキャラクタの顔の向きや焦点距離も映像に反映されるため、キャラクタの視線をより現実的に把握することできる。
次に、情報処理装置10の制御手段17は、処理を終了するか否かを判断し(S09)、処理を終了しない場合(S09において、NO)、S03の処理に戻る。また、制御手段17は、ユーザ指示やゲームの終了等によりゲームを終了する場合(S09において、YES)、処理を終了する。
上述したように、第1の実施形態では、仮想空間上で2人以上のユーザ(プレイヤー)が出会った際に、お互いの頭の動きや視線によるコミュニケーションが可能になり、より現実世界に近い体験をすることができる。
<表示制御された画面例>
図4は、第1の実施形態における表示制御された画面例を示す図である。図4(A),(B)の例では、2人のユーザ40−1,40−2が、それぞれHMD21−1,21−2を装着している。同一のゲームプログラムの実行により、HMD21−1,21−2の画面50−1,50−2には、同一の仮想空間60が存在している。それぞれの仮想空間60には、ユーザ40−1が操作する対象のキャラクタ(オブジェクトの一例)61と、ユーザ40−2が操作する対象のキャラクタ(オブジェクトの一例)62とが、仮想空間60上に合成表示されている。
ここで、第1の実施形態において、図4(A)に示すように、ユーザ40−1が操作するキャラクタ61の前に、他のユーザ(ユーザ40−2)が操作するキャラクタ62と、扉等のオブジェクト63が表示されている。このような場合、ユーザ40−1が、頭部をキャラクタ62側に向けると、その頭の向き(頭部動作情報)、目(黒目)の向き(目動作情報)等をHMD21が検出し、キャラクタ61の頭部(視線)が矢印A方向に向く。
これにより、ユーザ40−2は、図4(B)に示すように、画面50−2に表示される仮想空間60上にいる他のキャラクタ61が、自己が操作するキャラクタ62を向いていることを知ることができ、キャラクタ61に対し、「向き合う」、「うなずく」、「話かける」、「攻撃を加える」、「逃げる」等の動作又は音声等を用いた各種コミュニケーションを取ることができる。
つまり、第1の実施形態によれば、共通の仮想空間上で、それぞれのユーザの顔の向き、目の動きをキャラクタで再現することによって、より現実に近いコミュニケーションを行うことができる。
また、キャラクタに視線方向を反映させることで、例えば美術館、博物館等のような仮想空間上で、周りから人の視線の集まり具合を見ることができ、人気のある作品等を把握することができる。また、2人以上のグループで一緒に見て回ることで、実際に博物館にいるような楽しみが生まれる。
また、スポーツの観戦席、対戦型ゲームの観戦席、ライブの観覧席等の仮想空間では、それぞれのユーザの注目している選手がキャラクタの視線等から明確になる。
また、第1の実施形態によれば、他のユーザが見ている視線方向が明確になることにより、例えば対戦型ゲーム等で、キャラクタ同士が遭遇した際に、視線による駆け引きを行うことができる。例えば、対戦型ゲームにおいては、あえて相手に視線を合わせていない状態を再現できる。相手には視線を向けられていない状態が見えるため、相手プレイヤーの油断を誘う戦略を取ることができる。
また、キャラクタの視点に基づいて画像を生成するFPS(First Person Shooting)ゲームの場合に、持っている武器とは、別の方向を見ている状態を再現できる。例えば、多人数プレイにおいて、他人のキャラクタを攻撃しながら、次に攻撃するキャラクタの方向を見た場合に、相手に威圧感(プレッシャー)を与えることができる。また、見られた側も明確に「見つかった」という体感を得ることができ、「逃げる」又は「先に攻撃を仕掛ける」といった戦略を取ることができる。
また、チーム協力型ゲーム等においては、キャラクタ同士で、首を上下して頷いたり、目線を合わせることでアイコンタクトを取ることができる。
また、顔の向きだけでなく、その見ている距離(焦点距離)の情報もキャラクタに反映させることで、例えば、複数のキャラクタが視線上に直線に並んでいる場合に、どのキャラクタを対象にしているか等を判別することができる。また、FPSゲーム等では、金網や窓の向こう側の景色、物体等を見ていることを判別することができる。なお、仮想空間上に鏡等のオブジェクトが存在し、その鏡に物体が写っていたとしても、焦点距離と鏡までの距離との差が、予め設定された閾値以上であれば、注視している対象が、鏡ではなく、その鏡に映っている物体であるこを判別することができる。
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態では、複数の情報処理装置10が通信ネットワークを介して、サーバ等にアクセスし、サーバが提供する仮想空間を複数の情報処理装置10間で共有する場合(いわゆる、多人数同時プレイ)について説明する。
<情報処理システムの機能構成例>
図5は、第2の実施形態における情報処理システムの機能構成の一例を示す図である。図5に示す情報処理システム100は、サーバ110と、1又は複数の情報処理装置10−1〜10−n(以下、必要に応じて「情報処理装置10」という)とを有し、サーバ110と、情報処理装置10とは、インターネットやLAN等に代表される通信ネットワーク120により、データの送受信が可能が状態で接続されている。
サーバ110は、接続された1又は複数の情報処理装置10に対して、認証処理を行い、認証に成功した情報処理装置10に対して所定のゲームプログラムに基づく仮想空間用情報を提供する。このとき、サーバ110は、認証に成功したユーザが操作する対象のキャラクタ及び他のキャラクタによって操作されるキャラクタを仮想空間上に合成し、合成した画像(映像)を接続中の情報処理装置10に提供する。サーバ110は、例えば汎用のPCやサーバ等であるが、これに限定されるものではなく、例えば一以上の情報処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバであってもよい。
情報処理装置10は、上述した第1の実施形態における情報処理装置と同様の構成を有するため、ここでの具体的な説明は省略する。情報処理装置10は、HMD21を装着し、コントローラ22を操作する1又は複数のユーザに、サーバ110から取得した仮想空間及び操作する対象のキャラクタの動き等をHMD21の画面に表示する。
<サーバ110の機能構成例>
ここで、上述したサーバ110の機能構成について、図を用いて説明する。図6は、第2の実施形態におけるサーバの機能構成の一例を示す図である。図6の例において、サーバ110は、認証手段111と、仮想空間用情報提供手段112と、合成手段113と、記憶手段114とを有する。記憶手段114は、コンテンツ格納手段114−1と、管理情報格納手段114−2とを有するが、記憶する内容については、これに限定されるものではない。
認証手段111は、通信ネットワーク120を介してアクセスしてきた情報処理装置10に対するユーザ認証を行う。認証手段111は、例えば予め設定されたユーザ情報(例えば、ユーザID、パスワード)と、情報処理装置10から入力されたユーザ情報とを照合し、一致するユーザ情報がある場合には、その後のアクセス(例えば、ゲーム実行等)を許可し、一致するユーザがない場合には、その旨のメッセージを情報処理装置10に出力する。なお、認証手段111は、新規ユーザ登録の実行を促す情報を情報処理装置10に出力してもよく、再度ユーザ情報の入力を促す情報を情報処理装置10に出力してもよい。
仮想空間用情報提供手段112は、認証手段111により認証が許可された情報処理装置10を使用する各ユーザが互いにコミュニケーションを行う仮想空間用情報を提供する。仮想空間用情報は、コンテンツ格納手段114−1に格納された1又は複数のゲームプログラムのうち、ユーザが指定したゲームプログラムに対応して生成される仮想空間等の情報であり、HMD21の画面に上述した仮想空間を表示させるための情報である。なお、仮想空間用情報提供手段112は、最初にユーザ認証等を行い、認証に成功したユーザ(情報処理装置10)に対してのみ、仮想空間用情報の提供を行う。なお、同一(共通)の仮想空間を提供するユーザや各ユーザ毎のログ情報等については、管理情報格納手段114−2により管理され、各ユーザの現時点での同一のゲームに対するログイン状態に応じて、同期させた仮想空間を提供する。
合成手段113は、仮想空間用情報提供手段112により提供される仮想空間上にユーザが操作する対象のキャラクタを合成する。このとき、合成手段113は、各情報処理装置10から得られる各ユーザの視線方向、焦点距離等基づいて、提供する仮想空間上における各キャラクタの視線(顔の位置、向き)や焦点等を変更する。
合成手段113は、合成された画像を各情報処理装置10に送信し、各ユーザが装着したHMD21により、合成画像を表示させる。
なお、上述した第2の実施形態におけるサーバ110及び情報処理装置10のハードウェア構成については、上述した図2に示す構成と同様の構成を用いることができるため、ここでの具体的な説明は省略する。また、第2の実施形態においてもサーバ110又は情報処理装置10のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して第2の実施形態における各種ゲーム処理、表示制御処理等を実現することができる。
<第2の実施形態における表示制御処理>
次に、第2の実施形態における表示制御処理について説明する。なお、第2の実施形態における表示制御処理は、情報処理装置10側の処理と、サーバ110の処理とに分かれるため、それぞれ分けて説明する。
<情報処理装置10側の処理>
図7は、第2の実施形態における情報処理装置側の表示制御処理の一例を示すフローチャートである。図7の例において、情報処理装置10は、サーバ110へユーザ認証を行う(S11)。ここで、制御手段17は、認証が成功したか否かを判断し(S12)、認証が成功した場合(S12において、YES)、後述するS13〜S19の処理を行う。
具体的には、HMD21によりユーザの頭部動作情報及び目動作情報を取得し(S13)、視線方向計測手段13は、取得した頭部動作情報及び目動作情報から視線方向を計測する(S14)。また、焦点距離計測手段14は、取得した頭部動作情報及び目動作情報から仮想空間上における焦点距離を計測する(S15)。なお、S14及びS15の処理は、必要に応じて何れかを省略してもよい。
次に、通信手段11は、計測した計測方向及び焦点距離のうち少なくとも1つを送信対象とし、ユーザ情報に関連付けてサーバ110に送信する(S16)。また、通信手段11は、サーバ110から仮想空間の情報と、自己のキャラクタと、他ユーザのキャラクタの情報とを合成した合成画像を取得する(S17)。また、画面生成手段16は、取得した画像をHMD21の画面に表示する(S18)。
ここで、制御手段17は、処理を終了するか否かを判断し(S19)、処理を終了しない場合(S19において、NO)、S13の処理に戻る。また、制御手段17は、ユーザ指示やゲームの終了等によりゲームを終了する場合(S19において、YES)、処理を終了する。また、制御手段17は、S12の処理において、認証に失敗した場合(S12において、NO)、認証エラーメッセージを画面等に出力し(S20)、処理を終了する。
<サーバ110側の処理>
次に、サーバ110側における表示制御処理について、図を用いて説明する。図8は、第2の実施形態におけるサーバ側の表示制御処理の一例を示すフローチャートである。図8の例において、サーバ110の認証手段111は、情報処理装置10からのユーザ認証要求を受け付け(S21)、受け付けに対応してユーザ認証を行う(S22)。S22の処理では、予め登録されたユーザ情報(例えば、ユーザID、パスワード)と、情報処理装置10を介して入力されたユーザ情報とを照合して、一致するユーザ情報がある場合に、認証成功と判断し、同一のユーザ情報がない場合に認証失敗と判断する。認証手段111は、認証に成功したか否かを判断し(S23)、認証に成功した場合(S23において、YES)、後述するS24〜S28の処理を行う。
具体的には、仮想空間用情報提供手段112は、認証されたユーザが指示したゲームに参加している他のユーザの情報を取得し(S24)、取得した各ユーザの視線方向及び焦点距離を取得する(S25)。なお、S25の処理では、視線方向及び焦点距離の一方のみを取得してもよい。次に、仮想空間用情報提供手段112は、例えば取得した視線方向及び焦点距離に基づき、各ユーザが操作するキャラクタの視線、焦点を調整する(S26)。次に、合成手段113は、ゲーム上の仮想空間に各キャラクタを合成し(S27)、合成した画像を対象の情報処理装置に送信する(S28)。
ここで、仮想空間用情報提供手段112は、ユーザからゲーム等を終了する指示を受け付けたか否かを判断し(S29)、終了指示を受け付けてない場合(S28において、NO)、S24の処理に戻る。また、仮想空間用情報提供手段112は、S23の処理において、終了指示を受け付けた場合(S29において、YES)、処理を終了する。また、認証手段111は、S23の処理において、認証に失敗した場合(S23において、NO)、認証エラーを情報処理装置10に通知し(S30)、処理を終了する。
上述したように、第2の実施形態によれば、サーバクライアントシステム(サーバ110と情報処理装置10)等のようなオンラインシステムにおいても、仮想空間上で2人以上のユーザ(プレイヤー)が出会った際に、お互いの頭の動きや視線によるコミュニケーションが可能になる。したがって、各ユーザは、より現実世界に近い体験をすることができる。
<まとめ>
上述したように、本発明によれば、ユーザの実際の動作に対応させて仮想空間上のキャラクタを適切に動作させることができる。本実施形態によれば、各ユーザは、自己の視線方向及び焦点距離のうち、少なくとも1つの情報から得られる頭部又は目の動作と、画面上に表示されるゲーム上のキャラクタ(自己が操作するキャラクタ等)の頭部又は目の動作とを連動させることができる。また、本実施形態では、同一のゲームに参加している他のユーザが操作しているキャラクタの頭部や目の動作も他のユーザの動作と連動して画面に表示される。そのため、本実施形態では、仮想空間上で、自分の動きを相手に伝えることができ、他人と容易にコミュニケーションを取ることができる。したがって、より現実世界に近い体験をすることができる。
また、本実施形態によれば、例えば仮想空間上で二人のキャラクタが見つめ合った場合に、ハートマーク(例えば、相手が異性の場合)や火花が散る(例えば、相手が同性又はライバル関係にある場合)ような画像、図柄等を表示させる等の各種のエフェクト効果による演出を行うことができる。また、本実施形態によれば、視線の先にある建物やモンスター等の物体を強調表示させるといった演出を行い、注視しているものを他のプレイヤーと共有化させることができる。なお、本実施形態では、情報表示装置の画面に自己のキャラクタが表示されていなくてもよく、また他人が操作するキャラクタが表示されていなくてもよい。
なお、上述した各実施形態におけるゲームの種類については、レーシングゲームやシューティングゲーム、格闘ゲーム、飛行機シミュレータ、恋愛ゲーム等の多種のゲームにおいて適用することができる。また、ゲームのカテゴリに属しないアプリケーション(プログラム)においても、本実施形態における画像や映像の表示制御処理を適用することができる。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
10 情報処理装置
11 通信手段
12,114 記憶手段
13 視線方向計測手段
14 焦点距離計測手段
15 オブジェクト表示制御手段
16 画面生成手段
17 制御手段
21 HMD(情報表示手段の一例)
22 コントローラ(操作手段の一例)
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 主記憶装置
36 CPU
37 通信制御装置
38 記録媒体
40 ユーザ
50 画面
60 仮想空間
61〜63 オブジェクト
100 情報処理システム
110 サーバ
111 認証手段
112 仮想空間用情報提供手段
113 合成手段

Claims (4)

  1. 第1ユーザの頭部に装着される情報表示装置を装着した前記第1ユーザの頭部及び目の動作情報から計測された視線方向に対応させて、ゲームにおける仮想空間上で前記第1ユーザの操作によって動作する第1オブジェクトの視線方向を制御し、前記ゲームにおける当該仮想空間上で第2ユーザの操作によって動作する第2オブジェクトの視線方向を制御する手段と、
    記第1オブジェクトの前記ゲームにおける当該仮想空間上での視線方向と、前記第2オブジェクトの前記ゲームにおける当該仮想空間上での視線方向とに基づいたオブジェクトを、前記情報表示装置に表示させる手段とを有することを特徴とする情報処理装置。
  2. 前記頭部及び目の黒目の向きの動作情報に基づいて計測された焦点距離を用いて、前記第1オブジェクトの焦点距離を制御することを特徴とする請求項1に記載の情報処理装置。
  3. 情報処理装置が、
    第1ユーザの頭部に装着される情報表示装置を装着した前記第1ユーザの頭部及び目の動作情報から計測された視線方向に対応させて、ゲームにおける仮想空間上で前記第1ユーザの操作によって動作する第1オブジェクトの視線方向を制御し、前記ゲームにおける当該仮想空間上で第2ユーザの操作によって動作する第2オブジェクトの視線方向を制御するステップと、
    記第1オブジェクトの前記ゲームにおける当該仮想空間上での視線方向と、前記第2オブジェクトの前記ゲームにおける当該仮想空間上での視線方向とに基づいたオブジェクトを、前記情報表示装置に表示させるステップとを実行する表示制御方法。
  4. コンピュータ
    第1ユーザの頭部に装着される情報表示装置を装着した前記第1ユーザの頭部及び目の動作情報から計測された視線方向に対応させて、ゲームにおける仮想空間上で前記第1ユーザの操作によって動作する第1オブジェクトの視線方向を制御し、前記ゲームにおける当該仮想空間上で第2ユーザの操作によって動作する第2オブジェクトの視線方向を制御し、
    記第1オブジェクトの前記ゲームにおける当該仮想空間上での視線方向と、前記第2オブジェクトの前記ゲームにおける当該仮想空間上での視線方向とに基づいたオブジェクトを、前記情報表示装置に表示させる処理を実行させる表示制御プログラム。
JP2015181213A 2015-09-14 2015-09-14 情報処理装置、表示制御方法、及び表示制御プログラム Active JP6706473B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015181213A JP6706473B2 (ja) 2015-09-14 2015-09-14 情報処理装置、表示制御方法、及び表示制御プログラム
US15/262,065 US10029176B2 (en) 2015-09-14 2016-09-12 Data processing apparatus and method of controlling display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181213A JP6706473B2 (ja) 2015-09-14 2015-09-14 情報処理装置、表示制御方法、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2017055851A JP2017055851A (ja) 2017-03-23
JP6706473B2 true JP6706473B2 (ja) 2020-06-10

Family

ID=58258297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181213A Active JP6706473B2 (ja) 2015-09-14 2015-09-14 情報処理装置、表示制御方法、及び表示制御プログラム

Country Status (2)

Country Link
US (1) US10029176B2 (ja)
JP (1) JP6706473B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP6220937B1 (ja) * 2016-08-26 2017-10-25 株式会社コロプラ 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6934374B2 (ja) * 2016-08-26 2021-09-15 株式会社コロプラ プロセッサを備えるコンピュータにより実行される方法
US10438393B2 (en) * 2017-03-16 2019-10-08 Linden Research, Inc. Virtual reality presentation of body postures of avatars
WO2018173383A1 (ja) * 2017-03-21 2018-09-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP6918630B2 (ja) * 2017-08-16 2021-08-11 株式会社コロプラ 情報処理方法、プログラム及びコンピュータ
JP2018206339A (ja) * 2017-12-01 2018-12-27 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
JP6970757B2 (ja) 2017-12-26 2021-11-24 株式会社Nttドコモ 情報処理装置
JP7247480B2 (ja) * 2018-07-05 2023-03-29 富士通株式会社 ログ情報収集プログラム、ログ情報収集方法及び情報処理装置
JP6745301B2 (ja) * 2018-07-25 2020-08-26 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム
KR20210107631A (ko) 2018-12-25 2021-09-01 소니그룹주식회사 영상 재생 장치, 재생 방법 및 프로그램
JP7284385B2 (ja) * 2019-03-25 2023-05-31 株式会社Mixi オブジェクト姿勢制御プログラムおよびオブジェクト姿勢制御システム
JP7547504B2 (ja) 2020-12-10 2024-09-09 マクセル株式会社 表示装置および表示方法
JP2022102913A (ja) * 2020-12-25 2022-07-07 株式会社コナミデジタルエンタテインメント ゲームシステム、それに用いるコンピュータプログラム、及び制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3771989B2 (ja) * 1997-03-24 2006-05-10 オリンパス株式会社 画像音声通信システムおよびテレビ電話送受信方法
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
JP2012212237A (ja) * 2011-03-30 2012-11-01 Namco Bandai Games Inc 画像生成システム、サーバシステム、プログラム及び情報記憶媒体
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
JP5539945B2 (ja) * 2011-11-01 2014-07-02 株式会社コナミデジタルエンタテインメント ゲーム装置、及びプログラム
JP2013175929A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報出力装置、及び情報出力方法
US9996975B2 (en) * 2014-03-18 2018-06-12 Dreamworks Animation L.L.C. Interactive multi-rider virtual reality ride system

Also Published As

Publication number Publication date
US20170076486A1 (en) 2017-03-16
JP2017055851A (ja) 2017-03-23
US10029176B2 (en) 2018-07-24

Similar Documents

Publication Publication Date Title
JP6706473B2 (ja) 情報処理装置、表示制御方法、及び表示制御プログラム
US11568604B2 (en) HMD transitions for focusing on specific content in virtual-reality environments
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
JP6700463B2 (ja) ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法
US10857455B2 (en) Spectator management at view locations in virtual reality environments
US11389726B2 (en) Second screen virtual window into VR environment
US10388071B2 (en) Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
EP3003122B1 (en) Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US11833430B2 (en) Menu placement dictated by user ability and modes of feedback
US20180357817A1 (en) Information processing method, program, and computer
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US20180356880A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US20180348987A1 (en) Method executed on computer for providing virtual space, program and information processing apparatus therefor
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
US20180348531A1 (en) Method executed on computer for controlling a display of a head mount device, program for executing the method on the computer, and information processing apparatus therefor
US20180239420A1 (en) Method executed on computer for providing virtual space to head mount device, program for executing the method on the computer, and computer apparatus
JP6441517B1 (ja) プログラム、情報処理装置、および方法
JP2019179434A (ja) プログラム、情報処理装置、及び情報処理方法
JP7440401B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP7386948B2 (ja) プログラム、方法および情報処理装置
JP2019166325A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019033894A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200518

R150 Certificate of patent or registration of utility model

Ref document number: 6706473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250