JP2019149133A - 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム - Google Patents
情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム Download PDFInfo
- Publication number
- JP2019149133A JP2019149133A JP2018035240A JP2018035240A JP2019149133A JP 2019149133 A JP2019149133 A JP 2019149133A JP 2018035240 A JP2018035240 A JP 2018035240A JP 2018035240 A JP2018035240 A JP 2018035240A JP 2019149133 A JP2019149133 A JP 2019149133A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- display
- information processing
- posture
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 63
- 230000008859 change Effects 0.000 claims abstract description 88
- 239000013598 vector Substances 0.000 description 112
- 230000004048 modification Effects 0.000 description 65
- 238000012986 modification Methods 0.000 description 65
- 238000000034 method Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 34
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 7
- 206010034719 Personality change Diseases 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 101100308578 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) RSF2 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
以下、本発明の実施形態を説明する。
以下、図1乃至図10を参照しつつ、本実施形態に係るヘッドマウントディスプレイ1(以下、「HMD1」と称する)の概要の一例について説明する。
まず、図1及び図2を参照しつつ、HMD1の構成と、HMD1の利用イメージと、について説明する。
端末装置10(「情報処理装置」の一例)は、画像を表示するための表示部12を備える。本実施形態では、端末装置10としてスマートフォンを採用する場合を、一例として想定する。但し、端末装置10は、HMD1に設けられるための専用の表示デバイスであってもよい。
図1に示すように、装着具90は、HMD1をユーザUの頭部に装着するための一対のテンプル91L及び91Rと、端末装置10をHMD1に取り付けるための取付孔92と、ユーザUがHMD1を頭部に装着した場合に、ユーザUの両眼が存在する位置に対応するように設けられた一対の貫通孔92L及び92Rと、を備える。なお、貫通孔92L及び92Rの各々には、レンズが設けられていてもよい。そして、ユーザUが、HMD1を頭部に装着した場合、ユーザUの左眼は、貫通孔92Lを介して、または、取付孔92に設けられたレンズを介して、取付孔92に挿入された端末装置10が具備する表示部12を視認することができ、ユーザUの右目は、貫通孔92Rを介して、または、貫通孔92Rに設けられたレンズを介して、取付孔92に挿入された端末装置10が具備する表示部12を視認することができる。
装置座標系ΣSとは、例えば、HMD1の所定箇所に原点を有し、互いに直交するXS軸、YS軸、及び、ZS軸を有する3軸の直交座標系である。本実施形態では、図2に示すように、ユーザUがHMD1を装着した場合に、+XS方向がユーザUから見て前方方向となり、+YS方向がユーザUから見て左手方向となり、+ZS方向がユーザUから見て上方向となるように、装置座標系ΣSが設定されている場合を、一例として想定する。
以下では、基準時刻t0においてHMD1に固定された装置座標系ΣSを、基準装置座標系ΣS0と称する。また、本実施形態では、基準時刻t0以降の時刻tにおけるHMD1の姿勢を、基準時刻t0におけるHMD1を回転軸WS周りの回転方向QWに角度θWだけ回転させた姿勢として表現する。換言すれば、本実施形態において、基準時刻t0以降の時刻tにおける装置座標系ΣSは、基準装置座標系ΣS0の各座標軸を、回転軸WSの周りに角度θWだけ回転させた座標軸を有する座標系として表現される。
以下、図3乃至図6を参照しつつ、仮想空間SP-V及び仮想カメラCMについて説明する。
また、本実施形態では、一例として、掲示板Bdが、複数の文字からなるメッセージMs(「表示情報」の一例)の一部分を表示可能な場合を想定する。すなわち、本実施形態では、一例として、メッセージMsに含まれる文字数が、掲示板Bdに表示可能な文字数よりも多い場合を想定する。以下では、メッセージMsに含まれる複数の文字のうち、掲示板Bdの表示領域に表示される1または複数の文字を、表示メッセージMdと称する(後述する図10参照)。なお、詳細は後述するが、本実施形態において、HMD1を装着したユーザUは、HMD1の姿勢を変化させることで、メッセージMsのうち表示領域に表示される範囲を変更し、表示メッセージMdの内容を変更するができることとする。
また、以下では、説明の便宜上、図3に示すように、仮想空間SP-Vに固定された座標系である仮想空間座標系ΣVを導入する。ここで、仮想空間座標系ΣVとは、例えば、仮想空間SP-Vの所定箇所に原点を有し、互いに直交するXV軸、YV軸、及び、ZV軸を有する3軸の直交座標系である。
また、以下では、図4に示すように、位置PC-Lと交差し、仮想カメラCM-Lの光軸方向に延在する仮想的な直線を、仮想直線LC-Lと称し、位置PC-Rと交差し、仮想カメラCM-Rの光軸方向に延在する仮想的な直線を、仮想直線LC-Rと称する。また、以下では、位置PCと交差する直線であって、仮想カメラCM-Lの光軸方向を表す単位ベクトルと、仮想カメラCM-Rの光軸方向を表す単位ベクトルとの和により示される方向に延在する仮想的な直線を、仮想直線LC(「仮想線」の一例)と称する。そして、本実施形態では、一例として、仮想カメラCMが位置PCに存在するものと看做し、また、仮想カメラCMの光軸が仮想直線LCであることと看做す。
なお、本実施形態では、一例として、仮想直線LC-Lの延在する方向と、仮想直線LC-Rの延在する方向とが、同一の方向である場合を想定する。このため、本実施形態では、仮想直線LCの延在する方向は、仮想直線LC-L及び仮想直線LC-Rの延在する方向と同一の方向となる。
すなわち、ユーザUは、左眼によりキャラクタ画像GV-Lを視認し、右眼によりキャラクタ画像GV-Rを視認することができる。このため、ユーザUは、後述する図7等に例示するように、表示部12において、キャラクタV等の仮想空間SP-V内に存在する仮想的な物体を、例えば、立体的な物体として、HMD1を装着したユーザUが視認する視認画像GSを視認することが可能となる。ここで、「立体的な物体」とは、仮想的な3次元の空間に配置された物体であればよい。例えば、「立体的な物体」とは、仮想的な3次元の空間に配置された3次元の物体であってもよいし、仮想的な3次元の空間に配置された2次元の物体であってもよい。
本実施形態では、ユーザUがHMD1を装着した場合、+XC方向がユーザUから見て前方方向となり、+YC方向がユーザUから見て左手方向となり、+ZC方向がユーザUから見て上方向となるように、カメラ座標系ΣCが設定されている場合を、一例として想定する。すなわち、本実施形態では、HMD1を装着したユーザUから見て、XC軸がXS軸と同一の方向であり、YC軸がYS軸と同一の方向であり、ZC軸がZS軸と同一の方向である場合を、一例として想定する。また、本実施形態では、XC軸と仮想直線LCとが一致する場合を、一例として想定する。すなわち、本実施形態では、一例として、仮想直線LCが、HMD1を装着したユーザUから見た前方方向に延在する場合を想定する。
ここで、回転軸WCは、一例として、位置PCと交差する直線であって、装置座標系ΣSにおいて回転軸WSの方向を表す単位ベクトルの成分と、カメラ座標系ΣCにおいて回転軸WCの方向を表す単位ベクトルの成分とが、同一となる直線であることとする。また、角度θCは、一例として、角度θWと等しい角度であることとする。
以下では、基準時刻t0におけるカメラ座標系ΣCを、基準カメラ座標系ΣC0と称する。すなわち、時刻tにおけるカメラ座標系ΣCは、基準カメラ座標系ΣC0の各座標軸を、回転軸WCの周りに角度θCだけ回転させた座標軸を有する座標系として表現される。
以下、図7乃至図10を参照しつつ、表示部12に表示される視認画像GSについて説明する。
なお、本実施形態では、説明の便宜上、仮想空間SP-Vにおいて、掲示板Bd、操作オブジェクトOp、キャラクタV、及び、環境構成物Evの位置が変化しない場合を想定する。また、本実施形態では、一例として、仮想カメラCMから掲示板Bdまでの距離と、仮想カメラCMから操作オブジェクトOpまでの距離とが、略同じである場合を想定する。ここで、仮想カメラCMから掲示板Bdまでの距離と、仮想カメラCMから操作オブジェクトOpまでの距離とが、略同じであるとは、例えば、仮想カメラCMから掲示板Bdまでの最短距離と、仮想カメラCMから操作オブジェクトOpまでの最短距離との差分値が、仮想カメラCMから掲示板Bdまでの最短距離と、仮想カメラCMからキャラクタVまでの最短距離との差分値よりも小さく、且つ、仮想カメラCMから掲示板Bdまでの最短距離と、仮想カメラCMから操作オブジェクトOpまでの最短距離との差分値が、仮想カメラCMから操作オブジェクトOpまでの最短距離と、仮想カメラCMからキャラクタVまでの最短距離との差分値よりも小さい場合であってもよい。また、仮想カメラCMから掲示板Bdまでの距離と、仮想カメラCMから操作オブジェクトOpまでの距離とが、略同じであるとは、例えば、仮想カメラCMから掲示板Bdまでの距離が、仮想カメラCMから操作オブジェクトOpまでの距離の、ε倍以上であり、且つ、δ倍以下であることであってもよい(ここで、εは、0.5≦ε≦1を満たす実数。δは、1≦δ≦2を満たす実数)。更に、仮想カメラCMから掲示板Bdまでの距離と、仮想カメラCMから操作オブジェクトOpまでの距離とが、略同じであるとは、例えば、仮想カメラCMから掲示板Bdまでの距離に基づいて、仮想カメラCMから操作オブジェクトOpまでの距離が決定されることであってもよいし、仮想カメラCMから操作オブジェクトOpまでの距離に基づいて、仮想カメラCMから掲示板Bdまでの距離が決定されることであってもよい。
但し、本発明はこのような態様に限定されるものではなく、仮想空間SP-Vにおいて、掲示板Bd、操作オブジェクトOp、キャラクタV、及び、環境構成物Evの位置は変化してもよい。例えば、掲示板Bdは、カメラ座標系ΣCから見て、常に一定の位置に配置されるものであってもよい。すなわち、掲示板Bdは、仮想カメラCMの姿勢変化に応じて、仮想空間座標系ΣVにおける位置を変化させてもよい。また、例えば、操作オブジェクトOpは、カメラ座標系ΣCから見て、常に一定の位置に配置されるものであってもよい。すなわち、操作オブジェクトOpは、仮想カメラCMの姿勢変化に応じて、仮想空間座標系ΣVにおける位置を変化させてもよい。
また、図8に示すように、画面変化例では、時刻t1及び時刻t3の間の時刻t2において、仮想直線LC及び操作オブジェクトOpが、交差を開始する場合を想定する。具体的には、画面変化例では、時刻t2において、仮想直線LC[t2]及び操作オブジェクトOpが、交点KC[t2]で交差し、時刻t3において、仮想直線LC[t3]及び操作オブジェクトOpが、交点KC[t3]で交差している場合を想定する。以下では、時刻tよりも前の時刻(t−1)における交点KC[t-1]を起点として、時刻tにおける交点KC[t]を終点とするベクトルを、ベクトルPL[t-1][t]と称する。なお、図8では、交点KC[t2]を起点とし交点KC[t3]を終点とするベクトルPL[t2][t3]が、ZV軸と垂直である場合を例示している。
また、図9に示すように、画面変化例では、時刻t4において、仮想直線LC[t4]及び操作オブジェクトOpが、交点KC[t4]で交差している場合を想定する。なお、図9では、交点KC[t3]を起点とし交点KC[t4]を終点とするベクトルPL[t3][t4]が、ZV軸と垂直ではない場合を例示している。より具体的には、画面変化例では、ベクトルPL[t3][t4]が、−ZV方向の成分を有する場合を想定する。
例えば、図10に示すように、ベクトルPM[t3][t4]は、メッセージMsにおいて、時刻t3における最終行LMS[t3]から、時刻t4における最終行LMS[t4]を示すベクトルである。
例えば、図9に示すように、ベクトルPM[t3][t4]は、ベクトルPL[t3][t4]からZV軸成分を抽出したベクトルして定められる。
なお、上述の通り、本実施形態において、仮想空間SP-Vにおける掲示板Bdの位置は変化しない。よって、仮想直線LCがベクトルPL[t-1][t]だけ変化することで、最終行LMS[t]が最終行LMS[t-1]から見てベクトルPM[t-1][t]だけ移動した位置であることは、メッセージMsが、仮想空間SP-Vにおいて、ベクトルPM[t-1][t]とは逆向きのベクトル(−PM[t-1][t])だけ移動したこととして把握することができる。
以下、図11及び図12を参照しながら、端末装置10の構成の一例について説明する。
仮想カメラ制御部112は、姿勢情報Bに基づいて、仮想空間SP-Vにおける仮想カメラCMの姿勢を制御する。
画像情報生成部111は、仮想カメラCMによる撮像結果に基づいて、表示画像GHを表す画像情報DSを生成し、当該画像情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる。
表示範囲設定部113は、メッセージMsのうち掲示板Bdの表示領域に表示される表示範囲を設定し、表示領域に対して表示メッセージMdを表示させる。
表示処理進行制御部114は、表示処理の進行を制御する。
Read-Only Memory)等の不揮発性メモリとの、一方または双方を含み、記憶部15として機能する。
プロセッサ1000は、例えば、CPU(Central Processing Unit)であり、メモリ1001に記憶された制御プログラムPRGを実行し、当該制御プログラムPRGに従って動作することで、制御部11として機能する。
角速度センサ1002は、上述の通り、X軸角速度センサ、Y軸角速度センサ、及び、Z軸角速度センサを備え、姿勢情報生成部14として機能する。
表示装置1003及び入力装置1004は、例えば、タッチパネルであり、表示部12及び操作部13として機能する。なお、表示装置1003及び入力装置1004は、別体として構成されていてもよい。また、入力装置1004は、タッチパネル、操作ボタン、キーボード、ジョイスティック、及び、マウス等のポインティングデバイスの一部または全部を含む、1または複数の機器から構成されるものであってもよい。
Processor)、または、FPGA(Field Programmable Gate Array)、等の、ハードウェアを含んで構成されるものであってもよい。この場合、プロセッサ1000により実現される制御部11の一部または全部は、DSP等のハードウェアにより実現されてもよい。
以下、図13を参照しながら、端末装置10の動作の一例について説明する。
具体的には、表示処理進行制御部114は、ステップS100の初期化処理において、仮想空間SP-Vにおける、掲示板Bd、操作オブジェクトOp、環境構成物Ev、及び、キャラクタV等を、仮想空間SP-V内の所定の位置または仮想空間SP-V内のランダムな位置に配置する。また、表示処理進行制御部114は、ステップS100の初期化処理において、仮想空間SP-Vにおける仮想カメラCMの姿勢を、所定の初期姿勢に設定する。また、表示処理進行制御部114は、ステップS100の初期化処理において、掲示板Bdの表示領域に対して、メッセージMsのうち所定の表示範囲が表示されるように、表示メッセージMdの内容を決定する。
なお、表示処理進行制御部114は、ステップS102において、基準時刻t0における装置座標系ΣSを、基準装置座標系ΣS0として定める。また、表示処理進行制御部114は、ステップS102において、HMD1を装着したユーザUから見て、カメラ座標系ΣCの各座標軸の方向が、装置座標系ΣSの各座標軸の方向と等しくなるように、カメラ座標系ΣCを設定する。そして、表示処理進行制御部114は、ステップS102において、基準時刻t0におけるカメラ座標系ΣCを、基準カメラ座標系ΣC0として定める。なお、以下では、基準時刻t0における仮想直線LCを、基準直線LC0と称する。
なお、本実施形態において、仮想カメラ制御部112は、一例として、姿勢変化dBを、基準装置座標系ΣS0から見た回転軸WSと、当該回転軸WS周りの角度θWと、により表現することとする。すなわち、本実施形態において、基準装置座標系ΣS0から見てHMD1が回転軸WS周りに角度θWだけ回転した場合、姿勢変化dBが、基準装置座標系ΣS0における回転軸WSを示す方向ベクトルと、角度θWを示す値と、を含むこととする。
但し、姿勢変化dBは、他の任意の表現方法により表現されるものであってもよい。例えば、姿勢変化dBは、基準装置座標系ΣS0から装置座標系ΣSへの姿勢変化を示す、姿勢変換行列により表現されるものであってもよいし、基準装置座標系ΣS0から装置座標系ΣSへの姿勢変化を示す、クォータニオンにより表現されるものであってもよい。
また、以下では、HMD1が、回転軸WS周りに角度θWだけ回転した場合に、当該角度θWを、「姿勢変化量」と称する場合がある。
具体的には、ステップS108において、仮想カメラ制御部112は、まず、ステップS106で算出した姿勢変化dBの示す回転軸WS及び角度θWに基づいて、回転軸WC及び角度θCを設定する。次に、仮想カメラ制御部112は、カメラ座標系ΣCを、基準カメラ座標系ΣC0を回転軸WC周りに角度θCだけ回転させた座標系として設定することで、仮想カメラCMの姿勢を決定する。すなわち、仮想カメラ制御部112は、ステップS108において、仮想直線LCを、基準直線LC0を回転軸WC周りに角度θCだけ回転させた直線として設定する。
例えば、HMD1が、基準姿勢から、ZS軸周りのヨー方向QZに対して角度θWだけ回転した場合、仮想カメラ制御部112は、カメラ座標系ΣCを、基準カメラ座標系ΣC0をZC軸周りに角度θWだけ回転させた姿勢を有する座標系として決定することで、仮想カメラCMの姿勢を決定する。
また、例えば、HMD1が、基準姿勢から、YS軸周りのピッチ方向QYに対して角度θWだけ回転した場合、仮想カメラ制御部112は、カメラ座標系ΣCを、基準カメラ座標系ΣC0をYC軸周りに角度θWだけ回転させた姿勢を有する座標系として決定することで、仮想カメラCMの姿勢を決定する。
また、例えば、HMD1が、基準姿勢から、XS軸周りのロール方向QXに対して角度θWだけ回転した場合、仮想カメラ制御部112は、カメラ座標系ΣCを、基準カメラ座標系ΣC0をXC軸周りに角度θWだけ回転させた姿勢を有する座標系として決定することで、仮想カメラCMの姿勢を決定する。
なお、表示範囲設定部113は、ステップS110において、仮想カメラCMから見た仮想直線LCの延在方向が、仮想カメラCMから見た操作オブジェクトOpの方向に含まれる(「所定の位置関係を有する場合」の他の例)か否かを判定してもよい。
具体的には、表示範囲設定部113は、ステップS112において、まず、現在の時刻tよりも所定時間だけ前の時刻(t−1)における、仮想直線LC[t-1]及び操作オブジェクトOpの交点KC[t-1]を起点とし、時刻tにおける、仮想直線LC[t]及び操作オブジェクトOpの交点KC[t]を終点とするベクトルPL[t-1][t]を算出する。次に、表示範囲設定部113は、当該ベクトルPL[t-1][t]が、ZV軸成分を有するか否かを判定する。
具体的には、表示範囲設定部113は、ステップS114において、まず、ステップS112で算出したベクトルPL[t-1][t]に基づいて、ベクトルPM[t-1][t]を定める。次に、表示範囲設定部113は、仮想空間SP-Vにおいて、時刻(t−1)におけるメッセージMsを、ベクトル(−PM[t-1][t])だけ移動させることで、時刻tにおけるメッセージMsのうち、掲示板Bdの表示領域に表示される表示範囲を決定する。
以上において説明したように、本実施形態によれば、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpの交点KCがZV軸方向に移動した場合に、メッセージMsのうち掲示板Bdの表示領域に表示される表示範囲を移動させる。つまり、本実施形態によれば、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1を装着したユーザUがHMD1の姿勢をピッチ方向QYに変化させた場合に、メッセージMsのうち掲示板Bdの表示領域に表示される表示範囲を移動させる。
また、本実施形態によれば、仮想カメラ制御部112は、HMD1の姿勢変化dBに基づいて、仮想カメラCMの姿勢を変化させる。つまり、本実施形態によれば、仮想カメラ制御部112は、HMD1を装着したユーザUがHMD1の姿勢を変化させた場合に、仮想空間SP-Vのうち表示部12に表示される範囲を変更する。
このように、本実施形態によれば、HMD1を装着したユーザUは、HMD1の姿勢を変化させることにより、仮想空間SP-Vのうち表示部12に表示される範囲を変更する操作と、メッセージMsのうち掲示板Bdの表示範囲に表示される表示範囲を変更する操作との、両方を実行することが可能となる。このため、本実施形態によれば、HMD1を装着したユーザUは、HMD1の姿勢を変化させることにより、多様な指示を入力することが可能となる。
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
上述した実施形態において、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpの交点KCがZV軸方向に移動することを条件として、メッセージMsのうち掲示板Bdの表示領域に表示される表示範囲を移動させるが、本発明はこのような態様に限定されるものではない。表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpの交点KCがZV軸方向に移動することの他に、所定の移動開始条件(「所定の条件」の一例)が充足された場合に、メッセージMsのうち掲示板Bdの表示領域に表示される表示範囲を移動させてもよい。
なお、本変形例では、移動開始条件が充足された後、仮想直線LC及び操作オブジェクトOpが交差しない状態へと変化する場合、移動開始条件も、充足されない状態へと変化する。つまり、本変形例において、メッセージMsのうち掲示板Bdの表示領域に表示される表示範囲を移動させるためには、仮想直線LC及び操作オブジェクトOpが交差を開始する毎に、移動開始条件を充足させる必要がある。
例えば、図16に例示するように、判定期間が時刻t1に開始され、時刻t5に終了する場合を想定する。この場合、表示範囲設定部113は、判定期間が開始される時刻t1において、ゲージ画像GGの全てを画像GG1で満たす。そして、表示範囲設定部113は、時刻t2→時刻t3→時刻t4と進行するに従って、ゲージ画像GGにおける画像GG2の占める割合を増加させていく。その後、表示範囲設定部113は、判定期間が終了する時刻t5において、ゲージ画像GGの全てを画像GG2で満たす。このため、図16に示す例において、HMD1を装着したユーザUは、ゲージ画像GGにより、判定期間の残り時間を視覚的に把握することができる。
上述した実施形態及び変形例において、表示範囲設定部113は、ベクトルPL[t-1][t]のZV軸成分からなるベクトルを、ベクトルPM[t-1][t]としたが、本発明はこのような態様に限定されるものではない。
例えば、表示範囲設定部113は、ベクトルPL[t-1][t]のZV軸成分からなるベクトルと、ベクトルPL[t-1][t]のYV軸成分からなるベクトルとの、線形結合により表現されるベクトルを、ベクトルPM[t-1][t]としてもよい。
PM[t-1][t] = α*(PL-Z[t-1][t])+β*(PL-Y[t-1][t]) ……(1)
ここで、式(1)に登場する係数α及び係数βは、正の実数である。例えば、係数α及び係数βは、「α=β=1」の関係を満たす実数であってもよい。
次に、表示範囲設定部113は、ステップS300における判定の対象となった交点KCの移動を表すベクトルPL[t-1][t]と、上述した式(1)と、に基づいて、メッセージMsのうち表示領域に表示される表示範囲の移動を示すベクトルPM[t-1][t]を算出する(S302)。
そして、表示範囲設定部113は、ステップS302で算出したベクトルPM[t-1][t]に基づいて、メッセージMsのうち表示領域に表示される表示範囲を移動させる(S304)。
この場合、図19に示すように、メッセージMsのうち時刻t1において表示領域に表示される最終行LMS[t1]から、メッセージMsのうち時刻t2において表示領域に表示される最終行LMS[t2]を示すベクトルPM[t1][t2]は、ZV軸成分及びYV軸成分を有する。従って、表示範囲設定部113は、仮想空間SP-Vにおいて、メッセージMsを、ZV軸方向に移動させるとともに、メッセージMsを、+YV方向または−YV方向(以下、+YV方向及び−YV方向をYV軸方向と総称する)に移動させることができる。
上述した実施形態及び変形例において、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpの交点KCの移動を示すベクトルPLに基づいて、メッセージMsのうち表示領域に表示される表示範囲を移動させるが、本発明はこのような態様に限定されるものではない。
例えば、表示範囲設定部113は、操作オブジェクトOpにおける交点KCの位置に基づいて、メッセージMsのうち表示領域に表示される表示範囲を決定してもよい。
図20に示すように、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpが交差している場合(S110;Y)、仮想直線LC及び操作オブジェクトOpの交点KCの位置を算出する(S400)。
次に、表示範囲設定部113は、ステップS400において算出した交点KCの位置に基づいて、メッセージMsのうち表示領域に表示される表示範囲を設定する(S402)。
なお、図21では、説明の便宜上、交点KCのZV軸方向の位置を、位置Zkと表現する。また、以下では、交点KCが、操作オブジェクトOpの中で、最も+ZV側に位置する場合における、当該交点KCの位置Zkを、位置Zk1と称する。また、以下では、交点KCが、操作オブジェクトOpの中で、最も−ZV側に位置する場合における、当該交点KCの位置Zkを、位置Zk2と称する。
また、図21では、説明の便宜上、メッセージMsにおける位置を表現するためのメッセージ座標系ΣMを導入する。ここで、メッセージ座標系ΣMとは、メッセージMsの所定箇所、または、メッセージMsとの相対的な位置関係が所定の関係となるような位置に、原点が設けられた座標系であって、ZV軸に平行なZM軸と、YV軸に平行なYM軸と、を有する座標系である。
そして、以下では、+ZM方向及び−ZM方向を、ZM軸方向と総称する。また、以下では、説明の便宜上、メッセージMsにおける表示メッセージMdの位置を、位置Zmsと表現する。また、以下では、表示メッセージMdが、メッセージMsの中で、最も+ZM側に位置している場合における、当該表示メッセージMdの位置Zmsを、位置Zms1と称する。また、以下では、表示メッセージMdが、メッセージMsの中で、最も−ZM側に位置している場合における、当該表示メッセージMdの位置Zmsを、位置Zms2と称する。
そして、表示範囲設定部113は、基準時刻t0よりも後の時刻tに、交点KC[t]が位置Zk[t]に位置する場合に、メッセージMsにおける表示メッセージMd[t]の位置Zms[t]を、位置Zk[t]に基づいて定める。例えば、表示範囲設定部113は、位置Zk[t]から位置Zk1までの距離と、位置Zk[t]から位置Zk2までの距離の比が、位置Zms[t]から位置Zms1までの距離と、位置Zms[t]から位置Zms2までの距離の比と等しくなるように、位置Zms[t]を定めてもよい。
上述した実施形態及び変形例1では、メッセージMsのうち表示領域に表示される表示範囲の移動を規定するベクトルPMの長さを、交点KCの移動を示すベクトルPLに基づいて定めるが、本発明はこのような態様に限定されるものではない。
例えば、表示範囲設定部113は、ベクトルPMの長さを、操作オブジェクトOpにおける交点KCの位置と、ベクトルPLと、に基づいて定めてもよい。
図22に示すように、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpの交点KCがZV軸方向に移動した場合(S112;Y)、仮想直線LC及び操作オブジェクトOpの交点KCの位置を算出する(S500)。
次に、表示範囲設定部113は、ステップS500において算出した交点KCの位置と、ステップS112において算出されたベクトルPLと、に基づいて、ベクトルPMの長さ、すなわち、メッセージMsのうち表示領域に表示される表示範囲の移動量を決定する(S502)。
図23では、一例として、操作オブジェクトOpが、領域Ar1と、領域Ar2とに区分されている場合を、想定する。より具体的には、図23では、一例として、操作オブジェクトOpを、YV軸方向に2等分したうえで、左側の領域を領域Ar1とし、右側の領域を領域Ar2としている。
また、図23では、仮想直線LC及び操作オブジェクトOpが、時刻t1において交点KC[t1]で交差し、時刻t2において交点KC[t2]で交差し、時刻t3において交点KC[t3]で交差し、時刻t4において交点KC[t4]で交差する場合を、一例として想定する。また、図23では、交点KC[t1]及び交点KC[t2]が、領域Ar1に位置し、交点KC[t3]及び交点KC[t4]が、領域Ar2に位置する場合を、一例として想定する。また、図23では、交点KC[t1]及び交点KC[t2]の、YV軸方向の位置が等しく、交点KC[t3]及び交点KC[t4]の、YV軸方向の位置が等しく、交点KC[t2]及び交点KC[t3]の、ZV軸方向の位置が等しい場合を、一例として想定する。また、図23では、交点KC[t1]から交点KC[t2]を結ぶベクトルPL[t1][t2]の長さと、交点KC[t3]から交点KC[t4]を結ぶベクトルPL[t3][t4]の長さとが、等しい場合を、一例として想定する。また、以下では、ベクトルPL[t-1][t]のZV軸成分を抽出したベクトルを、ベクトルPL-Z[t-1][t]と称する。
PM[t-1][t] = α1*(PL-Z[t-1][t]) ……(2)
PM[t-1][t] = α2*(PL-Z[t-1][t]) ……(3)
PM[t-1][t] = α3*(PL-Z[t-1][t]) ……(4)
ここで、式(2)乃至式(4)に登場する係数α1、α2、及び、α3は、以下の式(5)を満たす正の実数である。
0<α1<α3<α2 ……(5)
例えば、図23に示す例では、ベクトルPL[t1][t2]とベクトルPL[t3][t4]の長さが等しいのに対して、ベクトルPM[t3][t4]が、ベクトルPM[t1][t2]よりも長くなる。
例えば、操作オブジェクトOpは、3以上の領域に区分されてもよい。この場合、表示範囲設定部113は、ベクトルPL[t-1][t]の起点及び終点の位置する領域に応じて、ベクトルPL[t-1][t]に対応するベクトルPL-Z[t-1][t]の長さを基準とした、ベクトルPM[t-1][t]の長さの比率を決定してもよい。
PM[t-1][t] = γ(Yk)*(PL-Z[t-1][t]) ……(6)
ここで、位置Ykは、交点KCのYV軸方向の位置を表す実数である。
また、関数γ(Yk)は、位置Ykを引数とする関数であり、Yk1>Yk2を満たす任意の実数Yk1及びYk2に対して、以下の式(7)を満たす。
0<γ(Yk1)<γ(Yk2) ……(7)
すなわち、式(6)の例によれば、表示範囲設定部113は、ベクトルPL[t-1][t]の起点及び終点のYV軸方向の位置に応じて、ベクトルPL[t-1][t]に対応するベクトルPL-Z[t-1][t]の長さを基準とした、ベクトルPM[t-1][t]の長さの比率を決定することができる。
上述した実施形態及び変形例において、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpの交点KCの移動速度に基づいて、メッセージMsのうち表示領域に表示される表示範囲の移動速度を決定してもよい。
本変形例によれば、HMD1を装着したユーザUは、メッセージMsのうち所望の表示範囲を、掲示板Bdにおいて迅速に表示させることと、メッセージMsのうち所望の表示範囲を、掲示板Bdにおいて正確な位置に表示させることと、の両立が可能となる。
上述した実施形態及び変形例では、仮想空間SP-Vにおいて、仮想直線LC及び操作オブジェクトOpが交差している場合に、メッセージMsのうち表示領域に表示される表示範囲を変更可能であるが、本発明はこのような態様に限定されるものではない。
例えば、表示範囲設定部113は、仮想直線LC及び掲示板Bdが交差している場合に、メッセージMsのうち表示領域に表示される表示範囲を変更してもよい。すなわち、上述した実施形態及び変形例における操作オブジェクトOpの役割を、掲示板Bdが担ってもよい。
上述した実施形態及び変形例では、仮想直線LC及び操作オブジェクトOpの交点KCの位置、当該交点KCの移動速度、または、当該交点KCの移動量を示すベクトルPLに基づいて、メッセージMsのうち表示領域に表示される表示範囲、メッセージMsのうち表示領域に表示される表示範囲の移動量であるベクトルPM、または、メッセージMsのうち表示領域に表示される表示範囲の移動速度を決定するが、本発明はこのような態様に限定されるものではない。
表示範囲設定部113は、HMD1の基準姿勢からの姿勢変化dBのうち、HMD1の基準姿勢からのロール方向QXに対する回転の角度θXに基づいて、メッセージMsのうち表示領域に表示される表示範囲の移動量であるベクトルPMを決定してもよい。
換言すれば、表示範囲設定部113は、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1が基準姿勢からロール方向QXに対して角度θXだけ回転した場合、掲示板Bdに表示されるメッセージMsの表示内容を、+ZV方向に対して、角度θXに応じた距離だけスライドさせ、また、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1が基準姿勢から逆ロール方向Q− Xに対して角度θXだけ回転した場合、掲示板Bdに表示されるメッセージMsの表示内容を、−ZV方向に対して、角度θXに応じた距離だけスライドさせてもよい。
この例によれば、HMD1を装着したユーザUは、HMD1の姿勢を変化させることにより、多様な指示を入力することが可能となる。
以下では、説明の便宜上、HMD1が、基準姿勢から、ロール方向QXに対して、0度よりも大きく且つ180度よりも小さい範囲で姿勢変化している状態を、「順方向回転状態」と称する。また、以下では、HMD1が、基準姿勢から、逆ロール方向Q− Xに対して、0度よりも大きく且つ180度よりも小さい範囲で姿勢変化している状態を、「逆方向回転状態」と称する。
表示範囲設定部113は、例えば、HMD1が順方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1がロール方向QXに対して更に角度θXだけ回転した場合、ベクトルPMを、角度θXに応じた長さを有する、−ZV方向を向いたベクトルとして定め、また、HMD1が順方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1が逆ロール方向Q− Xに対して更に角度θXだけ回転した場合、ベクトルPMを、長さ「0」としてもよい。この場合、表示範囲設定部113は、例えば、HMD1が逆方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1が逆ロール方向Q− Xに対して更に角度θXだけ回転した場合、ベクトルPMを、角度θXに応じた長さを有する、+ZV方向を向いたベクトルとして定め、また、HMD1が逆方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1がロール方向QXに対して更に角度θXだけ回転した場合、ベクトルPMを、長さ「0」としてもよい。
換言すれば、表示範囲設定部113は、HMD1が順方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1がロール方向QXに対して更に角度θXだけ回転した場合、掲示板Bdに表示されるメッセージMsの表示内容を、+ZV方向に対して、角度θXに応じた距離だけスライドさせ、また、HMD1が順方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1が逆ロール方向Q− Xに対して更に角度θXだけ回転した場合、掲示板Bdに表示されるメッセージMsの表示内容を変化させないこととしてもよい。この場合、表示範囲設定部113は、HMD1が逆方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1が逆ロール方向Q− Xに対して更に角度θXだけ回転した場合、掲示板Bdに表示されるメッセージMsの表示内容を、−ZV方向に対して、角度θXに応じた距離だけスライドさせ、また、HMD1が逆方向回転状態であり、且つ、仮想直線LC及び操作オブジェクトOpが交差している状態において、HMD1がロール方向QXに対して更に角度θXだけ回転した場合、掲示板Bdに表示されるメッセージMsの表示内容を変化させないこととしてもよい。
この例によれば、HMD1を装着したユーザUは、HMD1を順方向回転状態とすることで、掲示板Bdに表示されるメッセージMsの表示内容を、+ZV方向に対して小刻みに変化させることが可能となり、また、HMD1を逆方向回転状態とすることで、掲示板Bdに表示されるメッセージMsの表示内容を、−ZV方向に対して小刻みに変化させることが可能となる。
上述した実施形態及び変形例において、姿勢情報Bは、端末装置10の姿勢変化の検出結果を示すが、本発明はこのような態様に限定されるものではない。姿勢情報Bは、例えば、地上に固定された座標系から見た端末装置10の姿勢を示す情報であってもよい。
この場合、姿勢情報生成部14は、例えば、加速度センサ、及び、地磁気センサの一方または双方を含んで構成されていてもよい。また、この場合、姿勢情報Bは、例えば、HMD1の外部に設けられ、HMD1を撮像する撮像装置から出力される画像を示す情報であってもよい。
上述した実施形態及び変形例において、情報処理装置は、HMD1に設けられるが、情報処理装置は、HMD1とは別個に設けられてもよい。
図24に示すように、情報処理システムSYSは、情報処理装置20と、情報処理装置20と通信可能なヘッドマウントディスプレイ1Aと、を備える。このうち、情報処理装置20は、例えば、制御部11と、操作部13と、記憶部15とを備えてもよい。また、ヘッドマウントディスプレイ1Aは、表示部12と、姿勢情報生成部14とに加え、ヘッドマウントディスプレイ1Aを装着したユーザUによる操作を受け付ける操作部31と、各種情報を記憶する記憶部32と、を備えてもよい。
上述した実施形態及び変形例において、仮想直線LCは、仮想カメラCMの光軸を表すが、本発明はこのような態様に限定されるものではない。
例えば、HMD1が、HMD1を装着したユーザUの視線の方向を計測するアイトラッキング機能を有する場合、当該アイトラッキング機能により計測されたユーザUの視線を仮想直線LCとしてもよい。
以上の記載から、本発明は例えば以下のように把握される。なお、各態様の理解を容易にするために、以下では、図面の参照符号を便宜的に括弧書きで付記するが、本発明を図示の態様に限定する趣旨ではない。
本発明の一態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間において、前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、前記仮想空間に存在する仮想オブジェクトとが、所定の位置関係を有する場合、前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、前記仮想空間において表示すべき表示情報のうち、前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1に記載の情報処理装置のプログラムであって、前記表示制御部は、前記仮想オブジェクトに対する前記仮想線の位置の変化量に基づいて、前記表示範囲の移動量を決定する、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1または2に記載の情報処理装置のプログラムであって、前記表示制御部は、前記仮想オブジェクトに対する前記仮想線の位置の変化方向に基づいて、前記表示範囲の移動方向を決定する、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至3に記載の情報処理装置のプログラムであって、前記表示制御部は、前記仮想線と前記仮想オブジェクトとの相対的な位置関係と、前記仮想オブジェクトに対する前記仮想線の位置の変化量と、に基づいて、前記表示範囲の移動量を決定する、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至4に記載の情報処理装置のプログラムであって、前記表示制御部は、前記仮想線と前記仮想オブジェクトとが交差している場合、前記仮想線と前記仮想オブジェクトとの交差位置の移動速度に基づいて、前記表示範囲の移動速度を決定する、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至5に記載の情報処理装置のプログラムであって、前記表示制御部は、前記仮想線と前記仮想オブジェクトとが、前記所定の位置関係を有さない状態から前記所定の位置関係を有する状態に変化した場合であって、前記仮想オブジェクトに対する前記仮想線の位置が所定の条件を充足する場合において、前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、前記表示範囲を移動させる、ことを特徴とする。
また、上記態様において、「所定の条件」とは、例えば、仮想オブジェクトから見た仮想線の位置が、所定の軌跡を描くことであってもよい。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至6に記載の情報処理装置のプログラムであって、前記表示制御部は、前記姿勢情報の示す前記ヘッドマウントディスプレイの姿勢が、所定の基準軸を中心に、基準角度から所定角度以上回転している状態において、前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、前記表示範囲を移動させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至6に記載の情報処理装置のプログラムであって、前記仮想空間において、前記仮想カメラから前記仮想オブジェクトまでの距離と、前記仮想カメラから前記表示領域までの距離とは、略同じである、ことを特徴とする。
また、この態様によれば、仮想オブジェクト及び表示領域を仮想カメラから略同じ距離に配置する。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが仮想オブジェクトを見る場合における当該ユーザの視差角と、当該ユーザが表示領域を見る場合における当該ユーザの視差角とを、略同じとすることができる。すなわち、この態様によれば、例えば、仮想カメラから仮想オブジェクトまでの距離と仮想カメラから表示領域までの距離とが異なる場合と比較して、ヘッドマウントディスプレイを装着したユーザが、見る対象を、仮想オブジェクト及び表示領域の一方から他方へと変更する際に、当該ユーザから見る対象までの焦点距離の変動を小さく抑えることが可能となる。これにより、この態様によれば、例えば、仮想カメラから仮想オブジェクトまでの距離と仮想カメラから表示領域までの距離とが異なる場合と比較して、ヘッドマウントディスプレイを装着したユーザによる、仮想オブジェクト及び表示領域の視認性を向上させることができる。
本発明の一態様に係る情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間において、前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、前記仮想空間に存在する仮想オブジェクトとが、所定の位置関係を有する場合、前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、前記仮想空間において表示すべき表示情報のうち、前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、ことを特徴とする。
本発明の一態様に係るヘッドマウントディスプレイは、表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間において、前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、前記仮想空間に存在する仮想オブジェクトとが、所定の位置関係を有する場合、前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、前記仮想空間において表示すべき表示情報のうち、前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、ことを特徴とする。
本発明の一態様に係る情報処理システムは、表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する情報処理システムであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間において、前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、前記仮想空間に存在する仮想オブジェクトとが、所定の位置関係を有する場合、前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、前記仮想空間において表示すべき表示情報のうち、前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、ことを特徴とする。
Claims (11)
- プロセッサを具備する情報処理装置のプログラムであって、
前記プロセッサを、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
して機能させ、
前記表示制御部は、
前記仮想空間において、
前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、
前記仮想空間に存在する仮想オブジェクトとが、
所定の位置関係を有する場合、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、
前記仮想空間において表示すべき表示情報のうち、
前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、
ことを特徴とする、情報処理装置のプログラム。 - 前記表示制御部は、
前記仮想オブジェクトに対する前記仮想線の位置の変化量に基づいて、
前記表示範囲の移動量を決定する、
ことを特徴とする、請求項1に記載の情報処理装置のプログラム。 - 前記表示制御部は、
前記仮想オブジェクトに対する前記仮想線の位置の変化方向に基づいて、
前記表示範囲の移動方向を決定する、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。 - 前記表示制御部は、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係と、
前記仮想オブジェクトに対する前記仮想線の位置の変化量と、
に基づいて、
前記表示範囲の移動量を決定する。
ことを特徴とする、請求項1乃至3のうち何れか1項に記載の情報処理装置のプログラム。 - 前記表示制御部は、
前記仮想線と前記仮想オブジェクトとが交差している場合、
前記仮想線と前記仮想オブジェクトとの交差位置の移動速度に基づいて、
前記表示範囲の移動速度を決定する、
ことを特徴とする、請求項1乃至4のうち何れか1項に記載の情報処理装置のプログラム。 - 前記表示制御部は、
前記仮想線と前記仮想オブジェクトとが、
前記所定の位置関係を有さない状態から前記所定の位置関係を有する状態に変化した場合であって、
前記仮想オブジェクトに対する前記仮想線の位置が所定の条件を充足する場合において、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、
前記表示範囲を移動させる、
ことを特徴とする、請求項1乃至5のうち何れか1項に記載の情報処理装置のプログラム。 - 前記表示制御部は、
前記姿勢情報の示す前記ヘッドマウントディスプレイの姿勢が、
所定の基準軸を中心に、基準角度から所定角度以上回転している状態において、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、
前記表示範囲を移動させる、
ことを特徴とする、請求項1乃至6のうち何れか1項に記載の情報処理装置のプログラム。 - 前記仮想空間において、
前記仮想カメラから前記仮想オブジェクトまでの距離と、
前記仮想カメラから前記表示領域までの距離とは、
略同じである、
ことを特徴とする、請求項1乃至6のうち何れか1項に記載の情報処理装置のプログラム。 - 仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間において、
前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、
前記仮想空間に存在する仮想オブジェクトとが、
所定の位置関係を有する場合、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、
前記仮想空間において表示すべき表示情報のうち、
前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、
ことを特徴とする、情報処理装置。 - 表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間において、
前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、
前記仮想空間に存在する仮想オブジェクトとが、
所定の位置関係を有する場合、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、
前記仮想空間において表示すべき表示情報のうち、
前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、
ことを特徴とする、ヘッドマウントディスプレイ。 - 表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する情報処理システムであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間において、
前記仮想カメラを通過し、前記姿勢情報に応じた方向を有する仮想線と、
前記仮想空間に存在する仮想オブジェクトとが、
所定の位置関係を有する場合、
前記仮想線と前記仮想オブジェクトとの相対的な位置関係の変化に基づいて、
前記仮想空間において表示すべき表示情報のうち、
前記仮想空間に設けられた表示領域に表示される表示範囲を移動させる、
ことを特徴とする、情報処理システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018035240A JP6582205B2 (ja) | 2018-02-28 | 2018-02-28 | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
CN201980015545.0A CN111801146B (zh) | 2018-02-28 | 2019-02-27 | 信息处理装置、记录介质、头戴式显示器及信息处理系统 |
PCT/JP2019/007660 WO2019168061A1 (ja) | 2018-02-28 | 2019-02-27 | 情報処理装置、記録媒体、ヘッドマウントディスプレイ、及び、情報処理システム |
KR1020207025054A KR102469221B1 (ko) | 2018-02-28 | 2019-02-27 | 정보 처리 장치, 기록 매체에 저장된 컴퓨터 프로그램, 헤드 마운트 디스플레이 및 정보 처리 시스템 |
US17/003,429 US11300794B2 (en) | 2018-02-28 | 2020-08-26 | Recording medium, information processing system, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018035240A JP6582205B2 (ja) | 2018-02-28 | 2018-02-28 | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019080246A Division JP2019175470A (ja) | 2019-04-19 | 2019-04-19 | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019149133A true JP2019149133A (ja) | 2019-09-05 |
JP6582205B2 JP6582205B2 (ja) | 2019-10-02 |
Family
ID=67806202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018035240A Active JP6582205B2 (ja) | 2018-02-28 | 2018-02-28 | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11300794B2 (ja) |
JP (1) | JP6582205B2 (ja) |
KR (1) | KR102469221B1 (ja) |
CN (1) | CN111801146B (ja) |
WO (1) | WO2019168061A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230046008A (ko) * | 2021-09-29 | 2023-04-05 | 삼성전자주식회사 | 증강 현실(Augmented Reality) 장치가 콘텐트를 디스플레이하는 방법 및 콘텐트를 디스플레이하는 증강 현실 장치 |
JP2023172180A (ja) * | 2022-05-23 | 2023-12-06 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150143283A1 (en) * | 2012-10-01 | 2015-05-21 | Sony Corporation | Information processing device, display control method, and program |
JP2015231443A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラム及びゲームシステム |
JP2016059556A (ja) * | 2014-09-17 | 2016-04-25 | 株式会社バンダイナムコエンターテインメント | プログラム、ゲーム装置及びサーバシステム |
JP2017000480A (ja) * | 2015-06-11 | 2017-01-05 | 株式会社バンダイナムコエンターテインメント | 端末装置及びプログラム |
JP2017058969A (ja) * | 2015-09-16 | 2017-03-23 | グリー株式会社 | 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法 |
JP2018015547A (ja) * | 2017-05-16 | 2018-02-01 | 株式会社コロプラ | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3690672B2 (ja) * | 2002-05-17 | 2005-08-31 | 任天堂株式会社 | ゲームシステムおよびゲームプログラム |
US10528130B2 (en) * | 2010-07-23 | 2020-01-07 | Telepatheye Inc. | Unitized eye-tracking wireless eyeglasses system |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
US8611015B2 (en) * | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
JP5580855B2 (ja) * | 2012-06-12 | 2014-08-27 | 株式会社ソニー・コンピュータエンタテインメント | 障害物回避装置および障害物回避方法 |
US20160033770A1 (en) * | 2013-03-26 | 2016-02-04 | Seiko Epson Corporation | Head-mounted display device, control method of head-mounted display device, and display system |
JP2014191688A (ja) * | 2013-03-28 | 2014-10-06 | Sony Corp | 情報処理装置、情報処理方法、及び、記憶媒体 |
US9311718B2 (en) * | 2014-01-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Automated content scrolling |
US20150331240A1 (en) * | 2014-05-15 | 2015-11-19 | Adam G. Poulos | Assisted Viewing Of Web-Based Resources |
WO2015198477A1 (ja) * | 2014-06-27 | 2015-12-30 | 株式会社Fove | 視線検知装置 |
JP6340301B2 (ja) * | 2014-10-22 | 2018-06-06 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム |
JP5767386B1 (ja) | 2014-12-15 | 2015-08-19 | 株式会社コロプラ | ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイへ表示するための方法、及びプログラム |
JP5981591B1 (ja) * | 2015-03-17 | 2016-08-31 | 株式会社コロプラ | 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム |
WO2017024118A1 (en) * | 2015-08-04 | 2017-02-09 | Google Inc. | Hover behavior for gaze interactions in virtual reality |
JP6585482B2 (ja) * | 2015-11-26 | 2019-10-02 | 株式会社日立製作所 | 機器診断装置及びシステム及び方法 |
JP6832061B2 (ja) * | 2015-12-29 | 2021-02-24 | 株式会社バンダイナムコエンターテインメント | ゲーム装置及びプログラム |
JP6714791B2 (ja) * | 2016-07-13 | 2020-07-01 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
US9971157B2 (en) * | 2016-07-25 | 2018-05-15 | Colopl, Inc. | Display control method and system for executing the display control method |
JP6373920B2 (ja) * | 2016-09-14 | 2018-08-15 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
JP6263292B1 (ja) * | 2017-03-08 | 2018-01-17 | 株式会社コロプラ | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム |
US10365784B2 (en) * | 2017-03-08 | 2019-07-30 | Colopl, Inc. | Information processing method and apparatus for executing the information processing method |
US10754496B2 (en) * | 2017-08-24 | 2020-08-25 | Microsoft Technology Licensing, Llc | Virtual reality input |
-
2018
- 2018-02-28 JP JP2018035240A patent/JP6582205B2/ja active Active
-
2019
- 2019-02-27 KR KR1020207025054A patent/KR102469221B1/ko active IP Right Grant
- 2019-02-27 CN CN201980015545.0A patent/CN111801146B/zh active Active
- 2019-02-27 WO PCT/JP2019/007660 patent/WO2019168061A1/ja active Application Filing
-
2020
- 2020-08-26 US US17/003,429 patent/US11300794B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150143283A1 (en) * | 2012-10-01 | 2015-05-21 | Sony Corporation | Information processing device, display control method, and program |
JP2015231443A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラム及びゲームシステム |
JP2016059556A (ja) * | 2014-09-17 | 2016-04-25 | 株式会社バンダイナムコエンターテインメント | プログラム、ゲーム装置及びサーバシステム |
JP2017000480A (ja) * | 2015-06-11 | 2017-01-05 | 株式会社バンダイナムコエンターテインメント | 端末装置及びプログラム |
JP2017058969A (ja) * | 2015-09-16 | 2017-03-23 | グリー株式会社 | 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法 |
JP2018015547A (ja) * | 2017-05-16 | 2018-02-01 | 株式会社コロプラ | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11300794B2 (en) | 2022-04-12 |
KR102469221B1 (ko) | 2022-11-21 |
US20200393683A1 (en) | 2020-12-17 |
CN111801146B (zh) | 2024-07-26 |
KR20200115622A (ko) | 2020-10-07 |
CN111801146A (zh) | 2020-10-20 |
JP6582205B2 (ja) | 2019-10-02 |
WO2019168061A1 (ja) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10409365B2 (en) | Method of providing a virtual space image subjected to blurring processing based on detected displacement, and system therefor | |
CN112652016B (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
US9086724B2 (en) | Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus | |
WO2019005644A1 (en) | EYE TRACKING SYSTEM WITH DETECTION AND CORRECTION OF SLIDING | |
JP5757790B2 (ja) | 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法 | |
EP2565848A2 (en) | Program, information processing apparatus, information processing system, and information processing method | |
US20120268493A1 (en) | Information processing system for augmented reality | |
JP6582205B2 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム | |
CN110688002B (zh) | 虚拟内容的调整方法、装置、终端设备及存储介质 | |
JP6707224B2 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム | |
JP6388270B1 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム | |
JP6623431B2 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム | |
US11861060B2 (en) | Recording medium for selecting objects using head mounted display, information processing system, and information processing method | |
JP2024060939A (ja) | 情報処理装置および情報処理方法 | |
JP6923964B2 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム | |
JP2019175470A (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム | |
CN114201028B (zh) | 扩增实境系统与其锚定显示虚拟对象的方法 | |
JP2020113291A (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム | |
JP7078273B2 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム | |
CN113412510A (zh) | 图像调整系统、图像调整装置以及图像调整方法 | |
JP5200158B1 (ja) | ゲーム装置、制御装置、ゲーム制御方法、及びプログラム | |
JP6675615B2 (ja) | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム | |
JP2023114200A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN114967943A (zh) | 基于3d手势识别确定6dof位姿的方法及设备 | |
JP2020095671A (ja) | 認識装置及び認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180319 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180320 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190507 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20190507 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190515 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20190521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6582205 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |