JP6518028B1 - 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 - Google Patents

表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 Download PDF

Info

Publication number
JP6518028B1
JP6518028B1 JP2019515374A JP2019515374A JP6518028B1 JP 6518028 B1 JP6518028 B1 JP 6518028B1 JP 2019515374 A JP2019515374 A JP 2019515374A JP 2019515374 A JP2019515374 A JP 2019515374A JP 6518028 B1 JP6518028 B1 JP 6518028B1
Authority
JP
Japan
Prior art keywords
display device
observation
unit
controller
instruction input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019515374A
Other languages
English (en)
Other versions
JPWO2020026380A1 (ja
Inventor
裕章 岩瀬
裕章 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6518028B1 publication Critical patent/JP6518028B1/ja
Publication of JPWO2020026380A1 publication Critical patent/JPWO2020026380A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

状態情報記憶部(121)は、仮想空間内における観察位置、観察方向、基体方向を記憶する。観察位置更新部(112)は、外部のコントローラに対してされた移動方向を示す指示入力が受け付けられると、基体方向を基準として指示入力に示された移動方向へ進むよう、観察位置を更新する。観察方向更新部(114)は、検知部(113)により検知された表示装置(100)の向きの変化に応じて、観察方向を更新する。取得部(115)は、コントローラと、表示装置(100)と、の相対的位置を取得する。基体方向更新部(116)は、観察方向と、取得された相対的位置と、に基づいて、基体方向を更新する。

Description

本発明は、表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体に関する。
ヘッドマウントディスプレイによりユーザに仮想空間を提供する仮想現実(Virtual Reality)システムにおいて、仮想空間におけるユーザの分身であるキャラクタ(アバター)を操作する方法として、ユーザの視線方向を検知し、検知された視線方向に基づいてユーザが注視したと判定された位置にアバターを移動させる方法がある(例えば、特許文献1参照)。
特開2018−72992号公報
一方、例えば、美術館が再現された仮想空間において、アバターが壁に掛けられた絵画を見ながら壁に沿って歩く場合のように、ユーザは、ユーザの視線方向と異なる方向にアバターを移動させたい場合もある。一般的に、仮想空間内のキャラクタの移動を操作する方法として、ユーザがコントローラ等の端末を介してキャラクタの移動方向を指示する方法がある。しかし、例えば、ユーザが自身の胴部を正面に向けつつ、頭部だけ横に向けた状態において、ユーザが直感的に自身の胴部の方向を基準として端末を介して移動方向を指示しても、ヘッドマウントディスプレイの向きのみ検出可能である場合には、ヘッドマウントディスプレイの向きに基づいて特定されるアバターの観察方向を基準として移動方向が指示されたとみなされ、ユーザが直感的に指示した移動方向と異なる方向にアバターが移動してしまうおそれがある。
本発明は、上記の課題を解決するためのものであり、ユーザの直感的な指示入力に従って仮想空間内における観察位置を移動させることが可能な表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体を提供することを目的とする。
本発明の第1の観点に係る表示装置は、
表示装置であって、
外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付部と、
前記表示装置の向きの変化を検知する検知部と、
仮想空間内における観察位置、観察方向、基体方向を記憶する記憶部と、
前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新部と、
前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新部と、
前記コントローラと、前記表示装置と、の相対的位置を取得する取得部と、
前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新部と、
を備えることを特徴とする。
上記の観点に係る表示装置において、
前記取得部は、前記コントローラ、前記表示装置と、のいずれか少なくとも一方が有するセンサが他方を検知することにより、前記相対的位置を取得してもよい。
上記の観点に係る表示装置において、
前記取得部は、前記コントローラが有する第1姿勢センサにより検知される第1向きと、前記表示装置が有する第2姿勢センサにより検知される第2向きと、の差分により推定された前記相対的位置を取得してもよい。
上記の観点に係る表示装置において、
所定のパターンで点灯する発光部をさらに備え、
前記取得部は、前記コントローラが有するカメラにより撮像された画像における前記発光部の位置及び前記パターンに基づいて、前記コントローラにより特定された前記相対的位置を、前記コントローラから取得してもよい。
本発明の第2の観点に係る表示方法は、
仮想空間内における観察位置、観察方向、基体方向が記憶される記憶部を備える表示装置が実行する表示方法であって、
外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付ステップと、
前記表示装置の向きの変化を検知する検知ステップと、
前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新ステップと、
前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新ステップと、
前記コントローラと、前記表示装置と、の相対的位置を取得する取得ステップと、
前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新ステップと、
を備えることを特徴とする。
本発明の第3の観点に係るプログラムは、
仮想空間内における観察位置、観察方向、基体方向を記憶する記憶部を備えるコンピュータを、
外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付部、
前記表示装置の向きの変化を検知する検知部、
前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新部と、
前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新部、
前記コントローラと、前記表示装置と、の相対的位置を取得する取得部、
前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新部、
として機能させることを特徴とする。
本発明の第4の観点に係る非一時的なコンピュータ読取可能な情報記録媒体は、
仮想空間内における観察位置、観察方向、基体方向を記憶する記憶部を備えるコンピュータを、
外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付部、
前記表示装置の向きの変化を検知する検知部、
前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新部と、
前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新部、
前記コントローラと、前記表示装置と、の相対的位置を取得する取得部、
前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新部、
として機能させることを特徴とする。
なお、上記情報記録媒体は、コンピュータとは独立して配布・販売することができる。ここで、非一時的な(non-transitory)情報記録媒体とは、有形な(tangible)情報記録媒体をいう。非一時的な情報記録媒体は、例えば、コンパクトディスク、フレキシブルディスク、ハードディスク、磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリである。また、一時的な(transitory)情報記録媒体とは、伝送媒体(伝搬信号)それ自体を示す。一時的な記録媒体は、例えば、電気信号、光信号、電磁波である。なお、一時的な(temporary)記憶領域とは、データやプログラムを一時的に記憶するための領域であり、例えばRAM(Random Access Memory)といった揮発性メモリである。
本発明によれば、ユーザの直感的な指示入力に応じて仮想空間内における観察位置を移動させることができる。
実施形態に係る表示装置のハードウェア構成を示す概略ブロック図である。 現実空間において表示装置とユーザの向きが変化する前の様子を示す上面図である。 ユーザが頭部の向きのみを回転させることにより現実空間において表示装置とユーザの向きが変化した後の様子を示す上面図である。 ユーザが胴部の向きのみを回転させることにより現実空間において表示装置とユーザの向きが変化した後の様子を示す上面図である。 現実空間において表示装置とユーザの向きが変化する前の、仮想空間の様子を示す上面図である。 ユーザが頭部の向きのみを回転させることにより現実空間において表示装置とユーザの向きが変化した後の、仮想空間の様子を示す上面図である。 ユーザが胴部の向きのみを回転させることにより現実空間において表示装置とユーザの向きが変化した後の、仮想空間の様子を示す上面図である。 実施形態に係る表示装置の機能構成を示す概略ブロック図である。 実施形態に係るコントローラの正面図である。 ユーザに装着された状態での実施形態に係る表示装置の外観図である。 相対的位置が0であるときの表示装置とコントローラの様子を示す上面図である。 図9Aに示す状態においてコントローラが撮影した画像である。 相対的位置がφであるときの表示装置とコントローラの様子を示す上面図である。 図10Aに示す状態においてコントローラが撮影した画像である。 実施形態に係る表示装置の制御部により実行される表示処理の流れを表すフローチャートである。 変形例に係る現実空間において表示装置とユーザの向きが変化する前の様子を示す上面図である。
以下に本発明の実施形態を説明する。なお、本実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素若しくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。また、本願発明の実施形態を図面を参照して説明するにあたり、図中同一又は相当する部分には同一符号を付す。
図1は、本実施形態に係る表示装置100のハードウェア構成を示す概略ブロック図である。表示装置100は、例えば、各種のセンサや制御装置を備えたヘッドマウントディスプレイにより構成される。スマートフォンやタブレットコンピュータ、ファブレット等をアタッチメントに装着することにより、ヘッドマウントディスプレイが構築されてもよい。この場合には、スマートフォン等のコンピュータを上記各部として機能させるためのプログラムを、当該スマートフォン等にて実行させることにより、表示装置100が実現される。図1に示すように、表示装置100は、制御部101と、ROM(Read Only Memory)102と、RAM103と、ディスプレイ104と、センサ部105と、操作部106と、通信部107とから構成され、各部は、バス108により接続されている。
制御部101は、例えばCPU(Central Processing Unit)から構成され、表示装置100全体を制御する。
ROM102は、制御部101が表示装置100全体を制御するためのプログラムや各種データを格納する不揮発性メモリである。
RAM103は、制御部101が生成した情報や、その情報の生成に必要なデータを一時的に格納するための揮発性メモリである。
ディスプレイ104は、LCD(Liquid Crystal Display)およびバックライト等を備え、制御部101による制御の下、例えば、制御部101から出力された画像を表示する。
センサ部105は、姿勢センサや加速度センサを備え、表示装置100の向きを検知する。センサ部105は、検知した表示装置100の向きを表す信号を制御部101に出力する。
操作部106は、ボタン、キーボード、タッチパネル等の入力装置から構成される。操作部106は、表示装置100のユーザからの操作入力を受け付け、受け付けた操作入力に対応する信号を制御部101に出力する。
通信部107は、後述するコントローラ220と通信するための通信インターフェースから構成される。通信部107は、例えば、Bluetooth(登録商標)等の無線通信規格のもと、コントローラ220と通信する。
次に、本実施形態での現実空間201と、表示装置100に表示される仮想空間301と、における表示装置100及びユーザ202の位置関係について説明する。図2は、現実空間201において表示装置100とユーザ202の向き及び位置が変化する前(時刻t)の様子を示す上面図である。図4は、現実空間201において表示装置100とユーザ202の向き及び位置が変化する前(時刻t)の、仮想空間301の様子を示す上面図である。また、図3A及び図3Bは、現実空間201において表示装置100とユーザ202の向き及び位置が変化した後(時刻t)の様子を示す上面図である。なお、図3Aは、ユーザ202が頭部203の向きのみを回転させて表示装置100の向きを変化させた場合の現実空間201の様子を表す。また、図3Bは、ユーザ202が胴部204の向きのみを変化させた場合の現実空間201の様子を表す。図5A及び図5Bは、現実空間201において表示装置100とユーザ202の向き及び位置が変化した後(時刻t)の、仮想空間301の様子を示す上面図である。なお、図5Aは、ユーザ202が頭部203の向きのみを回転させて表示装置100の向きを変化させた場合の仮想空間301の様子を表す。また、図5Bは、ユーザ202が胴部204の向きのみを変化させた場合の仮想空間301の様子を表す。以下、これらの図を参照して説明する。なお、これらの図においては、時刻tから時刻tまでの時間の経過を表すために、英小文字を適宜付与している。以下の説明では、当該英小文字を適宜省略して説明する。
図2及び図3A及び図3Bに示すように、現実空間201において、ユーザ202は、表示装置100を眼前に装着している。ユーザ202が表示装置100を装着しているときには、表示装置100の表示方向205は、図4A,図4B,図5A及び図5Bに示す仮想空間301における後述するアバター401の観察方向302と逆向きになる。
また、現実空間201において、ユーザ202は、コントローラ220を把持している。コントローラ220は、表示装置100により表示される仮想空間301に配置されたアバター401を操作するための端末である。アバター401は仮想空間301におけるユーザ202の分身として、コンピュータグラフィックスにより作成されたオブジェクトである。図4A,図4B,図5A及び図5Bに示すように、本実施形態において、アバター401は、人形状であって、アバター401の頭部402の位置が観察位置302、頭部402の視線方向が観察方向303、胴部403の正面方向が基体方向304に対応する。コントローラ220は、表示装置100と例えばBluetooth(登録商標)により無線通信することができる。例えば、ユーザ202は、コントローラ220が備えるキーやタッチパネルを操作することにより、コントローラ220に対してアバター401の移動方向を示す指示入力を入力する。そして、コントローラ220は、入力された指示入力を表示装置100に送信する。そして後述するように、表示装置100は、コントローラ220から受信した指示入力及び表示装置100の向きに基づいて、仮想空間301におけるアバター401の観察位置302、観察方向303、及び基体方向304を更新する。
なお、現実空間201における方位211と仮想空間301における方位311とは、ずれてもよいし、一致させてもよい。本実施形態において、両者はずれている。
図6は、本発明の実施形態に係る表示装置100の機能構成を示す概略ブロック図である。図6に示すように、表示装置100は、受付部111と、観察位置更新部112と、検知部113と、観察方向更新部114と、取得部115と、基体方向更新部116と、生成部117と、表示部118と、状態情報記憶部121とを備える。
状態情報記憶部121は、仮想空間301内におけるアバター401の観察位置302、観察方向303、基体方向304を記憶する。観察位置302、観察方向303、基体方向304は、後述するようにそれぞれ観察位置更新部112、観察方向更新部114、及び基体方向更新部116により更新される。状態情報記憶部121は、RAM103により実現される。
受付部111は、コントローラ220に対してされた移動方向を示す指示入力を受け付ける。例えば、受付部111は、通信部107を介して、コントローラ220が受け付けた指示入力を示す信号をコントローラ220から受信する。本実施形態において、制御部101及び通信部107が協働して、受付部111として機能する。
観察位置更新部112は、受付部111により指示入力が受け付けられると、基体方向304を基準として、指示入力に示された方向へ進むよう、観察位置302を更新する。例えば、図2に示すように、受付部111が、時刻tから時刻tまでの間、コントローラ220から前方向、すなわち胴部204aの正面方向206aに移動する指示入力を受け付けると、図5A及び図5Bに示すように、観察位置更新部112は、状態情報記憶部121に記憶された現在の観察位置302aを、状態情報記憶部121に記憶された現在の基体方向304aを基準とした前方向、すなわち、基体方向304aに速度Vで移動させた位置、すなわち、観察位置302aから前方向に距離V×(t−t)だけ離れた観察位置302bに更新する。
時刻tから時刻tまでの時間間隔は、用途に応じて定めることができる。例えば、この時間間隔は、表示装置100のディスプレイ104のリフレッシュ間隔(例えば、垂直同期周期)とすることができる。また、後述するように、処理は繰り返し行われるので、ある繰り返し単位における時刻tは、次の繰り返し単位における時刻tとして解釈される。
本実施形態において、制御部101により、観察位置更新部112として機能する。
検知部113は、表示装置100の現実空間201における向きの変化を検知する。例えば、検知部113は、センサ部105による測定結果から、現実空間201における基準軸に対する表示装置100の表示方向205の変化を検知する。現実空間201における基準軸としては、現実空間201における重力方向、または表示装置100のディスプレイ104の上下方向を採用するのが典型的である。
本実施形態において、制御部101およびセンサ部105が協働することにより、検知部113として機能する。
観察方向更新部114は、検知部113により検知された表示装置100の向きに応じて、仮想空間301における観察方向303を更新する。例えば、まず、観察方向更新部114は、時刻tから時刻tまでの間の検知部113により検知された表示装置100の表示方向205の変化について、現実空間201における基準軸周りの回転量θを取得する。具体的には、図2において、ユーザ202が頭部203aの向きを変える前は、表示方向205aは、表示装置100aからユーザ202に向かっている。また、図3Aにおいて、ユーザ202が頭部203bの向きを変えた後は、表示方向205bは、表示装置100bからユーザ202に向かっている。表示方向205aと表示方向205bとがなす角が基準軸周りの回転量θである。回転量θは、いわゆるヨー角に相当する。
そして、観察方向更新部114は、図5Aに示すように、状態情報記憶部121に記憶された観察方向303aを仮想空間301における観察位置302aの基準軸周りに回転量θだけ回転させることにより、観察方向303aを観察方向303bに更新する。
本実施形態において、制御部101が、観察方向更新部114として機能する。
取得部115は、コントローラ220から、コントローラ220と表示装置100と、の相対的位置を取得する。
以下において、本実施形態における相対的位置の取得方法の一例について説明する。図7に本実施形態に係るコントローラ220の正面図を示す。本実施形態に係るコントローラ220は、スマートフォンであって、図7に示すように、正面に、タッチパネル221と、カメラ222と、を備える。タッチパネル221は、ユーザ202からの移動方向を示す指示入力を受け付ける。例えば、ユーザ202がタッチパネル221の表面を指でスライドさせる操作をした場合、タッチパネル221は、そのスライド方向を検知し、検知したスライド方向に対応する移動方向を示す指示入力を受け付けたと判定する。カメラ222は、表示装置100を検知するセンサの一例であって、正面方向のシーンを撮影する。具体的には、カメラ222は、図2や図3に示すようにユーザ202に把持された状態で、表示装置100を含む画像を撮影する。そして、コントローラ220は、撮影された画像における表示装置の位置に基づいて、コントローラ220と表示装置100との相対的位置を特定する。
次に、カメラ222により撮影された画像における表示装置の位置に基づいて相対的位置を特定する方法の一例を詳細に説明する。図8にユーザに装着された時の本実施形態に係る表示装置100の外観図を示す。図8に示すように、表示装置100は、その底面の左右端部にマーカー501,502を有する。そして、コントローラ220は、カメラ220により撮影された画像中のマーカー501,502を認識し、画像におけるマーカー501,502の位置に基づいて、相対的位置を特定する。以下において、コントローラ220は、常にユーザ202の正面に位置するものとし、ユーザ202が正面を向いた状態における表示装置100の表示方向205を基準方向207としたときの、基準方向207と表示方向205とがなす角を相対的位置φとして特定する。図9A,図9B,図10A及び図10Bに表示装置100とコントローラ220の相対的位置と、その相対的位置においてカメラ220により撮影された画像の一例を示す。図9Aは、相対的位置φが0であるときの表示装置100とコントローラ220の様子を示す上面図である。この状態においてコントローラ220は、図9Bに示すような画像601を撮影する。図9Bに示すように、マーカー501,502は、画像601の縦方向の対称軸を中心に線対称となるように位置する。
図10Aは、相対的位置φ=φ(φ>0)であるときの表示装置100とコントローラ220の様子を示す上面図である。この状態においてコントローラ220は、図10Bに示すような画像602を撮影する。図10Bに示すように、マーカー501,502は、図9Bの画像601におけるマーカー501,502の位置と比較して、右方向にずれた位置に位置する。
コントローラ220は、図9A及び図9B、図10A及び図10Bに示すような、相対的位置φと、その相対的位置φにおいてカメラ222により撮影された画像におけるマーカー501,502の位置関係とを予め保持しておくことにより、カメラ222により撮影された画像におけるマーカー501,502の位置関係から、相対的位置φを特定することができる。そして、コントローラ220は、特定した相対的位置φを表示装置100に送信する。これにより、表示装置100の取得部115は、通信部107を介してコントローラ220から相対的位置φを取得することができる。
本実施形態において、制御部101及び通信部107が協働して、取得部115として機能する。
基体方向更新部116は、観察方向303と、取得部115により取得された相対的位置と、に基づいて、基体方向304を更新する。
以下、取得部115が、基準方向207と表示方向205とがなす角を相対的位置φとしてコントローラ220から取得した場合の基体方向の更新例について説明する。例えば、取得部115が、コントローラ220から、時刻tbにおける相対的位置としてφ=φを取得したとき、相対的位置φが仮想空間301における観察方向303と基体方向304とがなす角に対応するため、図5Bに示すように観察方向303bとのなす角がφとなるように基体方向304bを決定する。すなわち、基体方向更新部116は、状態情報記憶部121に記憶された観察方向303bを、状態情報記憶部121に記憶された観察位置302aの基準軸周りに相対的位置φだけ回転させることにより、基体方向304aを基体方向304bに更新する。
本実施形態において、制御部101が、基体方向更新部116として機能する。
生成部117は、状態情報DB121に記憶された観察位置302及び観察方向303に基づいて、仮想空間301を観察位置302から観察方向303に観察した様子を表す画像を生成する。具体的には、生成部117は、仮想空間内に配置されたオブジェクト(図示せず)の仮想空間301内における所定の位置及び形状に基づいて、透視投影等の技術を用いて、観察位置302から観察方向303に見たときの画像を生成する。例えば、生成部117は、図3Aに示すようにユーザ202が頭部203の向きのみを回転させて表示装置100の向きを変化させた場合、時刻tにおいて、図5Aに示す観察位置302aから観察方向303aに仮想空間301を観察した様子を表す画像を生成し、時刻tにおいて、図5Aに示す観察位置302bから観察方向303bに仮想空間301を観察した様子を表す画像を生成する。また、生成部117は、図3Bに示すようにユーザ202が胴部204の向きのみを変化させた場合、時刻tにおいて、図5Bに示す観察位置302aから観察方向303aに仮想空間301を観察した様子を表す画像を生成し、時刻tにおいて、図5Bに示す観察位置302bから観察方向303bに仮想空間301を観察した様子を表す画像を生成する。
本実施形態において、制御部101が、生成部117として機能する。
表示部118は、生成部117により生成された画像を、ディスプレイ104に表示する。
本実施形態において、制御部101及びディスプレイ104が協働して、表示部118として機能する。
次に、本発明の実施形態にかかる表示装置100の動作について説明する。図11は、表示装置100の制御部101により実行される表示処理の流れを表すフローチャートである。本処理は、例えば、操作部106を介して本処理の開始指示を受け付けたことを契機として開始する。
まず、表示装置100は、仮想空間301内において、観察位置302及び観察方向303を予め定められた初期状態に設定し、観察位置302及び観察方向303を状態情報記憶部121に保存する(ステップS101)。
次に、表示装置100は、仮想空間301を初期化する(ステップS102)。この初期化の際には、表示装置100は、例えば、仮想空間301内に配置されるオブジェクトの位置、形状、向き、外観を取得、設定したり、仮想空間301の無限遠方に配置されると想定される背景の画像等を取得、設定する。
次に、表示装置100は、コントローラ220から指示入力を受け付けたか否かを判定する(ステップS103)。表示装置100は、コントローラから指示入力を受け付けていないとき(ステップS103;No)、ステップS105に進む。
表示装置100は、コントローラから指示入力を受け付けたとき(ステップS103;Yes)、状態情報記憶部121に記憶されている観察位置302を、受け付けた指示入力が示す移動方向に所定距離移動させた観察位置302に更新する(ステップS104)。
次に、表示装置100は、表示装置100の向きの変化を検知したか否かを判定する(ステップS105)。表示装置100は、表示装置100の向きの変化を検知していないとき(ステップS105;No)、ステップS107に進む。
表示装置100は、表示装置100の向きの変化を検知したとき(ステップS105;Yes)、状態情報記憶部121に記憶されている観察方向303を、検知された表示装置100の向きの変化を表す回転量θに応じて更新する(ステップS106)。
次に、表示装置100は、コントローラ220と表示装置100との相対的位置を取得する(ステップS107)。そして、表示装置100は、状態情報記憶部121に記憶されている観察方向303と、取得された相対的位置と、に基づいて、状態情報記憶部121に記憶されている基体方向304を更新する(ステップS108)。
そして、表示装置100は、状態情報記憶部121に記憶された観察位置302から観察方向303に仮想空間301を観察した様子を表す画像を生成する(ステップS109)。
この後、表示装置100は、ディスプレイ104の垂直同期割込が生じるまで待機してから(ステップS110)、生成された画像をディスプレイ104に転送してユーザに提示する(ステップS111)。
そして、表示装置100は、仮想空間301の状態を更新する(ステップS112)。例えば、仮想空間301が時間の経過に応じて変化するコンピュータグラフィックスにより構成される場合には、オブジェクトの位置や向きを、当該オブジェクトに設定された速度、加速度、角速度、角加速度等により更新する物理シミュレーションを行ったり、予め定められた条件に基づいてオブジェクトを変形させる。
そして、表示装置100は、ステップS103の処理に戻る。表示装置100は、例えば操作部106を介して本処理の終了指示を受け付けるまで、繰り返し上記の処理を実行する。なおステップS110において待機することから、この処理の繰り返し周期は、垂直同期周期となる。
以上説明したように、本発明の実施形態に係る表示装置100は、コントローラ220から移動方向を示す指示入力が受け付けられると、アバター401の基体方向を基準として指示入力に示された移動方向へ進むよう、アバターの観察位置を更新する。また、コントローラ220が有するカメラ222により撮像された画像における表示装置100の位置を特定することにより、コントローラ220と、表示装置100と、の相対的位置を取得する。そして、センサ部105により検知された表示装置の向きの変化に応じて更新されたアバター401の観察方向と、取得された相対的位置と、に基づいて、基体方向を更新する。このように、表示装置100は、仮想空間301内のアバター401の頭部402の向きである観察方向302と、胴部403の向きである基体方向304を独立に管理するため、ユーザが自身の胴部204の正面方向206を基準とする移動方向を示す指示入力を直感的にコントローラ220に入力した場合であっても、そのユーザの直感的な指示入力に従って仮想空間内における観察位置302を移動させることができる。
また、表示装置100は、コントローラ220がカメラ222により撮像された画像における表示装置100の位置に基づいて特定した相対的位置をコントローラ220から取得する。そのため、表示装置100は、コントローラ220と、表示装置100と、を含む画像を撮影するためのカメラのような外部機器を用いずに相対的位置を取得することができ、安価な構成で実施することができる。
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。即ち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、上記の実施形態において、表示装置100が2つのマーカー501,502を有する例について説明したが、表示装置100が備えるマーカーの数はこれに限られない。表示装置100は1つのマーカーを有してもよいし、3つ以上のマーカーを有してもよい。
また、上記の実施形態において、コントローラ220が備えるカメラ222が、表示装置100が有するマーカー501,502を認識することにより、コントローラ220が表示装置100との相対的位置を特定し、表示装置100に特定した相対的位置を送信する例を説明した。しかし、表示装置100が相対的位置を取得する方法は、これに限られない。例えば、表示装置100がマーカー501,502の代わりに、表示装置100の電源状態を示すLED(Light Emitting Diode)といった発光部を有してもよい。この場合、例えば、表示装置100が所定のパターンで発光部を点滅、または発光部の色調を変化させることにより、コントローラ220は、カメラ222による撮像画像から発光部を認識し、発光部の位置に基づいて相対的位置を特定することができる。
また、上記の実施形態において、コントローラ220が、相対的位置を特定し、表示装置100に特定した相対的位置を送信することにより、表示装置100が相対的位置を取得する例について説明した。しかし、表示装置100が相対的位置を取得する方法はこれに限られない。例えば、表示装置100がカメラを有し、コントローラ220がマーカーを有する場合、コントローラ220のカメラ222の代わりに、表示装置100のカメラがコントローラ220を撮影し、その撮像画像内のマーカーの位置から、表示装置100が相対的位置を特定してもよい。すなわち、コントローラ220と、表示装置100とのいずれか少なくとも一方が有するセンサが他方を検知することにより、コントローラ220と表示装置100との相対的位置を取得することができる。
また、上記の実施形態において、コントローラ220のカメラ222により撮像された画像に基づいて、マーカー501,502を認識できない場合のように、コントローラ220のカメラ222が表示装置100を検知できない場合、表示装置100は、コントローラ220が有する姿勢センサにより検知される第1向きと、表示装置100のセンサ部105が有する姿勢センサにより検知される第2向きと、の差分により推定された相対的位置を取得してもよい。例えば、図12に示すように、時刻taにおいて、コントローラ220の姿勢センサが、第1向きとしてコントローラ220の表示方向208aを検知し、表示装置100のセンサ部105が有する姿勢センサが表示方向205aを検知したとする。このとき、コントローラ220は、検知された表示方向208aを表示装置100に送信することにより、表示装置100は、受信した表示方向208aと、検知された表示方向205aとの差分により、相対的位置φを推定することができる。また逆に、表示装置100が検知した表示方向205aをコントローラ220に送信し、コントローラ220が、検知した表示方向208aと、受信した表示方向205aとの差分により、相対的位置φを推定してもよい。この場合、コントローラ220が推定した相対的位置φを表示装置100に送信することにより、表示装置100は、相対的位置φを取得することができる。
なお、本発明に係る機能を実現するための構成を予め備えた表示装置100として提供できることはもとより、プログラムの適用により、既存のパーソナルコンピュータや情報端末機器等を、本発明に係る表示装置100として機能させることもできる。即ち、上記実施形態で例示した表示装置100による各機能構成を実現させるためのプログラムを、既存のパーソナルコンピュータや情報端末機器を制御するCPU等が実行できるように、既存のパーソナルコンピュータや情報端末機器に適用することで、そのパーソナルコンピュータや情報端末機器を本発明に係る表示装置100として機能させることができる。また、本発明に係る表示方法は、表示装置100を用いて実施できる。
また、このようなプログラムは、上記に限られず、任意の方法で適用可能である。プログラムを、例えば、コンピュータが読取可能な記録媒体[CD−ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical disc)等]に格納して適用できる他、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより適用することもできる。
なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。即ち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
本発明によれば、画像を表示する表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体を提供することができる。
100(100a,100b) 表示装置
101 制御部
102 ROM
103 RAM
104 ディスプレイ
105 センサ部
106 操作部
107 通信部
108 バス
111 受付部
112 観察位置更新部
113 検知部
114 観察方向更新部
115 取得部
116 基体方向更新部
117 生成部
118 表示部
121 状態情報記憶部
201 現実空間
202 ユーザ
203(203a,203b) ユーザの頭部
204(204a,204b) ユーザの胴部
205(205a,205b) 表示装置の表示方向
206(206a,206b) 正面方向
207(207a,207b) 基準方向
208a コントローラの表示方向
211 現実空間の方位
220 コントローラ
221 タッチパネル
222 カメラ
301 仮想空間
302(302a,302b) 観察位置
303(303a,303b) 観察方向
304(304a,304b) 基体方向
311 仮想空間の方位
401(401a,401b) アバター
402(402a,402b) アバターの頭部
403(403a,403b) アバターの胴部
501,502 マーカー
601,602 画像

Claims (7)

  1. 表示装置であって、
    外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付部と、
    前記表示装置の向きの変化を検知する検知部と、
    仮想空間内における観察位置、観察方向、基体方向を記憶する記憶部と、
    前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新部と、
    前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新部と、
    前記コントローラと、前記表示装置と、の相対的位置を取得する取得部と、
    前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新部と、
    を備えることを特徴とする表示装置。
  2. 前記取得部は、前記コントローラ、前記表示装置と、のいずれか少なくとも一方が有するセンサが他方を検知することにより、前記相対的位置を取得する、
    請求項1に記載の表示装置。
  3. 前記取得部は、前記コントローラが有する第1姿勢センサにより検知される第1向きと、前記表示装置が有する第2姿勢センサにより検知される第2向きと、の差分により推定された前記相対的位置を取得する、
    請求項1に記載の表示装置。
  4. 所定のパターンで点灯する発光部をさらに備え、
    前記取得部は、前記コントローラが有するカメラにより撮像された画像における前記発光部の位置及び前記パターンに基づいて、前記コントローラにより特定された前記相対的位置を、前記コントローラから取得する、
    請求項1に記載の表示装置。
  5. 仮想空間内における観察位置、観察方向、基体方向が記憶される記憶部を備える表示装置が実行する表示方法であって、
    外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付ステップと、
    前記表示装置の向きの変化を検知する検知ステップと、
    前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新ステップと、
    前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新ステップと、
    前記コントローラと、前記表示装置と、の相対的位置を取得する取得ステップと、
    前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新ステップと、
    を備えることを特徴とする表示方法。
  6. 仮想空間内における観察位置、観察方向、基体方向を記憶する記憶部を備えるコンピュータを、
    外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付部、
    表示装置の向きの変化を検知する検知部、
    前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新部と、
    前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新部、
    前記コントローラと、前記表示装置と、の相対的位置を取得する取得部、
    前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新部、
    として機能させることを特徴とするプログラム。
  7. 仮想空間内における観察位置、観察方向、基体方向を記憶する記憶部を備えるコンピュータを、
    外部のコントローラに対してされた移動方向を示す指示入力を受け付ける受付部、
    表示装置の向きの変化を検知する検知部、
    前記指示入力が受け付けられると、前記基体方向を基準として前記指示入力に示された移動方向へ進むよう、前記観察位置を更新する観察位置更新部と、
    前記検知された表示装置の向きの変化に応じて、前記観察方向を更新する観察方向更新部、
    前記コントローラと、前記表示装置と、の相対的位置を取得する取得部、
    前記観察方向と、前記取得された相対的位置と、に基づいて、前記基体方向を更新する基体方向更新部、
    として機能させることを特徴とするプログラムを記録した非一時的なコンピュータ読取可能な情報記録媒体。
JP2019515374A 2018-08-01 2018-08-01 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 Active JP6518028B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028874 WO2020026380A1 (ja) 2018-08-01 2018-08-01 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Publications (2)

Publication Number Publication Date
JP6518028B1 true JP6518028B1 (ja) 2019-05-22
JPWO2020026380A1 JPWO2020026380A1 (ja) 2020-08-06

Family

ID=66625545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019515374A Active JP6518028B1 (ja) 2018-08-01 2018-08-01 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Country Status (5)

Country Link
US (1) US11321920B2 (ja)
EP (1) EP3677995B1 (ja)
JP (1) JP6518028B1 (ja)
ES (1) ES2896704T3 (ja)
WO (1) WO2020026380A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977672B2 (en) * 2022-06-03 2024-05-07 Qualcomm Incorporated Distributed pose prediction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015223334A (ja) * 2014-05-28 2015-12-14 株式会社デンソー 表示システム
JP2016158795A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2018072604A (ja) * 2016-10-31 2018-05-10 株式会社コロプラ Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9268136B1 (en) 2012-09-28 2016-02-23 Google Inc. Use of comparative sensor data to determine orientation of head relative to body
CN106415447B (zh) 2014-06-30 2019-08-06 索尼公司 信息处理装置、信息处理方法和图像处理系统
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10146334B2 (en) 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
JP6676213B2 (ja) * 2016-07-22 2020-04-08 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
JP6523233B2 (ja) 2016-10-26 2019-05-29 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
CN111480181A (zh) * 2017-10-27 2020-07-31 奇跃公司 增强现实系统的虚拟标线

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015223334A (ja) * 2014-05-28 2015-12-14 株式会社デンソー 表示システム
JP2016158795A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2018072604A (ja) * 2016-10-31 2018-05-10 株式会社コロプラ Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置

Also Published As

Publication number Publication date
US20200279437A1 (en) 2020-09-03
EP3677995B1 (en) 2021-10-06
ES2896704T3 (es) 2022-02-25
EP3677995A1 (en) 2020-07-08
JPWO2020026380A1 (ja) 2020-08-06
US11321920B2 (en) 2022-05-03
EP3677995A4 (en) 2020-09-30
WO2020026380A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN111052043B (zh) 使用现实界面控制外部设备
US11030771B2 (en) Information processing apparatus and image generating method
US10627628B2 (en) Information processing apparatus and image generating method
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
JP6340301B2 (ja) ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP6532393B2 (ja) 表示制御装置及び表示制御方法
US11086392B1 (en) Devices, systems, and methods for virtual representation of user interface devices
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
JP6719418B2 (ja) 電子機器
KR20180059765A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2017102732A (ja) 表示制御装置及び表示制御方法
WO2019155840A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020024417A (ja) 情報処理装置
WO2019065846A1 (ja) プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
KR20200096901A (ko) 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
WO2018074045A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6518028B1 (ja) 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US10369468B2 (en) Information processing apparatus, image generating method, and program
JP6587364B2 (ja) プログラムおよび画像表示システム
JP6469752B2 (ja) 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
WO2018074054A1 (ja) 表示制御装置、表示制御方法及びプログラム
JP2018029969A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190318

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190418

R150 Certificate of patent or registration of utility model

Ref document number: 6518028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250