JP6723417B1 - 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 - Google Patents

仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP6723417B1
JP6723417B1 JP2019121713A JP2019121713A JP6723417B1 JP 6723417 B1 JP6723417 B1 JP 6723417B1 JP 2019121713 A JP2019121713 A JP 2019121713A JP 2019121713 A JP2019121713 A JP 2019121713A JP 6723417 B1 JP6723417 B1 JP 6723417B1
Authority
JP
Japan
Prior art keywords
unit
virtual reality
image
user
reality system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019121713A
Other languages
English (en)
Inventor
高義 谷川
高義 谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Five For Co Ltd
Original Assignee
Five For Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Five For Co Ltd filed Critical Five For Co Ltd
Priority to JP2019121713A priority Critical patent/JP6723417B1/ja
Priority to US17/051,208 priority patent/US11861055B2/en
Priority to CN201980039336.XA priority patent/CN112449708A/zh
Priority to PCT/JP2019/042942 priority patent/WO2020261595A1/ja
Priority to JP2020007636A priority patent/JP2021009673A/ja
Application granted granted Critical
Publication of JP6723417B1 publication Critical patent/JP6723417B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザの所定の動作に応じて仮想現実の映像を変化させることができる仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体を提供する。【解決手段】仮想現実システム1は、映像100を表示する表示部13と、表示部13に表示される映像100の変化を制御する制御部21と、原点位置Xを設定する原点位置設定部14と、ユーザUの現在位置Yを検知して認識する現在位置認識部15と、原点位置設定部14により設定された原点位置Xに対する現在位置認識部15により認識された現在位置Yの方向を演算し、前記方向に応じて表示された映像100における進行方向を設定する進行方向設定部16と、を有し、制御部21は、進行方向設定部16により設定された進行方向に映像100を進行させるように映像100の変化を制御する。【選択図】図1

Description

本発明は、仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関し、特に、ユーザに装着され、仮想現実の映像を表示する映像表示装置を有する仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関する。
近年、仮想現実(バーチャルリアリティー)を体感することができるシステム(仮想現実システム)が広く浸透している。仮想現実システムは、映像表示装置をユーザの装着して映像表示装置に表示される映像をユーザの位置に応じて三次元的に連続的に変化させるシステムであり、ユーザは、仮想現実を楽しむことができる。
このような仮想現実システムは、例えば、特許文献1に開示される技術を参照することができる。
特開2017−195365号公報
ところで、従来の仮想現実システムにおいては、表示される映像の進行方向をユーザの向いている向きで設定することが多かったが、原点位置からの方向で進行方向を設定するシステムの開発が望まれていた。
本願発明は上記事情に鑑みてなされたものであり、原点位置からの方向で進行方向を設定することができる仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体を提供することを目的とする。
上記目的を達成するために、本発明に係る仮想現実システムは、ユーザに装着され、仮想現実の映像を表示する映像表示装置を有する仮想現実システムであって、前記映像を表示する表示部と、前記表示部に表示される前記映像の変化を制御する制御部と、原点位置を設定する原点位置設定部と、前記ユーザの現在位置を検知して認識する現在位置認識部と、前記原点位置設定部により設定された原点位置に対する前記現在位置認識部により認識された現在位置の方向を演算し、前記方向に応じて前記表示された映像における進行方向を設定する進行方向設定部と、を有し、前記制御部は、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御することを特徴とする。
本発明によれば、前記制御部は、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御することとしたので、原点位置からの方向で進行方向を設定することができる。
前記ユーザの所定の動作を検知する動作検知部を有し、前記制御部は、前記動作検知部により前記ユーザの所定の動作が検知されたときに、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御することとすれば、ユーザの所定の動作に応じて仮想現実の映像を変化させることができる。
前記動作検知部は、前記ユーザの動作における速度、加速度、および角速度の少なくともいずれかを検知し、前記制御部は、前記判断部により前記検知された加速度および/または角速度が所定値であるときに、前記映像の変化を制御することができる。
前記映像の表示は、所定の表示物を含むことができる。前記所定の表示物は、前記進行方向設定部により設定された進行方向を示す表示物を含むこととすれば、進行方向を表示物により確認することができる。
前記原点位置から前記現在位置までの距離に応じて、前記表示物が表示される状態を変化させることができる。
すなわち、例えば、前記原点位置から前記現在位置までの距離に応じて、前記表示物の位置を変化させることができ、前記原点位置から前記現在位置までの距離に応じて、前記表示物の大きさを変化することができる。
これにより、ユーザが、原点位置から現在位置までの距離を主観的に把握することが可能となる。
前記制御部は、前記動作検知部により検知されたユーザの動作における加速度および/または角速度に応じて、前記映像の変化の速度を変化させることができる。
前記制御部による前記映像の変化は、前記進行方向設定部により設定された進行方向に前記映像を進行させる前記映像の変化と前記変化以外の前記映像の変化を含むとともに、前記ユーザが操作し、所定のコマンド情報を送信するコントローラを有し、前記コントローラは、前記映像表示装置と通信可能に構成されるとともに、前記受け付けたコマンド情報を前記映像表示装置の入力部に送信し、前記制御部による前記映像の変化は、更に前記入力部が入力した前記コマンド情報に応じて行うこととすれば、ユーザからの所定のコマンド情報に応じて映像を変化させることができる。
前記制御部、前記原点位置設定部、前記現在位置認識部、前記進行方向設定部、前記動作検知部、前記閾値設定部、前記判断部、および前記入力部は、前記映像表示装置が有することができる。
仮想現実システムは、前記原点位置を示す標識を有することができる。
すなわち、例えば、仮想現実システムは、前記標識を含む現実世界の床、地面、または前記ユーザが上に乗るため敷物を有することができる。
前記標識は、立体的形状とすることができる。
このような標識を有することとすれば、ユーザは、現実世界の原点位置を確認することができる。
前記仮想現実の映像の表示は、三次元の仮想現実の映像の表示とすることができる。
上記目的を達成するために、本発明に係るプログラムは、ユーザに装着され、仮想現実の映像を表示する映像表示装置を有する仮想現実システムのコンピュータを、前記映像を表示する表示部と、前記表示部に表示される前記映像の変化を制御する制御部と、原点位置を設定する原点位置設定部と、前記ユーザの現在位置を検知して認識する現在位置認識部と、前記原点位置設定部により設定された原点位置に対する前記現在位置認識部により認識された現在位置の方向を演算し、前記方向に応じて前記表示された映像における進行方向を設定する進行方向設定部と、前記ユーザの所定の動作を検知する動作検知部として機能させ、前記制御部は、前記動作検知部により前記ユーザの所定の動作が検知されたときに、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御する機能を含むことを特徴とする。
上記目的を達成するために、本発明に係るコンピュータ読み取り可能な記憶媒体は、請求項13に記載のプログラムを記憶可能に構成されることを特徴とする。
本発明によれば、ユーザの所定の動作に応じて仮想現実の映像を変化させることができる。
本発明の実施形態に係る仮想現実システムの全体構成の概要を示す図である。 同仮想現実システムの映像表示装置およびコントローラを拡大して示す拡大図である。 同仮想現実システムの映像表示装置のコンピュータの構成を示すブロック図である。 同仮想現実システムの映像表示装置のコンピュータの機能ブロックの構成を示す機能ブロック図である。 同仮想現実システムの映像表示装置の表示の例を示す図である。 同仮想現実システムにおいてユーザが原点位置から現在位置に移動した状態を示す図である。 同仮想現実システムにおいて表示が原点位置から現在位置に進行し映像が変化した状態を示す図である。 同仮想現実システムにおいてユーザが現在位置において所定の動作を行った状態を示す図で、(a)はユーザが上方に足踏みした状態を示す図、(b)はユーザの足が着地した状態を示す図である。 同仮想現実システムによる映像の表示方法を説明するためのフローチャートである。
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係る仮想現実システムの全体構成の概要を示す図、図2は、同仮想現実システムの映像表示装置およびコントローラを拡大して示す拡大図、図3は、同仮想現実システムの映像表示装置のコンピュータの構成を示すブロック図、図4は、同仮想現実システムの映像表示装置の機能ブロックの構成を示す機能ブロック図、図5は、同仮想現実システムの映像表示装置の表示の例を示す図、図6は、同仮想現実システムにおいてユーザが原点位置から現在位置に移動した状態を示す図、図7は、同仮想現実システムにおいて表示が原点位置から現在位置に進行し映像が変化した状態を示す図、図8は、同仮想現実システムにおいてユーザが現在位置において所定の動作を行った状態を示す図である。なお、本実施形態において、各方向については図に示される方向を基準とするものとする。
図1を参照して本発明の仮想現実システム1の概要を説明すると、本実施形態の仮想現実システム1は、映像表示装置10、コントローラ30、および標識40を有しており、仮想現実の映像100の表示を提供することができる。仮想現実の表示は、仮想現実の三次元空間における表示とすることができる。
映像表示装置10は、図2に示すように、仮想現実システム1を利用するユーザUの頭部U´に装着され、フィールドの映像100を表示することができる。映像表示装置10は、フィールドの映像100の表示が可能な本体10´と、本体10´をユーザUの頭部U´に固定するための固定部10´´を有している。固定部10´´は、帯状または紐状となっており、ユーザUの頭部U´の各種のサイズに対応可能なように長さ調節可能に構成されている。なお、映像表示装置10は、ヘッドマウントディスプレーやヘッドセットとすることができる。また、映像表示装置10は、グラスタイプ(眼鏡タイプ)とすることもできる。
映像表示装置10は、コンピュータとしての一般的な構成を備えており、図3に示すように、相互にバス10aを介して接続された中央処理装置(CPU)10b、記憶装置(メモリ)10c、入力装置10d、表示装置(液晶ディスプレー)10e等を有している。記憶装置10cは、後述する記憶部11がその機能を果たしコンピュータ読み取り可能な記憶媒体として機能する。入力装置10dは、後述する入力部12がその機能を果たし、表示装置10eは、後述する表示部13がその機能を果たす。
映像表示装置10は、図4に示すように、記憶部11、入力部12、表示部13、原点位置設定部14、現在位置認識部15、進行方向設定部16、距離演算部17、動作検知部18、閾値設定部19、判断部20、制御部21の各機能部を有している。
記憶部11は、表示部13が表示する各種のフィールの映像100を記憶することができる。
入力部12は、コントローラ30や後述するセンサー等から各種の情報やデータ、信号を入力することができる。
表示部13は、図5に示すように、記憶部11からフィールドの映像100を読み出して表示することができる。表示部13におけるフィールドの映像100の表示は、所定の表示物13aより詳しくは進行方向Aを示す表示物13aを含むことができる。表示物13aは、例えば矢印とすることができるが、鳥等の動物、更には各種のキャラクター等とすることとしてもよいを含むことができる。表示物13aが示す進行方向Aは、例えば、矢印の指し示す方向、動物やキャラクターの向く方向等とすることができる。
原点位置設定部14は、仮想現実より詳しくはフィールドの映像100における原点位置Xを設定することができる。原点位置Xの設定は、ユーザUが床、地面、敷物等の現実世界における所定位置に位置しながらコントローラ20を所要に操作することにより、仮想現実のフィールドの映像100の表示における原点位置Xとして入力し設定することができる。原点位置Xの入力は、コントローラ30からの信号を入力部12を介して行うことができる。
現在位置認識部15は、ユーザUの現在位置Yを検知して認識することができる。現在位置認識部15は、天井、床、壁等に設けられたユーザUの位置を検知する位置検知センターおよび/またはカメラ等の位置検知器15aからの検知データや画像データの入力によりユーザUの現在位置Yを認識することができる。現在位置認識部15は、カメラから入力される画像データを解析してユーザUの位置を認識するため画像解析機能を有することとしてもよい。位置検知センターおよび/またはカメラ等の位置検知器15aからの検知データや画像データの入力は、入力部12を介して行うことができる。
進行方向設定部16は、図6に示すように、原点位置設定部14により設定された原点位置Xに対する現在位置認識部15により認識された現在位置Yのベクトルの方向を演算することができる。そして、進行方向設定部16は、演算したベクトルの方向に応じて表示部13に表示されたフィールドの映像100における進行方向Aを設定することができる。
距離演算部17は、同じく図6に示すように、原点位置設定部14により設定された原点位置Xから現在位置認識部15により認識された現在位置Yまでの距離Bを演算することができる。
ここで、距離演算部17により演算された原点位置Xから現在位置Yまでの距離Bに応じて、表示部13における表示物13aが表示される状態を変化させることができる。より詳しくは、距離演算部17により演算された原点位置Xから現在位置Yまでの距離Bに応じて、図7に示すように、表示部13にける表示物13aの位置を変化させることができる。
例えば、原点位置Xから現在位置Yまでの距離Bが相対的に長い場合には、原点位置Xから相対的に離れた位置に表示物13aを表示し、原点位置Xから現在位置Yまでの距離Bが短い場合には、原点位置Xから相対的に近い位置に表示物13aを表示することができる。
また、距離演算部17により演算された原点位置Xから現在位置Yまでの距離Bに応じて、同じく図7に示すように、表示部13にける表示物13aの大きさを変化させることができる(図7の表示物13aの大きさは、図5の表示物13aの大きさよりも小さくなっている)。例えば、原点位置Xから現在位置Yまでの距離Bが相対的に長い場合には、表示物13aを相対的に小さく表示し、原点位置Xから現在位置Yまでの距離Bが短い場合には、表示物13aを相対的に大きく表示することができる。
動作検知部18は、ユーザUの所定の動作を検知することができる。より詳しくは、動作検知部18は、ユーザUの動作における加速度を検知することができる。動作検知部18は、加速度センサー18aからの入力により加速度を検知することができる。加速度センサー18aからの入力は、入力部12を介して行うことができる。加速度センサー18aは、例えば映像表示装置10に設けることができる。
閾値設定部19は、所定値より詳しくは所定の加速度の閾値を設定することができる。閾値設定部19による閾値の設定は、例えば予め記憶部11に記憶された閾値を、仮想現実システム1の電源のオン信号をキック信号として読み出し設定するこができる。
判断部20は、閾値設定部19により設定された閾値と動作検知部18により検知された加速度の大小関係を判断することができる。
制御部21は、図8に示すように、動作検知部18によりユーザUの所定の動作が検知されたときに、距離演算部17により演算された距離Bに応じて、進行方向設定部16により設定された進行方向Aにフィールドの映像100を進行させるように映像100の変化を制御することができる(図8では、ユーザUが現在位置Yにおいて足踏みした状態を示す)。すなわち、制御部21は、判断部20により検知された加速度が閾値よりも大きいと判断されたときに、映像100の変化を制御することができる。
ここで、加速度の閾値は、ユーザUの原点位置Xから現在位置Yへの通常の移動における加速度よりも大きい値とする。加速度の閾値を通常よりも大きい値とすることで、動作検知部18が検知するユーザUの動作を、通常のユーザUの原点位置Xから現在位置Yへの移動の動作と区別することができる。ユーザUの動作は、図8に示すように、所定に上下方向に足踏みする動作の他、ジャンプする、ダッシュする、手を振る等、所定の加速度が得られる動作とすることができる。
すなわち、表示部13によるフィールドの映像100は、ユーザUの原点位置Xから現在位置Yへの通常の移動(図6の状態)では、停止した状態(図5の状態)となっており、ユーザUが所定の動作を行い(図8の状態)判断部20により検知された加速度が閾値よりも大きいと判断されたときにのみ、停止した状態の映像100(図5の状態)を制御部21により距離Bだけ進行方向Aに進行するように変化させた状態の映像100(図7の状態)とすることができる。つまり、ユーザUは、フィールドの映像100の変化を自らの動作により意図することができ、酔うような感覚に陥ることを事前に回避することが可能となる。
なお、制御部21は、動作検知部19により検知されたユーザの動作における加速度および/または角速度に応じて、フィールドの映像100の変化の速度を変化させる制御を行い、表示部13に表示させることができる。
例えば、原点位置Xから現在位置Yまでの距離Bが相対的に長い場合には、フィールドの映像100の変化の速度を相対的に大きくすることができる。また、原点位置Xから現在位置Yまでの距離Bが短い場合には、フィールドの映像100の変化の速度を相対的に小さくすることができる。これにより、原点位置Xから現在位置Yまでの距離Bが相違する場合にあっても映像100の進行方向Aに進行するための映像変化時間を一定にすることが可能となり、ユーザUのストレスを少なくすることができる。
コントローラ30は、本体31に、ユーザUが所要に操作するための例えば釦形状の操作部32を設けている。すなわち、コントローラ30は、ユーザUが操作部32を所要に操作し、所定のコマンド情報を送信することができる。より詳しくは、コントローラ30は、映像表示装置10と通信可能に構成されるとともに、コマンド情報を映像表示装置10の入力部11に送信することができる。コマンド情報には、仮想現実の表示を開始するための情報、記憶部11に記憶される複数のフィールドの映像100から所定の映像100を選択するための情報等が含まれる。
標識40は、現実世界の原点位置Xを示すことができる。標識40は、現実世界の床、地面、またはユーザUが上に乗るため敷物に設けることができる。標識40は、立体的形状とすることができ、立体的形状は、ユーザUに向かって突出する突出形状とすることができ、突出形状は、上方に突出する形状とすることができる。ユーザUは、標識40の上または近傍に立ち、コントローラ30を所要に操作することにより、標識40の位置(または標識40の近傍位置)すなわち現実世界の原点位置Xを入力して設定するとともに、この現実世界の原点位置Xと仮想現実の原点位置Xすなわち仮想現実のフィールドの映像100の表示における原点位置Xを一致させることができる。
ここで、上記した映像表示装置10の各機能部は、所定のプログラム200を実行させることにより機能をさせることができる。
すなわち、プログラム200は、仮想現実システム1のコンピュータを、記憶部11、入力部12、表示部13、原点設定部14、現在位置認識部15、進行方向設定部16、距離演算部17、動作検知部18、閾値設定部19、判断部20、制御部21として機能させることができる。プログラム200は、映像表示装置10の記憶装置10cに記憶されている。
次に、本発明の仮想現実システム1による映像100の表示方法を図9のフローチャートに基づいて説明する。
すなわち、まずステップS10において、ユーザUが仮想現実システム1の電源をオンするとともに、コントローラ30の操作部32を所要に操作して、仮想現実の表示を開始するための情報、記憶部11に記憶される複数のフィールドの映像100から所定の映像100を選択するための情報等のコマンド情報を送信して入力部12が入力する。また、閾値設定部19が加速度の閾値を設定する。
次に、ステップS20において、ユーザUが標識40を設ける。標識40は、現実世界の床、地面、またはユーザUが上に乗るため敷物に設ける。標識40は、現実世界の原点位置Xを示す。
続いて、ステップS30において、ユーザUが標識40の上または近傍に立ち、コントローラ30を所要に操作する。これにより、原点位置設定部14が、標識40の位置(または標識40の近傍位置)を現実世界の原点位置Xとして入力して設定するとともに、この現実世界の原点位置Xと仮想現実の原点位置Xすなわち仮想現実のフィールドの映像100の表示における原点位置Xを一致させる。
次いで、ステップS40において、ユーザUが原点位置Xから所要に移動し、現在位置認識部15が、ユーザUの現在位置Yを検知して認識する。
次に、ステップS50において、進行方向設定部16が、原点位置設定部14により設定された原点位置Xに対する現在位置認識部15により認識された現在位置Yのベクトルの方向を演算し、演算したベクトルの方向に応じて表示部13に表示されたフィールドの映像100における進行方向Aを設定する。
次いで、ステップS60において、距離演算部17が、原点位置設定部14により設定された原点位置Xから現在位置認識部15により認識された現在位置Yまでの距離Bを演算し、進行方向Aにおけるベクトルの大きさを演算する。
続いて、ステップS70において、ユーザUが所定の動作を行うとともに、動作検知部18が、ユーザUの所定の動作を加速度として検知する。
次に、ステップS80において、判断部20が、閾値設定部19により設定された閾値と動作検知部18により検知された加速度の大小関係を判断し、検知された加速度が閾値よりも大きいと判断したときは、ステップS90に進み、制御部21が、距離演算部17により演算された距離Bに応じて、進行方向設定部16により設定された進行方向Aにフィールドの映像100を進行させるように映像100の変化を制御する。また、制御部21は、距離演算部17により演算された原点位置Xから現在位置Yまでの距離Bに応じて、表示部13における表示物13aが表示される状態を変化させる制御を行い、表示部13に表示させる。更に、制御部21は、距離演算部17により演算された原点位置Xから現在位置Yまでの距離Bに応じて、フィールドの映像100の変化の速度を変化させる制御を行い、表示部13に表示させる。
以上説明したように、本実施形態によれば、制御部21は、進行方向設定部16により設定された進行方向Aに映像100を進行させるように映像100の変化を制御することとしたので、原点位置Xからの方向で進行方向Aを設定することができる。
また、制御部21は、動作検知部18によりユーザUの所定の動作が検知されたときに、進行方向設定部16により設定された進行方向Aに映像100を進行させるように映像100の変化を制御することとすれば、ユーザUの所定の動作に応じて仮想現実の映像100を変化させることができる。
また、映像100の表示は、進行方向Aを示す表示物13aを含むこととしたので、進行方向Aを表示物13aにより確認することができる。
更に、原点位置Xから現在位置Yまでの距離Bに応じて、表示物13aが表示される状態を変化させることとしたので、ユーザUが、原点位置Xから現在位置Yまでの距離Bを主観的に把握することが可能となる。
更にまた、仮想現実システム1は、前記原点位置Xを示す標識を有することとしたので、ユーザUは、現実世界の原点位置Xを確認することができる。
なお、本発明は上述した実施形態に限定されることなく、種々の変形実施、応用実施が可能であることは勿論である。
すなわち、例えば、制御部21による映像の変化は、進行方向設定部16により設定された進行方向に映像を進行させる映像の変化と前記変化以外の映像の変化を含み、これら映像の変化と前記変化以外の映像の変化は、入力部12が入力したコントローラ30から送信されるコマンド情報に応じて行うこととしてもよい。すなわち、コントローラ30の操作は、通常ユーザUが手で操作部32を操作して行うため、ユーザUが足で歩いて行う原点位置Xから現在位置Yへの移動とは区別した動作とすることができ好ましい。
また、上述した実施形態にあっては、制御部21は、映像表示装置10に有することとしているが、コントローラ30に有することとしたり、映像表示装置10およびコントローラ30のいずれにも有する等、複数のデバイスに有することとしてもよい。
更に、動作検知部18は、加速度センサー18aからの入力により加速度を検知することとしているが、手を振る動作、腰を振る動作、足を蹴り上げる等各種の動作を検知し、制御部21により映像100の変化を制御することとしてもよい。すなわち、動作検知部18は、ユーザUの所定の動作を検知することとすれば所要の効果を奏することができる。なお、かかる場合にあっては、各動作を検知可能なように、腕、腰、足に所定のセンサーが備えられる。
更にまた、上述した実施形態にあっては、動作検知部18は、加速度センサー18aからの入力により加速度を検知することとし、閾値設定部19は、所定の加速度の閾値を設定し、判断部20は、閾値設定部19により設定された閾値と動作検知部18により検知された加速度の大小関係を判断することとしているが、加速度センサー18aに代えて速度センサーや角速度センサーを設けることとして、動作検知部18は、速度センサーや角速度センサーからの入力により速度や角速度を検知することとし、閾値設定部19は、所定の速度や角速度の閾値を設定し、判断部20は、閾値設定部19により設定された閾値と動作検知部18により検知された速度や角速度の大小関係を判断することとしてもよい。また、加速度センサー18a、速度センサー、および角速度センサーを適宜組み合わせ使用することとしてもよい。
すなわち、動作検知部18は、ユーザUの動作における速度、加速度、および角速度の少なくともいずれかを検知し、制御部19は、判断部20により検知された速度、加速度、および角速度の少なくともいずれかが所定値であるときに、映像100の変化を制御することとすればよい。角速度センサーは、例えばジャイロセンサーとするこができる。
A:進行方向
B:距離
U:ユーザ
U´:頭部
X:原点位置
Y:現在位置
1:仮想現実システム
10:映像表示装置
10´:本体
10´´:固定部
10a:バス
10b:中央処理装置
10c:記憶装置
10d:入力装置
10e:表示装置
11:記憶部
12:入力部
13:表示部
13a:表示物
14:原点位置設定部
15:現在位置認識部
15a:位置検知器
16:進行方向設定部
17:距離演算部
18:動作検知部
19:閾値設定部
20:判断部
21:制御部
30:コントローラ
31:本体
32:操作部
40:標識
100:映像
200:プログラム

Claims (17)

  1. ユーザに装着され、仮想現実の映像を表示する映像表示装置を有する仮想現実システムであって、
    前記映像を表示する表示部と、
    前記表示部に表示される前記映像の変化を制御する制御部と、
    原点位置を設定する原点位置設定部と、
    前記ユーザの現在位置を検知して認識する現在位置認識部と、
    前記原点位置設定部により設定された原点位置に対する前記現在位置認識部により認識された現在位置の方向を演算し、前記方向に応じて前記表示された映像における進行方向を設定する進行方向設定部と、を有し、
    前記制御部は、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御することを特徴とする仮想現実システム。
  2. 前記ユーザの所定の動作を検知する動作検知部を有し、
    前記制御部は、前記動作検知部により前記ユーザの所定の動作が検知されたときに、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御することを特徴とする請求項1に記載の仮想現実システム。
  3. 前記動作検知部は、前記ユーザの動作における速度、加速度、および角速度の少なくともいずれかを検知し、
    前記制御部は、前記速度、加速度、および角速度の少なくともいずれかが所定値であるときに、前記映像の変化を制御することを特徴とする請求項2に記載の仮想現実システム。
  4. 前記映像の表示は、所定の表示物を含むことを特徴とする請求項1乃至請求項3のいずれか一項に記載の仮想現実システム。
  5. 前記所定の表示物は、前記進行方向設定部により設定された進行方向を示す表示物を含むことを特徴とする請求項4に記載の仮想現実システム。
  6. 前記原点位置から前記現在位置までの距離を演算する距離演算部を有し、前記距離演算部により演算された前記原点位置から前記現在位置までの距離に応じて、前記表示物が表示される状態を変化させることを特徴とする請求項4または請求項5に記載の仮想現実システム。
  7. 前記原点位置から前記現在位置までの距離を演算する距離演算部を有し、前記距離演算部により演算された前記原点位置から前記現在位置までの距離に応じて、前記表示物の位置を変化させることを特徴とする請求項4乃至請求項6のいずれか一項に記載の仮想現実システム。
  8. 前記原点位置から前記現在位置までの距離を演算する距離演算部を有し、前記距離演算部により演算された前記原点位置から前記現在位置までの距離に応じて、前記表示物の大きさを変化させることを特徴とする請求項4乃至請求項7のいずれか一項に記載の仮想現実システム。
  9. 前記制御部は、前記動作検知部により検知されたユーザの動作における加速度および/または角速度に応じて、前記映像の変化の速度を変化させることを特徴とする請求項2に記載の仮想現実システム。
  10. 前記制御部による前記映像の変化は、前記進行方向設定部により設定された進行方向に前記映像を進行させる前記映像の変化と前記変化以外の前記映像の変化を含むとともに、
    前記ユーザが操作し、前記ユーザからの所定のコマンド情報を受け付けるコントローラを有し、
    前記コントローラは、前記映像表示装置と通信可能に構成されるとともに、前記受け付けたコマンド情報を前記映像表示装置の入力部に送信し、
    前記制御部による前記映像の変化は、前記入力部が入力した前記コマンド情報に応じて行うことを特徴とする請求項1乃至請求項9のいずれか一項に記載の仮想現実システム。
  11. 前記制御部、前記原点位置設定部、前記現在位置認識部、前記進行方向設定部、前記動作検知部、前記原点位置から前記現在位置までの距離を演算する距離演算部、および前記ユーザが操作し、前記ユーザからの所定のコマンド情報を受け付けるコントローラから送信される前記コマンド情報を入力する入力部は、前記映像表示装置が有することを特徴とする請求項2に記載の仮想現実システム。
  12. 前記原点位置を示す標識を有することを特徴とする請求項1に記載の仮想現実システム。
  13. 前記標識を含む現実世界の床、地面、または前記ユーザが上に乗るため敷物を有することを特徴する請求項12に記載の仮想現実システム。
  14. 前記標識は、立体的形状とすることを特徴とする請求項12または請求項13に記載の仮想現実システム。
  15. 前記仮想現実の映像の表示は、三次元の仮想現実の映像の表示とすることを特徴とする請求項1乃至請求項14のいずれか一項に記載の仮想現実システム。
  16. ユーザに装着され、仮想現実の映像を表示する映像表示装置を有する仮想現実システムのコンピュータを、
    前記映像を表示する表示部と、
    前記表示部に表示される前記映像の変化を制御する制御部と、
    原点位置を設定する原点位置設定部と、
    前記ユーザの現在位置を検知して認識する現在位置認識部と、
    前記原点位置設定部により設定された原点位置に対する前記現在位置認識部により認識された現在位置の方向を演算し、前記方向に応じて前記表示された映像における進行方向を設定する進行方向設定部と、
    前記ユーザの所定の動作を検知する動作検知部として機能させ、
    前記制御部は、前記動作検知部により前記ユーザの所定の動作が検知されたときに、前記進行方向設定部により設定された進行方向に前記映像を進行させるように前記映像の変化を制御する機能を含むことを特徴とするプログラム。
  17. 請求項16に記載のプログラムを記憶することを特徴とするコンピュータ読
    み取り可能な記憶媒体。
JP2019121713A 2019-06-28 2019-06-28 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 Active JP6723417B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019121713A JP6723417B1 (ja) 2019-06-28 2019-06-28 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
US17/051,208 US11861055B2 (en) 2019-06-28 2019-10-31 Virtual reality system, program, and computer-readable storage medium
CN201980039336.XA CN112449708A (zh) 2019-06-28 2019-10-31 虚拟现实系统、程序、以及计算机可读取存储介质
PCT/JP2019/042942 WO2020261595A1 (ja) 2019-06-28 2019-10-31 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
JP2020007636A JP2021009673A (ja) 2019-06-28 2020-01-21 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019121713A JP6723417B1 (ja) 2019-06-28 2019-06-28 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Publications (1)

Publication Number Publication Date
JP6723417B1 true JP6723417B1 (ja) 2020-07-15

Family

ID=71523922

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019121713A Active JP6723417B1 (ja) 2019-06-28 2019-06-28 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
JP2020007636A Pending JP2021009673A (ja) 2019-06-28 2020-01-21 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020007636A Pending JP2021009673A (ja) 2019-06-28 2020-01-21 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US11861055B2 (ja)
JP (2) JP6723417B1 (ja)
CN (1) CN112449708A (ja)
WO (1) WO2020261595A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021009673A (ja) * 2019-06-28 2021-01-28 株式会社Five for 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210357021A1 (en) * 2020-05-13 2021-11-18 Northwestern University Portable augmented reality system for stepping task therapy
JP2022113429A (ja) 2021-01-25 2022-08-04 凸版印刷株式会社 距離画像撮像装置、及び距離画像撮像方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079174A (ja) * 2004-09-07 2006-03-23 Canon Inc 仮想現実感提示装置および情報処理方法
WO2017065126A1 (ja) * 2015-10-15 2017-04-20 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
US20170262050A1 (en) * 2016-03-14 2017-09-14 Htc Corporation Interaction method for virtual reality

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101347518B1 (ko) * 2010-08-12 2014-01-07 주식회사 팬택 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버
JP6006536B2 (ja) * 2012-06-01 2016-10-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP2013251187A (ja) * 2012-06-01 2013-12-12 Panasonic Corp 放電灯点灯装置、およびこれを用いた車載用高輝度放電灯点灯装置、車載用前照灯装置、車両
US9417762B2 (en) * 2013-01-09 2016-08-16 Northrop Grumman Systems Corporation System and method for providing a virtual immersive environment
US20140240351A1 (en) * 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US9483117B2 (en) * 2013-04-08 2016-11-01 Nokia Technologies Oy Apparatus, method and computer program for controlling a near-eye display
CN104969538B (zh) * 2013-05-28 2018-08-17 企业服务发展公司有限责任合伙企业 管理封闭区域用的移动增强现实
JP5869177B1 (ja) * 2015-09-16 2016-02-24 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
JP6930353B2 (ja) 2017-10-05 2021-09-01 凸版印刷株式会社 仮想現実体感システム
JP6723417B1 (ja) * 2019-06-28 2020-07-15 株式会社Five for 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079174A (ja) * 2004-09-07 2006-03-23 Canon Inc 仮想現実感提示装置および情報処理方法
WO2017065126A1 (ja) * 2015-10-15 2017-04-20 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
US20170262050A1 (en) * 2016-03-14 2017-09-14 Htc Corporation Interaction method for virtual reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021009673A (ja) * 2019-06-28 2021-01-28 株式会社Five for 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
US11861055B2 (en) 2024-01-02
JP2021009673A (ja) 2021-01-28
WO2020261595A1 (ja) 2020-12-30
US20230152879A1 (en) 2023-05-18
CN112449708A (zh) 2021-03-05

Similar Documents

Publication Publication Date Title
JP6979475B2 (ja) ヘッドマウントディスプレイ追跡
JP6723417B1 (ja) 仮想現実システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
US11083950B2 (en) Information processing apparatus and information processing method
US10139902B2 (en) Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
US9873048B2 (en) Method and system for adjusting a field of view region in a virtual space
US9838573B2 (en) Method for guiding controller to move to within recognizable range of multimedia apparatus, the multimedia apparatus, and target tracking apparatus thereof
US20110185309A1 (en) Gesture-based user interface
JP2009011362A (ja) 情報処理システム、ロボット装置及びその制御方法
US20170256073A1 (en) Minimizing variations in camera height to estimate distance to objects
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
CN103608741A (zh) 由移动机器人来追踪及跟随运动对象
US11695908B2 (en) Information processing apparatus and information processing method
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
JP6117414B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US11112857B2 (en) Information processing apparatus, information processing method, and program
US20190230290A1 (en) Information processing device, information processing method, and program
JP6118444B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6342448B2 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
US11321920B2 (en) Display device, display method, program, and non-temporary computer-readable information storage medium
JP6535699B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
CN108446012B (zh) 虚拟现实移动画面显示方法及虚拟现实装置
WO2021241110A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019045997A (ja) 情報処理装置及びその方法、プログラム
JP6496391B1 (ja) 表示システム及び表示方法
JP6449922B2 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191107

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200623

R150 Certificate of patent or registration of utility model

Ref document number: 6723417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250