JP2015502584A - 可搬装置、仮想現実システムおよび方法 - Google Patents

可搬装置、仮想現実システムおよび方法 Download PDF

Info

Publication number
JP2015502584A
JP2015502584A JP2014533895A JP2014533895A JP2015502584A JP 2015502584 A JP2015502584 A JP 2015502584A JP 2014533895 A JP2014533895 A JP 2014533895A JP 2014533895 A JP2014533895 A JP 2014533895A JP 2015502584 A JP2015502584 A JP 2015502584A
Authority
JP
Japan
Prior art keywords
user
portable device
virtual
world
real world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014533895A
Other languages
English (en)
Other versions
JP5934368B2 (ja
Inventor
ムチラー,クリストファー
オット,シュテファン
ヴィット,ニコラス
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2015502584A publication Critical patent/JP2015502584A/ja
Application granted granted Critical
Publication of JP5934368B2 publication Critical patent/JP5934368B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/205Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform for detecting the geographical location of the game platform
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6615Methods for processing data by generating or executing the game program for rendering three dimensional images using models with different levels of detail [LOD]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】【解決手段】可搬装置は、現実世界における可搬装置のユーザの視線方向を特定するように構成された視線方向センサと、現実世界におけるユーザの位置を特定するように構成された位置特定器とを備える。さらに、可搬装置は、現実世界におけるユーザの視線方向およびユーザの位置に基づいて、現実世界の3D座標系における視線方向の変化が仮想世界の3D座標系における視線方向の変化をもたらす仮想世界を生成するように構成された処理部を備える。可搬装置は、生成された仮想世界を、現実世界の視界を遮りつつユーザに表示するように構成された表示装置をさらに備える。

Description

本発明は、可搬装置に関する。本発明はさらに、仮想現実システムに関する。
これまで、仮想環境において現実のようにユーザが行動および移動することができるファーストパーソン・ゲームを実現することは、可能ではなかった。その理由は、主に2つの問題があるからである。第1に、物体の視線方向を充分に正確に特定することが可能でなかった。第2に、既知のシステムでは、物体の位置特定を数センチメートル単位で正確に行うことができなかった。さらに、システムと実際に情報交換を行うため、処理時間は最小限のものでなくてはならない。第3に、現在の手法は、例えば、航空用または自動車用として知られているトレッドミルまたはシミュレータからのいわゆる二次元サイバーウォーク・プラットフォームのような、大なり小なり制限されたハードウェア設備に適用される。
サイバーウォーク・プラットフォームは、床に対するグランド・コントロールや頭部に対する大型の電子装置を導入しなければならず、非常に柔軟性の低い。さらに、他のユーザと互いに影響し合うことが、そのような装置が寄与しているあらゆる人に対して必要となる。
本発明の課題は、完全に仮想的な環境または仮想の世界にいる印象をユーザに伝えることができるコンセプトを作り出すことである。
この課題は請求項1に記載の可搬装置および請求項18に記載の方法によって解決される。
本発明により、現実世界における可搬装置のユーザの視線方向を特定するように構成された視線方向センサを備える可搬装置が創出される。さらに、可搬装置は、現実世界におけるユーザの位置を特定するように構成された位置特定器を備える。さらに、可搬装置は、現実世界におけるユーザの視線方向およびユーザの位置に基づいて、現実世界の3D座標系における視線方向の変化が仮想世界の3D座標系における視線方向の変化をもたらす仮想世界を生成するように構成された処理部を備える。さらに、可搬装置は、生成された仮想世界を、現実世界の視界を遮りつつユーザに表示するように構成された表示装置を備える。
異なるセンサ情報(現実世界におけるユーザの位置および視線方向のような)が組み合わされて仮想世界を作り出すときに、さらに、現実世界の視界が遮られつつ仮想世界がユーザに表示されるときに、可搬装置が、完全に仮想的な世界にいる印象をユーザに伝えることができるというのが、本発明の考えである。したがって、現実世界におけるユーザの移動は、可搬装置によって検出されことができ、仮想世界におけるユーザの移動に移植される(または移される)ことができる。ユーザの現実世界の視界を遮ることによって、可搬装置は、ユーザが完全に仮想的な世界にいるという印象を伝えることができる。
したがって、可搬装置は、温度、天候および時間に依存しない仮想現実または仮想世界を模擬することができ、その中でユーザは自由に移動でき、その仮想現実または仮想世界とユーザが相互に作用することができる。さらに、可搬装置は、複数のそのような可搬装置を備える仮想現実システムの1つの事象での2人以上のユーザの統合を可能とする。一例として、各ユーザが独自の可搬装置を持ち、それが他の可搬装置と直接または外部通信装置によって通信することができる。
可搬装置は、ユーザによって手で携帯され得るハンドヘルド装置であってもよい。可搬装置の表示装置は、例えば、ユーザが1つの装置だけを手に持ち、それが表示装置も備えるように、処理部、位置特定器および視線方向センサと1つの筐体で一緒にされていてもよい。さらに、表示装置は、視線方向センサ、位置特定器および処理部とは異なる筐体にあってもよい。例えば、処理部は無線通信インターフェイスまたは有線通信インターフェイスによって表示装置に接続されていてもよい。一例として、可搬装置は、表示装置を備える眼鏡を構成してもよい。
さらに、完全な可搬装置として、例えば、ユーザが可搬装置を手に持つ必要がなくそれを頭部に装着できるように、眼鏡に一体化されていてもよい。
前述したように、表示装置は、生成された仮想世界を、現実世界の視界を遮ることによってユーザに表示するように構成されている。いくつかの実施形態によると、表示装置は、表示装置によって現実世界の視界を遮ってもよく、これは表示装置が現実世界ではなく仮想世界のみを見せることを意味する。これは、仮想要素が現実世界の視界に仮想的に配置される増強型の現実システムとは大きく異なる。
言い換えると、ユーザは、表示装置を見つめていないときだけ、現実世界を見ることができる。
さらに、例えば表示装置が眼鏡に備えられている構成において、表示装置および眼鏡が、ユーザが表示装置を直接見つめていないときであっても、眼鏡を装着しているユーザの現実世界の視界が遮られるように構築されていてもよい。
現実の正確なセンサデータ(例えば、視線方向センサおよび位置特定器からの)に基づいて仮想的に作られた完全な環境を与えるシステムまたは可搬装置を提供することが、本発明の利点である。これによって、ユーザは、現実の環境において物理的に行動する一方で、仮想環境を見てそれと相互に作用することができる。ユーザは、この仮想環境において、現実にいるかのように行動および移動することができる。したがって、ユーザは、スクリーン上でアバターを制御することなく自身で行動および移動することによって、ゲーム(ユーザが自宅の自身のワークステーションで最近プレイしたもの)を一人でプレイすることができる。
本発明の実施の形態を以下に詳細に説明する。
本発明の実施形態に係る可搬装置のブロック図である。 図1に示す可搬装置のアプリケーションの一例の説明図である。 本発明の実施形態に係る仮想現実システムのブロック図である。 本発明のさらなる実施形態に係る仮想現実システムのブロック図である。 本発明の実施形態に係る方法のフローチャートである。
添付図を用いて本発明の実施形態を詳細に説明するにあたり、同じ要素または同じ機能を有する要素には同じ参照符号が与えられ、同じ参照符号が与えられた要素についての反復する説明は省略されることを指摘しておく。したがって、同じ参照符号を有する要素に対して与えられる説明は、相互に交換可能である。
図1は、本発明の実施形態に係る可搬装置100のブロック図を示す。可搬装置100は、視線方向センサ101と、位置特定器103と、処理部105と、表示装置107とを備える。視線方向センサ101は、現実世界における可搬装置100のユーザの視線方向111を特定するように構成されている。
位置特定器103は、現実世界におけるユーザの位置113を特定するように構成されている。処理部105は、現実世界におけるユーザの特定された視線方向111およびユーザの特定された位置113に基づいて、現実世界の3D座標系における視線方向111の変化が仮想世界の3D座標系における視線方向の変化をもたらす仮想世界を生成するように構成されている。
さらに、表示装置は、現実世界の視界を遮りつつ(例えば、表示装置107によって)、生成された仮想世界をユーザに表示するように構成されている。
本出願の導入部で述べたように、可搬装置100は、ユーザが現実の環境または世界において物理的に行動しているが、仮想環境または世界を見ている、または仮想環境または世界と相互に作用するように、現実の正確なセンサデータ(例えば、視線方向センサ101および位置特定器103からの)に基づいて、仮想的に作られた完全な環境または世界を与えることができる。ユーザは、この仮想環境または世界において、現実にいるかのように行動または移動することができる。したがって、ユーザは、スクリーン上のコントローラであるアバターなしに、自身で行動および移動することによって、ゲーム(彼が自宅のこのワークステーションで最近プレイしたもの)を一人でプレイすることができる。
視線方向は、微細電子機械システム(MEMS)によって、この場合では主にジャイロスコープによって、充分に正確に導出できることが見出された。そのようなジャイロスコープは、配向の角度変化を特定するのに使用できる。動作が遅い磁力計(その性質上遅い)および慣性センサである視線方向センサ101と組み合わされたセンサ情報(ジャイロスコープからの)により、視線方向センサ101は、速い移動または方向変化であっても、視線方向111を非常に正確に導出することができる。
言い換えると、視線方向センサ101は、1つのタイプのセンサまたは複数の異なるタイプのセンサを備えてもよく、それに基づいて視線方向センサは、視線方向111を特定する。一例として、視線方向センサ101は、現実世界におけるユーザの移動を導出するためのジャイロスコープセンサ、加速度計センサおよび/または磁力計センサを備えてもよく、ジャイロスコープセンサのデータ、加速度計センサのデータおよび/または磁力計センサのデータに基づいて視線方向111を導出するように構成されていてもよい。これによって、現実世界におけるユーザの視線方向111の非常に正確な特定が可能となる。上述したように、処理部105は、現実世界の3D座標系における視線方向の変化が仮想世界の3D座標系における視線方向の変化をもたらすように、仮想世界を生成するように構成されている。したがって、視線方向センサ111は、三次元的な様式でのユーザの視線方向を特定し、この視線方向がその後処理部105によって三次元仮想世界に移植され得ることがわかる。言い換えると、視線方向センサ111は、水平方向におけるユーザの回転を特定できるだけでなく、鉛直方向における視線方向111の変化を特定するようにも構成されている。したがって、処理部105は、例えば、現実世界における水平方向での視線方向111の変化が、仮想世界における水平方向の視線方向の変化(例えば、同調変化)をもたらし、現実世界における鉛直方向での視線方向111の変化が、仮想世界における鉛直方向での視線方向の変化(例えば、同調変化)をもたらすように、水平方向および鉛直方向における視線方向111の変化を、生成された仮想世界に移植するように構成されている。または言い換えると、いくつかの実施形態によると、仮想世界のユーザの視線方向の変化は、現実世界におけるユーザの視線方向111に対して整列されてもよく、または少なくとも比例してもよい。
したがって、ユーザは、三次元的な様式での自身の視線方向を変化させ、その結果仮想世界における三次元的な様式での視線方向の変化をもたらすことによって、現実世界でのように仮想世界と相互に作用することができる。
さらに、処理部105は、現実世界の3D座標系におけるユーザの位置の変化が仮想世界の3D座標系におけるユーザの位置の変化をもたらすように、仮想世界を生成するように構成されることができる。言い換えると、現実世界におけるユーザの位置113が変化する(例えば、位置特定器103によって特定される)と、処理部105は、仮想世界におけるユーザの位置の変化を模擬することができる。
いくつかの実施形態によると、仮想世界におけるユーザの位置の変化は、現実世界におけるユーザの位置113の変化に対して一致してもよく、または少なくとも比例してもよい。
言い換えると、処理部105は、視線方向センサ101からのセンサデータを位置特定器103からの位置データと組み合わせて、可搬装置100(これはハンドヘルド装置であり得る)の、それゆえユーザの、位置113およびその地点での視線方向111を正確に導出するように構成されている。
本発明のいくつかの実施形態によると、位置特定器103は、特にGPSシステムと比べた場合に、ユーザの位置113の検出を高精度で可能とするリアルタイム位置確認システム(RTLS)センサであってもよい。さらに、そのようなRTLSシステムの使用によって、GPSがカバーしていない領域での(例えば、宅内またはGPS衛星への交信がない他の領域での)可搬装置100の使用が可能となる。
いくつかの実施形態によると、位置特定システム(例えば、特定された位置113に対する)に対する測定誤差は、数センチメートル許容できる。
例えば、図4による仮想現実システムとの関連で記載されているようないくつかの実施形態によると、移動領域(これは、そのような仮想現実システムが送信機で位置特定を行うことができる領域である)は、可搬装置100の実際の位置113が仮想環境または仮想世界において重ねられ得るように探査できる。可搬装置100(または視線方向センサ101および位置特定器103のようなモーションセンサのみ)を頭部に直接装着することによって、その人は、仮想現実または仮想世界において、現実世界にいるかのように手を回し、あたりを見回すことができる。前述したように、位置特定器103は、リアルタイム位置特定システムに基づくものでもよい。一例として、位置特定器103は、可搬装置100についての移動領域を探査し、可搬装置100の位置113を位置特定器103に送信する外部(例えば、地上)通信装置と通信するように、構成されていてもよい。可搬装置100の位置113を特定するために、可搬装置100は、その位置113が外部通信装置によって特定される電子(位置特定可能)タグ115(またはトランスポンダ)を備えてもよい。位置特定可能な電子タグ115(理想的には同様に頭部に取り付けられる)によって、その人またはユーザが移動することができ、可搬装置100は、仮想世界または環境における正しい位置から、画像を表示装置107上に描写(レンダリング)することができる。
まとめると、可搬装置100は、外部通信装置によって位置特定される電子タグ115を備えることができ、位置特定器103は、外部通信装置から受信される通信信号に基づいて、現実世界におけるユーザの位置113を特定するように構成されている。一例として、外部通信装置は、到来時間差(TDoA)、到来時間(ToA)、到来方向(DoA)またはRRS(RRS:Received Signal Strength)の測定を行うことができ、これらの測定値の1つ以上に基づいて、可搬装置100の位置113を特定することができ、位置113を、通信信号として位置特定器103に送信することができる。
したがって、本発明のいくつかの実施形態では、位置特定器103は、WLANインターフェイス(WLAN:Wireless Local Area Network)などの通信インターフェイスまたは装置として実装されることができる。
さらなる実施形態によると、位置特定器は、例えば、LTE(Long Term Evolution)、UMTS(Unified Mobile Telecommunication Standard)、またはGSM(Global System for Mobile Communication)インターフェイスのような移動体通信インターフェイスであってもよい。
本発明のいくつかの実施形態によると、電子タグ115の機能は、位置特定器103の機能から独立していてもよい。一例として、電子タグ115は、受動RFIDタグのような、独自の電圧源を有さないいわゆる受動タグであってもよい。言い換えると、電子タグ115は、可搬装置100の他の部材から電子的に分離されていてもよく、さらには、可搬装置100の他の部材とは異なる筐体に配置されていてもよい。
さらなる実施形態によると、電子タグ115は、独自の電圧源を有する、または可搬装置100の残りの部材と電圧源を共有する能動タグであってもよい。この場合であっても、電子タグ115の機能は、位置特定器103の機能とは独立していてもよい。例えば、電子タグ115および位置特定器103は、ともに外部通信装置と通信できるのみであるため、それらは互いに通信できなくてもよい。本発明の非常に簡素な実施形態では、電子タグ115は、有効な起動信号を外部通信装置から受信してシリアル番号を送る、いわゆる読み取り専用トランスポンダであってもよい。外部通信装置は、シリアル番号を受信することができ、前述したような位置特定測定を行って電子タグ115の、それゆえユーザの位置113を特定することができ、この位置113を、可搬装置100の位置特定器103に送信することができる。
一例として、電子タグ115以外の可搬装置100の全部材(視線方向センサ101、位置特定器103、表示装置107および処理部105など)は、携帯電話(例えば、いわゆるスマートフォン)の一部となり得る一方で、電子タグ115は、携帯電話に(外部に)取り付けられる。言い換えると、電子タグ115(または「位置送信機」)は、可搬装置100の残りから分離されている。これは、より簡素でより安価な実装の利点である。そのような携帯電話において、位置特定器103は、位置情報および他のデータを受信するために、携帯電話のWLANインターフェイスまたはUMTSインターフェイスを用いて実装されていてもよい。ユーザの位置113を特定するためにWLANおよびRTLSシステムを用いる場合、2.4GHz標準はRTLSシステムと衝突するので、実施形態によっては、5GHzのWLANに制限される。さらに、位置情報を受信するためにUMTSを使用すると、200msまでの大きな遅延がもたらされることがある。
さらなる実施形態によると、表示装置107は、例えばケーブルを用いて処理部105に接続される外部表示装置であってもよい。言い換えると、表示装置107は、必ずしも携帯電話の通常の表示装置である必要はなく、例えば、眼鏡を構成する外部表示装置であってもよい。
さらに、表示装置107は、可搬装置100が2つの画像を描写しそれらを眼鏡に表示することができるように、処理部105に接続可能である3D仮想現実用眼鏡を構成してもよい。
さらなる実施形態によると、可搬装置100は、スピーカ117またはスピーカ用のコネクタ117を備えてもよい。処理部105は、例えば、現実世界または仮想世界におけるユーザの視線方向および/または位置に応じて、オーディオ信号119をスピーカ117またはスピーカ用のコネクタ117に供給するように構成されていてもよい。表示装置107との関連で、現実世界におけるユーザの視線方向111および位置113に応じて、視覚覚効果が非常に現実的に行われる。一例として、ヘッドフォンが可搬装置100におけるコネクタ117に接続されてもよい。したがって、可搬装置100またはハンドヘルドは音声効果を生成し、それを現実にいるかのように耳に送信することができる。例えば、滝の音が、(仮想の)滝に向けられた耳が他方の耳よりも大きい振幅の音を受信するように調整されて、ハンドヘルド上に生成される(またはメモリから再生されることができる)。
まとめると、処理部105は、現実世界におけるユーザの視線方向111および/または位置113に基づいて、スピーカ117またはコネクタ117に接続されたスピーカで、音を生成するように構成されることができる。
さらなる実施形態によると、可搬装置100は、現実世界における環境条件123を特定するように構成された環境条件センサ121を備えてもよい。処理部105は、現実世界における環境条件123の変化が、生成された仮想世界における変化をもたらすように、環境条件123に基づいて仮想世界を生成するようにさらに構成されることができる。一例として、環境条件センサ121は、光および/または温度センサであってもよい。可搬装置100のそのような光および/または温度センサを用いることによって、仮想現実または仮想世界が、まず、現在の日時および太陽の照射を有する現実を描写するように図られる。したがって、例えば、現実世界における現在の温度が非常に暑い場合、仮想現実を、この条件に従って描写することができる。
さらなる実施形態によると、特定された環境条件123として、湿度、気圧、温度、光の条件(明るさまたは暗さなど)、加速度、磁界(磁界の強さ)、相対配向(例えば、ジャイロスコープによって特定される)、風力、臭気、音または360°の距離測定を用いることができる。
言い換えると、環境条件センサ121として、湿度センサ、気圧センサ、温度センサ、光センサ、加速度センサ、磁界センサ、相対配向センサ(例えば、ジャイロスコープ)、風力センサ、臭気センサ、音センサ(1つ以上のマイクロフォンなど)または360°距離センサを用いることができる。
いくつかの実施形態によると、特定された環境条件123は、現実世界における温度または湿度のように、現実世界におけるユーザに視認可能でなくてもよい。処理部105は、生成される仮想世界において、特定された環境条件123をグラフィックで可視化するように構成されていてもよい。一例として、現実世界における温度が非常に高く、湿度が非常に低い場合、処理部105は、ユーザが仮想的に移動する砂漠を模擬することによって、この環境条件123をグラフィックで可視化することができる。他の例として、高温および高湿度の場合には、処理部105は、ユーザが仮想的に移動する熱帯雨林を模擬することによって、この特定された環境条件123をグラフィックで可視化することができる。
さらなる実施形態によると、処理部105は、現実世界における物体が位置する現実世界の3D座標系における位置に対応する仮想世界の3D座標系における位置に、仮想世界における仮想の物体を生成するように構成されることができる。この機能を、可搬装置100の簡略なアプリケーション例を用いて、以下に説明する。
可搬装置100は、例えば、ゲームアプリケーションにおいて使用されるが、安全が重要なアプリケーションにおいても使用される。
一例として、火災緊急時の場合において、消防士は、燃えている建物内で進むために、可搬装置100を装備することができる。可搬装置100(例えば、処理部105)は、消防士がその表示装置107を介して仮想世界を見ながら建物内で現実世界において移動することができるように、燃えている建物の完全な仮想複製を作成するように構成される。これの利点は、たとえ建物内での火災のため可視性が異常に悪い場合であっても、消防士は、可搬装置100の支援を受けて、建物内で依然として進むことができる。現実世界における物体、例えば、ドアまたは階段が、仮想世界において処理部105によって模擬される。言い換えると、処理部105は、仮想の建物の3D座標系において、仮想世界における仮想の物体、例えば、仮想の階段または仮想のドアを、現実世界(現実の建物)の3D座標系におけるもの(それらの現実の位置)に対応する仮想世界の3D座標系における位置に生成する。
言い換えると、処理部105は、物体のデータベースに基づいて、ユーザが行動する現実世界の仮想的な複製として仮想世界を生成するように構成されることができる。
一例として、現実の物体および現実世界の3D座標系におけるそれらの位置は、可搬装置100または上記の外部通信装置、例えば、中央サーバに配置できる物体データベースに記憶されていてもよい。処理部105は、物体データベースに基づいて仮想の物体を生成するように構成されることができる。さらに、前述したように処理部105は、特定された環境条件123を、生成された仮想世界において可視化するように構成されることができる。この例では、処理部105は、消防士が、暑い領域、例えば閉じたドアの裏を、この閉じたドアの裏に高温源が位置することを知るように、例えば赤いドアを模擬するなどして、異なる色で模擬することができる。
このアプリケーションでは、典型的には、現実世界における現実の物体は、処理部105によって仮想世界における仮想の物体に置き換えられ、それは、現実世界における現実の物体と同様または同一である。
さらなる実施形態によると、例えば、ゲームのアプリケーションでは、処理部105は、現実世界における現実の物体に置き換わる仮想世界における仮想の物体が、現実世界における現実の物体のように同様のユーザの挙動をもたらすように、現実世界における現実の物体を仮想世界における仮想の物体に置き換えるように構成されることができる。そのような例を図2に示す。
図2に示す例は、ゲームのアプリケーションである。この例では、ユーザは、現実世界の3D座標系において移動している。現実世界の3D座標系は、x成分、y成分およびz成分を有する三次元ベクトルによって記述され、これらは全て互いに直交する。したがって、現実世界におけるユーザの位置および視線方向は、三次元xyzベクトルによって記述される。仮想世界の3D座標系は、x’成分、y’成分およびz’成分を有する三次元ベクトルによって記述され、これらは全て互いに直交する。したがって、仮想世界におけるユーザの位置および視線方向は、三次元x’y’z’ベクトルによって記述される。
上述したように、仮想世界におけるユーザの視線方向および/または位置の変化は、現実世界におけるユーザの視線方向および/または位置の変化に一致させられる。
図2に示す例では、木々が示されており、それは現実の物体201を表す。これらの現実の物体201は、可搬装置100の処理部105によって、現実の物体201のように同様のユーザの挙動をもたらす1つ以上の仮想の物体203に置き換えられる。図2に示す例では、処理部105は、現実の木々201を仮想の壁203に置き換える。この仮想の壁203は、現実の木々201のように同様のユーザの挙動をもたらし、例えば、ユーザは木に衝突することを避けるであろうし、壁に衝突することも避けるであろう。現実の物体201は(図2の例では、木々201)は、処理部105が物体データベースに基づいて仮想の物体(例えば、壁203)を生成することができるように、現実世界における場所と一緒に物体データベースに記憶される。さらに、処理部105は、ユーザが行動する現実世界は同じ状態のままであるものの、処理部105が仮想世界を生成する方法が、ユーザがプレイする別々のゲームに対して異なるように、またはユーザがプレイするゲームの別々のゲーム状況に対して異なるように、ユーザがプレイするゲームに従って仮想世界を生成するように構成されてもよい。一例として、他のゲーム状況または他のゲームにおいて、現実の木々201は、他の仮想の物体、例えば、現実の木々201のように同様のユーザの挙動をもたらす淵、フェンスまたは急な岩に置き換えられる。
したがって、処理部105は、現実世界は同じ状態のままであるが、ゲームまたはゲーム状況に応じて、仮想世界の生成を適合させることができる。したがって、ユーザは、2つの異なるゲームまたは2つの異なるゲーム状況中に、現実世界の同じ領域において移動および行動することができるが、処理部105が完全に異なる仮想世界を生成することに起因して、完全に異なる仮想体験を有することができる。
さらなる実施形態によると、処理部105は、現実世界におけるユーザの特定された位置113および/または視線方向111の精度の変化に応えて、仮想の物体の詳細さのレベルまたはサイズを変化させるように構成されることができる。一例として、処理部105は、ユーザの位置113を特定するために現在使用されている位置特定アルゴリズムに応じて、仮想の物体の詳細さのレベルまたはサイズを選択することができる。一例として、リアルタイム位置情報シテスムRTLSは、典型的には全地球測位網GPSよりもはるかに高精度であるので、ユーザの位置113がGPS位置確認システムまたはアルゴリズムに基づいて特定される場合、仮想の物体の詳細さのレベルは、ユーザの位置113を特定するためにRTLSシステムまたはアルゴリズムが使用される場合よりも低く選択される。一例として、提示された消防士の例では、1m未満の精度で充分であるが、デジタル双方向ゲームでは、10cm未満のより高い精度が必要である。まとめると、仮想現実または仮想世界は、位置特定アルゴリズムまたはシステムの精度に依存する(すなわち、位置特定システムの精度が低いほど、仮想世界における要素の精度は低くなる)。
一例として、処理部105は、現実世界におけるユーザの特定された位置113の精度が減少すると、仮想の物体203のサイズを増加させ、または仮想の物体203の詳細さのレベルを減少させるように構成される。さらなる例として、処理部105は、現実世界におけるユーザの特定された位置113の精度が増加すると、仮想の物体203のサイズを減少させ、または仮想の物体203の詳細さのレベルを増加させるように構成される。したがって、一方では可能な限り現実的に仮想世界が生成され、他方ではその位置の不正確な特定のためユーザが偶発的に物体に衝突することがないことが保証される、ということを達成できる。
本発明の実施形態のさらなる観点は、リアルタイムの観点である。すなわち、人間を苛立たせないように、視線方向の変化が充分に速く特定されなければならない。これは、一方ではハードウェアまたはセンサが充分に正確で且つ速くなければならず、他方では仮想世界の描写が充分に速く起こらなければならないことを意味する。いくつかの実施形態によると、40msの最大遅延(これは1秒あたり25画像における1画像分の遅延に相当する)が許容される。他の実施形態では、許容遅延は20msである。位置データの遅延は、視線方向データの遅延ほどは仮想的印象に影響を与えないので、測位データはより遅延されてもよい。
さらに、前述したように、可搬装置100は、例えば、GPS信号に基づいて、あるいは、可搬装置100の位置を例えば電子タグ115に基づいて特定する外部の(例えば地上の)通信装置の補助により、自身で現実世界におけるその位置、それゆえユーザの位置113、を特定するように構成される。外部の通信装置の補助により位置を特定する場合、可搬装置100は、基盤設備によって(例えば外部通信装置のアンテナによって)位置特定され、特定された位置113は、無線通信によって可搬装置100に送信される。
さらなる実施形態によると、現実性を向上するために、仮想世界の事象を現実世界に帰還させるフォースフィードバック装置を使用して、物理現象情報を伝達することができる。そのような物理現象には、例えば人工知能によって制御された雨、地震、またはコンピュータプレイヤとの物理的な相互作用がある。
言い換えると、処理部105はさらに、適切なフォースフィードバック装置(例えば、ユーザに取り付けられる)に供給されるフォースフィードバックデータを生成するように構成されることができる。
本発明のいくつかの実施形態によると、視線方向センサ101は、ジャイロスコープセンサ部、加速度計センサ部および/または磁力計センサ部などの種々のセンサ部を備えることができる。視線方向センサ101は、これらの種々のセンサ部からのセンサデータに基づいて、現実世界におけるユーザの視線方向111を特定することができる。
図3は、可搬装置100の処理部105によって受信および生成される種々のデータ信号および通信信号を模式的に示す。図3からわかるように、可搬装置100は、例えば可搬装置100が仮想環境上の詳細を無線通信により受信する外部通信ユニットで、サーバ301と通信するように構成されることができる。
さらに、モバイル装置100は、現実世界において行動する異なるプレイヤまたはユーザの同期の情報を受信することができる。したがって、可搬装置100は、仮想世界における仮想の物体を生成するだけでなく、現実世界において可搬装置100のユーザと一緒に行動する他のユーザを表示するようにも構成される。したがって、可搬装置100は、局所化可能な領域にいる他の人々との交流を、単に各ユーザが可搬装置100を有することによって可能にする。
さらに、図3から、可搬装置100は、その位置データ113を、RTLS位置特定装置303から受信できることがわかる。RTLS位置特定装置303は、例えば外部通信装置に一体化される。図3に示す例において、位置特定器103は、それを通して可搬装置100が位置データをRTLS位置特定装置303から受信する通信インターフェイスであってもよい。
図4は、本発明のさらなる実施形態に係る仮想現実システム400のブロック図を示す。仮想現実システム400は、本発明の実施形態による可搬装置を備える。図4に示す例では、仮想現実システム400は、図1に示す可搬装置100を備える。さらに、仮想現実システム400は、可搬装置100の外部に配置された地上通信装置401を備える。例えば、地上通信装置401が第1の筐体に配置されていてもよく、可搬装置100が、第1の筐体とは異なる第2の筐体に配置されていてもよい。可搬装置100は、典型的にはユーザによって携帯されるが、地上通信装置401は、典型的にはそこから移動されない(地上通信装置の使用時に)所定の位置に配置される。可搬装置100の位置特定器103は、地上通信装置401から受信される無線通信信号403に基づいて、現実世界におけるユーザの位置113を特定するように構成されている。
地上という用語は、可搬装置100のユーザの位置113を特定するのに、GPS衛星のような衛星が関与しないことを意味する。一例として、地上通信装置401は、RTLSアルゴリズムによって可搬装置100の位置を特定するように構成される。
さらに、地上通信装置401は、専用の移動領域を探査して複数のユーザが持つ複数の可搬装置100の位置を特定し、複数の可搬装置100の位置を複数の可搬装置100に送信するように構成される。したがって、いくつかの実施形態では、仮想現実システム400は、複数の可搬装置100を備えることができる。
まとめると、本発明の実施形態は、ユーザが無線装置または可搬装置100を持ち、(現実世界で)位置特定可能な領域にいる他の人々と相互に作用する仮想現実手法を提供する。他の仮想現実のアプリケーションの多くは、このような相互作用的、現実的かつ簡便なフレームワークを提供しない。さらに、このような良好な正確さで人々の位置を特定することは、多くの人々には利用可能ではなかったので、他の手法は、このような特徴について配慮さえもしなかった。
可能な使用形態は、広範囲にわたる。例えば、現実的なゲームアプリケーションを提供することができる。そのようなゲームは、どのようなファーストパーソン・ゲームでもよい。また、スーパーマーケットおよび店舗がそれらの仮想環境を提供することができ、人々は、あたかも実際にそのマーケットにいるかのように歩くことができるようになる。他のアプリケーションは、コンサートまたはテレビ番組の(生)放送であり、ユーザは、テレビの前に座っていなくても、あたかもその場所にいるかのように実際に感じることができるようになる。多種多様な他のアプリケーションが可能である。要するに、人が、その人自身として、他の人々およびアイテムと相互に作用することができるような、いかなるアプリケーションも可能である。
したがって、本発明の実施形態は、リアルタイム位置特定システム(RTLS)およびモーションセンサと協働して、センサ融合およびハンドヘルド装置上でのリアルタイム描写によって双方向リアルゲームをプレイするためのシステムを提供する。そのようなシステムは、完全に仮想的な環境にいるという感覚をユーザに伝えることができる。リアルタイム位置特定システム、複数のセンサデータおよびレンダリングハードウェアを用いることによって、温度、天気および時間に依存しない仮想現実をユーザに対してシミュレートすることが可能であり、その中でユーザは、自由に移動でき、相互に作用できる。さらに、実施形態によっては、システムの1つの事象での2人以上のユーザの実装を可能とする。
本発明の実施形態は、ユーザが、キーボード上のキーを押すことなく、またはコンピュータのマウスで指すことなく、仮想世界または仮想環境の中を自身の足で歩くことを可能とする。
図5は、本発明の実施形態に係る方法500のフローチャートを示す。
方法500は、現実世界におけるユーザの視線方向を特定するステップ501を含む。
さらに、方法500は、現実世界におけるユーザの位置を特定するステップ503を含む。
さらに、方法500は、現実世界におけるユーザの視線方向およびユーザの位置に基づいて、現実世界の3D座標系における視線方向の変化を仮想世界の3D座標系における視線方向の変化をもたらす仮想世界を生成するステップ505を含む。
さらに、方法500は、生成された仮想世界を、現実世界の視界を遮りつつユーザに対して表示するステップ507を含む。
方法500は、本発明の実施形態に係る可搬装置によって、例えば、図1に示す可搬装置100によって、実行される。
方法500は、装置に関して本明細書に説明した特徴および機能のいずれかによって補完されてもよく、その装置のハードウェア構成部品を用いて実装できる。
いくつかの観点を装置との関連で説明したが、これらの観点は、対応する方法の説明も表し、ここで、ブロックまたは装置が方法ステップまたは方法ステップの特徴に対応することは明らかである。同様に、方法ステップとの関連で説明した態様は、対応する装置の対応するブロックまたは項目または特徴の説明も表す。方法ステップの一部または全部は、例えば、マイクロプロセッサ、プログラマブルコンピュータまたは電子回路のようなハードウェア装置によって(またはそれを用いて)実行されることができる。いくつかの実施形態において、最も重要な方法ステップのいずれか1つ以上が、そのような装置によって実行されてもよい。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアにおいて実装されることができる。その実装は、それぞれの方法が行われるようにプログラマブルコンピュータシステムと協働する(または協働することができる)電子的に可読な制御信号が記憶されたデジタル記憶媒体、例えば、フレキシブルディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROM(登録商標)またはフラッシュメモリを用いて行われることができる。したがって、デジタル記憶媒体は、コンピュータ読み取り可能である。
本発明に係るいくつかの実施形態は、本明細書に記載された方法の1つが行われるようにプログラマブルコンピュータシステムと協働することができる電子的に可読な制御信号を有するデータキャリアを備える。
一般に、本発明の実施形態は、プログラムコードでコンピュータプログラム製品として実装されることができ、プログラムコードは、コンピュータプログラム製品がコンピュータで稼働するときに方法の1つを行うために動作する。プログラムコードは、例えば、機械読み取り可能なキャリアに記憶されることができる。
他の実施形態は、本明細書に記載された方法の1つを行うための、機械読み取り可能キャリアに記憶されたコンピュータプログラムである。
言い換えると、本発明の方法の実施形態は、それゆえ、コンピュータプログラムがコンピュータで稼働するときに、本明細書に記載された方法の1つを行うためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載された方法の1つを行うためのコンピュータプログラムが記録された状態で備えるデータキャリア(またはデジタル記憶媒体またはコンピュータ読み取り可能な媒体)である。データキャリア、デジタル記憶媒体、または記録媒体は、典型的には有形および/または非一時的である。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載された方法の1つを行うためのコンピュータプログラムを表すデータストリームまたは信号列である。データストリームまたは信号列は、例えば、データ通信接続を介して、例えば、インターネットを介して転送されるように構成されることができる。
さらなる実施形態は、本明細書に記載された方法の1つを行うように構成または適合された処理手段、例えば、コンピュータまたはプログラマブルロジック装置を備える。
さらなる実施形態は、本明細書に記載された方法の1つを行うためのコンピュータプログラムがインストールされたコンピュータを備える。
本発明によるさらなる実施形態は、本明細書に記載された方法の1つを行うためのコンピュータプログラムを受信機に転送する(例えば、電子的にまたは光学的に)ように構成された装置またはシステムを備える。受信機は、例えば、コンピュータ、モバイル装置、またはメモリ装置などであってもよい。装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するためのファイルサーバを備えることができる。
いくつかの実施形態では、本明細書に記載された方法の機能の一部または全部を行うのにプログラマブルロジック装置(例えば、フィールドプログラマブルゲートアレイ)が使用される。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載された方法の1つを行うために、マイクロプロセッサと協働することができる。一般に、方法は任意のハードウェア装置によって行われることが好ましい。
上述した実施形態は、本発明の原理の単なる説明にすぎない。本明細書に記載された構成および詳細の変更例および変形例は、当業者には明らかとなることが理解される。したがって、本発明は、本明細書の実施形態の詳述および説明としてここに提示された具体的詳細によってではなく、以下の特許請求の範囲によってのみ限定されるものである。

Claims (19)

  1. 現実世界におけるユーザの視線方向(111)を特定するように構成された視線方向センサ(101)と、
    前記現実世界におけるユーザの位置(113)を特定するように構成された位置特定器(103)と、
    前記現実世界におけるユーザの視線方向(111)およびユーザの位置(113)に基づいて、前記現実世界の3D座標系における視線方向(111)の変化が仮想世界の3D座標系における視線方向の変化をもたらす仮想世界を生成するように構成された処理部(105)と、
    前記仮想世界を、前記現実世界の視界を遮りつつユーザに表示するように構成された表示装置(107)と
    を備え、
    前記処理部(105)は、前記仮想世界の3D座標系における位置に、前記仮想世界における仮想の物体(203)を生成するように構成され、
    前記処理部(105)は、前記現実世界におけるユーザの位置(113)の精度の変化に応じて、前記仮想の物体(203)の詳細さのレベルまたはサイズを変化させるように構成されている、
    可搬装置(100)。
  2. 請求項1に記載の可搬装置(100)において、前記処理部(105)は、ユーザの位置(113)を特定するために現在使用されている位置特定アルゴリズムに応じて、前記仮想の物体の詳細さのレベルまたはサイズを選択するように構成されている、可搬装置(100)。
  3. 請求項1または2に記載の可搬装置(100)において、前記処理部(105)は、前記現実世界におけるユーザの特定された位置(113)の精度が減少すると、前記仮想の物体(203)のサイズを増加させ、または前記仮想の物体(203)の詳細さのレベルを減少させるように構成されている、可搬装置(100)。
  4. 請求項1から3のいずれか1項に記載の可搬装置(100)において、前記処理部(105)は、前記現実世界におけるユーザの特定された位置(113)の精度が増加すると、前記仮想の物体(203)のサイズを減少させ、または前記仮想の物体(203)の詳細さのレベルを増加させるように構成されている、可搬装置(100)。
  5. 請求項1から4のいずれか1項に記載の可搬装置(100)において、前記処理部(105)は、前記現実世界の3D座標系における記ユーザの位置(113)の変化が、前記仮想世界の3D座標系におけるユーザの位置の変化をもたらすように、前記仮想世界を生成するようにさらに構成されている、可搬装置(100)。
  6. 請求項1から5のいずれか1項に記載の可搬装置(100)において、
    前記現実世界における環境条件(123)を特定するよう構成された環境条件センサ(121)をさらに備え、
    前記処理部(105)は、前記現実世界における環境条件(123)の変化が前記仮想世界における変化をもたらすように、前記環境条件センサにより特定された環境条件(123)に基づいて前記仮想世界を生成するようにさらに構成されている、
    可搬装置(100)。
  7. 請求項6に記載の可搬装置(100)において、前記特定された環境条件(123)は温度もしくは湿度であり、または、前記環境条件センサ(121)は光センサである、可搬装置(100)。
  8. 請求項6または7に記載の可搬装置(100)において、
    前記特定された環境条件(123)は、前記現実世界においてユーザに視認可能でなく、
    前記処理部(105)は、前記仮想世界において、前記特定された環境条件(123)をグラフィックで可視化するように構成されている、
    可搬装置(100)。
  9. 請求項1から8のいずれか1項に記載の可搬装置(100)において、前記処理部(105)は、前記現実世界における現実の物体(201)が位置する前記現実世界の3D座標系における位置に対応する前記仮想世界の3D座標系における位置に、前記仮想世界における仮想の物体(203)を生成するように構成されている、可搬装置(100)。
  10. 請求項9に記載の可搬装置(100)において、前記処理部(105)は、前記現実世界における現実の物体(201)に置き換わる前記仮想世界における仮想の物体(203)が、現実の物体(201)のように同様のユーザの挙動をもたらすように、前記現実世界における現実の物体(201)を前記仮想世界における仮想の物体(203)に置き換えるように構成されている、可搬装置(100)。
  11. 請求項9または10に記載の可搬装置(100)において、
    前記処理部(105)は、前記現実世界における現実の物体(201)およびそれらの場所が記憶された物体データベースを備え、または前記処理部(105)は、前記現実世界における現実の物体(201)およびそれらの場所に関する物体情報を受信するように構成されており、
    前記処理部(105)は、前記物体データベースまたは受信された前記物体情報に基づいて、前記仮想の物体(203)を生成するように構成されている、
    可搬装置(100)。
  12. 請求項1から11のいずれか1項に記載の可搬装置(100)において、前記位置特定器(103)は、地上位置特定アルゴリズムに基づいて前記現実世界におけるユーザの位置(113)を特定するように構成されたリアルタイム位置特定システム装置である、可搬装置(100)。
  13. 請求項1から12のいずれか1項に記載の可搬装置(100)において、
    外部通信装置によって位置特定可能である電子タグ(115)をさらに備え、
    前記位置特定器(103)は、前記外部通信装置から受信される通信信号に基づいて前記現実世界におけるユーザの位置(113)を特定するように構成されている、
    可搬装置(100)。
  14. 請求項13に記載の可搬装置(100)において、前記電子タグ(115)の機能は、前記位置特定器(103)の機能から独立している、可搬装置(100)。
  15. 請求項1から14のいずれか1項に記載の可搬装置(100)において、
    前記可搬装置(100)はゲームコントローラであり、
    前記処理部(105)は、ユーザが行動する前記現実世界は同じ状態のままであるものの、前記処理部(105)が前記仮想世界を生成する方法が、ユーザがプレイする異なるゲームに対して、またはユーザがプレイするゲームの異なるゲーム状況に対して異なるように、ユーザがプレイするゲームに従って前記仮想世界を生成するように構成されている、可搬装置(100)。
  16. 請求項1から14のいずれか1項に記載の可搬装置(100)において、
    前記処理部(105)は、物体データベースに基づいて、前記仮想世界を、ユーザが行動する前記現実世界の仮想の複製として生成するように構成されている、
    可搬装置(100)。
  17. 請求項1から16のいずれか1項に記載の可搬装置(100)と、前記可搬装置(100)の外部に配置された地上通信装置(401)とを備え、
    前記可搬装置(100)の前記位置特定器(103)は、前記地上通信装置から受信される無線通信信号(403)に基づいて前記現実世界におけるユーザの位置(113)を特定するように構成されている、
    仮想現実システム(400)。
  18. 現実世界におけるユーザの視線方向を特定するステップ(501)と、
    前記現実世界におけるユーザの位置を特定するステップ(503)と、
    前記現実世界におけるユーザの前記視線方向およびユーザの前記位置に基づいて、前記現実世界の3D座標系における前記視線方向の変化が仮想世界の3D座標系における視線方向の変化をもたらす仮想世界を生成するステップ(505)と、
    前記生成された仮想世界を、前記現実世界の視界を遮りつつユーザに表示するステップ(507)と、
    前記仮想世界の前記3D座標系における位置に、前記仮想世界における仮想の物体を生成するステップと、
    前記現実世界におけるユーザの前記特定された位置の精度の変化に応えて、前記仮想の物体の詳細さのレベルまたはサイズを変化させるステップと
    を含む方法。
  19. コンピュータで稼働するときに、請求項18に記載の方法を行うためのプログラムコードを有するコンピュータプログラムを記憶した非一時的記憶媒体。

JP2014533895A 2011-10-05 2012-10-04 可搬装置、仮想現実システムおよび方法 Expired - Fee Related JP5934368B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11183970.0 2011-10-05
EP11183970.0A EP2579128B1 (en) 2011-10-05 2011-10-05 Portable device, virtual reality system and method
PCT/EP2012/069624 WO2013050473A1 (en) 2011-10-05 2012-10-04 Portable device, virtual reality system and method

Publications (2)

Publication Number Publication Date
JP2015502584A true JP2015502584A (ja) 2015-01-22
JP5934368B2 JP5934368B2 (ja) 2016-06-15

Family

ID=47010581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014533895A Expired - Fee Related JP5934368B2 (ja) 2011-10-05 2012-10-04 可搬装置、仮想現実システムおよび方法

Country Status (7)

Country Link
US (1) US9216347B2 (ja)
EP (2) EP2579128B1 (ja)
JP (1) JP5934368B2 (ja)
KR (1) KR101670147B1 (ja)
CN (1) CN104024984B (ja)
ES (1) ES2656868T3 (ja)
WO (1) WO2013050473A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013550A (ja) * 2018-05-24 2020-01-23 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法
JP2021057888A (ja) * 2019-08-20 2021-04-08 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 分散型計算センタネットワークによる3次元空間における最適化されたリアルタイム応答性の連続的な位置情報に基づくクラウドコンピューティング、レンダリング、追跡および通信サービスのための仮想無線アクセスネットワークシステムおよび方法
US11079897B2 (en) 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
US11115468B2 (en) 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
US11196964B2 (en) 2019-06-18 2021-12-07 The Calany Holding S. À R.L. Merged reality live event management system and method
US11471772B2 (en) 2019-06-18 2022-10-18 The Calany Holding S. À R.L. System and method for deploying virtual replicas of real-world elements into a persistent virtual world system

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
CN103473692A (zh) * 2013-06-17 2013-12-25 展讯通信(上海)有限公司 一种三维购物平台显示系统
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
EP3041591B1 (de) 2014-08-11 2016-11-09 Mack Rides GmbH & Co. KG Verfahren zum betreiben einer vorrichtung, insbesondere eines fahrgeschäftes, eines transportmittels, eines fitnessgerätes oder dergleichen
US10943395B1 (en) 2014-10-03 2021-03-09 Virtex Apps, Llc Dynamic integration of a virtual environment with a physical environment
SG11201703011VA (en) 2014-10-15 2017-05-30 Dirtt Environmental Solutions Virtual reality immersion with an architectural design software application
US20160163063A1 (en) * 2014-12-04 2016-06-09 Matthew Ashman Mixed-reality visualization and method
US10099134B1 (en) 2014-12-16 2018-10-16 Kabam, Inc. System and method to better engage passive users of a virtual space by providing panoramic point of views in real time
US10181219B1 (en) 2015-01-21 2019-01-15 Google Llc Phone control and presence in virtual reality
US10311171B2 (en) * 2015-03-02 2019-06-04 Ca, Inc. Multi-component and mixed-reality simulation environments
US10102674B2 (en) 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
DE102015003883B4 (de) 2015-03-26 2024-07-11 Audi Ag Kraftfahrzeugsimulationsanordnung zur Simulation einer virtuellen Umgebung mit einem virtuellen Kraftfahrzeug und Verfahren zur Simulation einer virtuellen Umgebung
CN104808341A (zh) * 2015-04-09 2015-07-29 青岛歌尔声学科技有限公司 一种头戴式虚拟现实设备
US9760790B2 (en) * 2015-05-12 2017-09-12 Microsoft Technology Licensing, Llc Context-aware display of objects in mixed environments
CN104881123A (zh) * 2015-06-06 2015-09-02 深圳市虚拟现实科技有限公司 基于虚拟现实的嗅觉模拟方法、设备和系统
US20170053042A1 (en) * 2015-08-19 2017-02-23 Benjamin John Sugden Holographic building information update
CN105159450B (zh) * 2015-08-25 2018-01-05 中国运载火箭技术研究院 一种便携式可交互桌面级虚拟现实系统
CN106371572B (zh) * 2015-11-30 2019-10-15 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN105547285B (zh) * 2016-01-30 2019-01-15 清华大学 基于虚拟现实技术的建筑内导航系统
CN105843380B (zh) * 2016-03-17 2019-05-14 广东小天才科技有限公司 一种用于虚拟现实场景的环境温度模拟方法及装置
US10311622B2 (en) * 2016-03-29 2019-06-04 Htc Corporation Virtual reality device and method for virtual reality
CA3019664A1 (en) * 2016-04-12 2017-10-19 R-Stor Inc. Method and apparatus for presenting imagery within a virtualized environment
CN105979239A (zh) * 2016-04-28 2016-09-28 乐视控股(北京)有限公司 虚拟现实终端及其视频的显示方法和装置
CN108633307B (zh) * 2016-05-17 2021-08-31 谷歌有限责任公司 在虚拟现实环境中投射与真实对象的接触的方法和装置
US10788888B2 (en) 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
US10467814B2 (en) 2016-06-10 2019-11-05 Dirtt Environmental Solutions, Ltd. Mixed-reality architectural design environment
EP3365874B1 (en) 2016-06-10 2022-03-16 DIRTT Environmental Solutions, Ltd. Mixed-reality and cad architectural design environment
CN106251406A (zh) * 2016-08-04 2016-12-21 合肥景昇信息科技有限公司 基于虚拟现实技术的城市巷道定位系统
WO2018023736A1 (en) * 2016-08-05 2018-02-08 SZ DJI Technology Co., Ltd. System and method for positioning a movable object
CN107818540A (zh) * 2016-09-12 2018-03-20 北京易讯理想科技有限公司 基于增强现实的天气信息显示方法及装置
CN106390448A (zh) * 2016-11-22 2017-02-15 包磊 体感模拟设备
CN106474737A (zh) * 2016-11-22 2017-03-08 包磊 具有热触感的体感模拟装置及体感模拟系统
JP6948128B2 (ja) * 2017-01-13 2021-10-13 キヤノン株式会社 映像監視装置及びその制御方法及びシステム
US11287292B2 (en) 2017-02-13 2022-03-29 Lockheed Martin Corporation Sensor system
CN106950534B (zh) * 2017-02-27 2020-07-03 广东小天才科技有限公司 一种空间位置检测方法、系统及vr穿戴设备
EP3476448B1 (de) 2017-10-24 2021-12-08 VR Coaster GmbH & Co. KG Vr-vorrichtung zum erzeugen und darstellen einer virtuellen realität
CN207488953U (zh) * 2017-12-04 2018-06-12 深圳市易特科信息技术有限公司 虚拟现实场景模拟装置
KR102130892B1 (ko) 2017-12-26 2020-07-07 (주)스코넥엔터테인먼트 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법
CN108132712A (zh) * 2018-01-12 2018-06-08 网易(杭州)网络有限公司 虚拟场景中天气状态的呈现方法、装置及存储介质和终端
PL3539628T3 (pl) 2018-03-16 2021-03-22 Vr Coaster Gmbh & Co. Kg Urządzenie synchronizujące do synchronizacji wyświetlacza montowanego na głowie z wirtualną rzeczywistością w urządzeniu rekreacyjnym, urządzenie rekreacyjne z takim urządzeniem synchronizującym i sposób pracy takiego urządzenia rekreacyjnego
ES2837433T3 (es) 2018-03-16 2021-06-30 Vr Coaster Gmbh & Co Kg Dispositivo de sincronización con una estación base para sincronizar pantallas montadas en la cabeza con un mundo virtual en un juego de atracciones, juego de atracciones con un dispositivo de sincronización de este tipo y procedimiento para operar tal juego de atracciones
US11032508B2 (en) * 2018-09-04 2021-06-08 Samsung Electronics Co., Ltd. Display apparatus and method for controlling audio and visual reproduction based on user's position
CN109529318A (zh) * 2018-11-07 2019-03-29 艾葵斯(北京)科技有限公司 虚拟视觉系统
JP7089114B2 (ja) * 2019-03-29 2022-06-21 株式会社ソニー・インタラクティブエンタテインメント 境界表示制御装置、境界表示制御方法及びプログラム
US10499044B1 (en) 2019-05-13 2019-12-03 Athanos, Inc. Movable display for viewing and interacting with computer generated environments
US11918289B2 (en) 2019-05-14 2024-03-05 Twenty Twenty Therapeutics Llc Periocular environment monitoring in a headset
US11650719B2 (en) * 2019-06-18 2023-05-16 The Calany Holding S.À.R.L. Virtual creation of real-world projects
US11663685B2 (en) 2019-06-18 2023-05-30 The Calany Holding S. À R.L. System and method for providing digital reality experiences and decentralized transactions of real estate projects
FR3104290B1 (fr) * 2019-12-05 2022-01-07 Airbus Defence & Space Sas Jumelles de visee de simulation, et systeme et procedes de simulation
CN111263174B (zh) * 2020-01-14 2022-05-20 广州虎牙科技有限公司 直播控制方法和装置、电子设备、直播系统及存储介质
CN111443490B (zh) * 2020-04-15 2022-11-18 杭州赶梦科技有限公司 一种ar hud的虚像显示区域调节方法
CN113633991B (zh) * 2021-08-13 2023-11-03 腾讯科技(深圳)有限公司 虚拟技能的控制方法、装置、设备及计算机可读存储介质
US12026831B2 (en) 2021-10-27 2024-07-02 Samsung Electronics Co., Ltd. Electronic device and method for spatial mapping using the same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048562A (ja) * 2000-08-01 2002-02-15 Institute For Welcome System Ltd 端末の空間的位置情報に対応して、位置情報に関連づけられた各種情報をサーバから端末に送信するサービスを利用して、道路標識、交通規制情報、看板、広告等を、現実の空間的位置における物理的実体から位置情報に対応してサーバ内に格納された情報に置き換える方法および機構
US20020057280A1 (en) * 2000-11-24 2002-05-16 Mahoro Anabuki Mixed reality presentation apparatus and control method thereof
GB2376397A (en) * 2001-06-04 2002-12-11 Hewlett Packard Co Virtual or augmented reality
JP2003305276A (ja) * 2002-02-18 2003-10-28 Space Tag Inc ゲームシステム、ゲーム装置、および記録媒体
JP2006285833A (ja) * 2005-04-04 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2011059069A (ja) * 2009-09-14 2011-03-24 Yupiteru Corp ナビゲーション装置及びプログラム
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
JP2011170682A (ja) * 2010-02-19 2011-09-01 Nec Corp 携帯端末、拡張現実システム、及び拡張現実情報表示方法
US20110216002A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Calibration of Portable Devices in a Shared Virtual Space

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090111670A1 (en) * 2003-05-29 2009-04-30 Julian D Williams Walk simulation apparatus for exercise and virtual reality
US20060017654A1 (en) * 2004-07-23 2006-01-26 Romo Justin R Virtual reality interactivity system and method
DE602005013752D1 (de) * 2005-05-03 2009-05-20 Seac02 S R L Augmented-Reality-System mit Identifizierung der realen Markierung des Objekts
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048562A (ja) * 2000-08-01 2002-02-15 Institute For Welcome System Ltd 端末の空間的位置情報に対応して、位置情報に関連づけられた各種情報をサーバから端末に送信するサービスを利用して、道路標識、交通規制情報、看板、広告等を、現実の空間的位置における物理的実体から位置情報に対応してサーバ内に格納された情報に置き換える方法および機構
US20020057280A1 (en) * 2000-11-24 2002-05-16 Mahoro Anabuki Mixed reality presentation apparatus and control method thereof
JP2002163670A (ja) * 2000-11-24 2002-06-07 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及びその制御方法
GB2376397A (en) * 2001-06-04 2002-12-11 Hewlett Packard Co Virtual or augmented reality
JP2003305276A (ja) * 2002-02-18 2003-10-28 Space Tag Inc ゲームシステム、ゲーム装置、および記録媒体
JP2006285833A (ja) * 2005-04-04 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
US20080111832A1 (en) * 2006-10-23 2008-05-15 International Business Machines Corporation System and method for generating virtual images according to position of viewers
JP2011059069A (ja) * 2009-09-14 2011-03-24 Yupiteru Corp ナビゲーション装置及びプログラム
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
JP2011170682A (ja) * 2010-02-19 2011-09-01 Nec Corp 携帯端末、拡張現実システム、及び拡張現実情報表示方法
US20110216002A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Calibration of Portable Devices in a Shared Virtual Space

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013550A (ja) * 2018-05-24 2020-01-23 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法
US11079897B2 (en) 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
US11307968B2 (en) 2018-05-24 2022-04-19 The Calany Holding S. À R.L. System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
US11115468B2 (en) 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
US11196964B2 (en) 2019-06-18 2021-12-07 The Calany Holding S. À R.L. Merged reality live event management system and method
US11202036B2 (en) 2019-06-18 2021-12-14 The Calany Holding S. À R.L. Merged reality system and method
US11202037B2 (en) 2019-06-18 2021-12-14 The Calany Holding S. À R.L. Virtual presence system and method through merged reality
US11245872B2 (en) 2019-06-18 2022-02-08 The Calany Holding S. À R.L. Merged reality spatial streaming of virtual spaces
US11471772B2 (en) 2019-06-18 2022-10-18 The Calany Holding S. À R.L. System and method for deploying virtual replicas of real-world elements into a persistent virtual world system
US11665317B2 (en) 2019-06-18 2023-05-30 The Calany Holding S. À R.L. Interacting with real-world items and corresponding databases through a virtual twin reality
JP2021057888A (ja) * 2019-08-20 2021-04-08 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 分散型計算センタネットワークによる3次元空間における最適化されたリアルタイム応答性の連続的な位置情報に基づくクラウドコンピューティング、レンダリング、追跡および通信サービスのための仮想無線アクセスネットワークシステムおよび方法
JP7487934B2 (ja) 2019-08-20 2024-05-21 ザ カラニー ホールディング エスエーアールエル 分散型計算センタネットワークによる3次元空間における最適化されたリアルタイム応答性の連続的な位置情報に基づくクラウドコンピューティング、レンダリング、追跡および通信サービスのための仮想無線アクセスネットワークシステムおよび方法

Also Published As

Publication number Publication date
KR20140083015A (ko) 2014-07-03
CN104024984A (zh) 2014-09-03
CN104024984B (zh) 2017-06-09
EP2579128B1 (en) 2017-11-22
KR101670147B1 (ko) 2016-11-09
US9216347B2 (en) 2015-12-22
EP2579128A1 (en) 2013-04-10
JP5934368B2 (ja) 2016-06-15
US20140221090A1 (en) 2014-08-07
EP2764422A1 (en) 2014-08-13
WO2013050473A1 (en) 2013-04-11
ES2656868T3 (es) 2018-02-28

Similar Documents

Publication Publication Date Title
JP5934368B2 (ja) 可搬装置、仮想現実システムおよび方法
US11514653B1 (en) Streaming mixed-reality environments between multiple devices
JP7133470B2 (ja) ネットワークの拡張現実表現のためのシステムおよび方法
CN105807931B (zh) 一种虚拟现实的实现方法
US11887258B2 (en) Dynamic integration of a virtual environment with a physical environment
CN103635891B (zh) 大量同时远程数字呈现世界
CN106484115B (zh) 用于增强和虚拟现实的系统和方法
JP2019139781A (ja) 拡張現実および仮想現実のためのシステムおよび方法
CN105824416B (zh) 一种将虚拟现实技术与云服务技术结合的方法
CN113272036A (zh) 用于连接的增强环境的系统和方法
JP2016122277A (ja) コンテンツ提供サーバ、コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム
JP2023518882A (ja) 拡張現実コンテンツ提供のための装置および方法
Hew et al. Markerless Augmented Reality for iOS Platform: A University Navigational System
US11823344B2 (en) Mobile device tracking module within a VR simulation
RU2626867C1 (ru) Система для организации развлекательных, образовательных и/или рекламных мероприятий

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160506

R150 Certificate of patent or registration of utility model

Ref document number: 5934368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees