JP2017526030A - 仮想環境内の相互作用を提供するための方法とシステム - Google Patents

仮想環境内の相互作用を提供するための方法とシステム Download PDF

Info

Publication number
JP2017526030A
JP2017526030A JP2016571069A JP2016571069A JP2017526030A JP 2017526030 A JP2017526030 A JP 2017526030A JP 2016571069 A JP2016571069 A JP 2016571069A JP 2016571069 A JP2016571069 A JP 2016571069A JP 2017526030 A JP2017526030 A JP 2017526030A
Authority
JP
Japan
Prior art keywords
virtual environment
virtual
tagged
actions
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016571069A
Other languages
English (en)
Inventor
ジョリー エミリー
ジョリー エミリー
ジョリー シルヴァン
ジョリー シルヴァン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apelab Sarl
Original Assignee
Apelab Sarl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apelab Sarl filed Critical Apelab Sarl
Publication of JP2017526030A publication Critical patent/JP2017526030A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Abstract

本発明は装置上に表示される仮想環境内の相互作用を提供する方法に関する。本方法は、仮想カメラを仮想環境内で配向するための入力をユーザから受信する工程であって、仮想環境が複数のオブジェクトを含み、複数のオブジェクトの少なくともいくつかはタグ付けされる、工程と、タグ付きオブジェクトが仮想カメラの規定視野範囲内に存在する場合に、タグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガする工程とを含む。システムとコンピュータプログラムコードもまた開示される。

Description

本発明は仮想環境の分野のものである。より具体的には、限定しないが、本発明は仮想環境内の相互作用に関する。
計算システムは様々なタイプの視覚化システムを提供する。使用される1つの視覚化システムは仮想環境である。仮想環境は、仮想環境内で配向される仮想カメラからの視野をユーザへ表示する。仮想カメラの配向を変更するための入力がユーザから受信される。
仮想環境は娯楽、教育、医療、および科学を含む多くの分野において使用される。
仮想環境を表示するための技術は、デスクトップ/ラップトップコンピュータ、タブレットおよびスマートフォンなどの携帯装置、Oculus Rift(商標)などの仮想現実ヘッドセットを含み得る。
内部ジャイロスコープを有するいくつかの携帯装置では、ユーザは携帯装置を動かすことにより仮想カメラを配向し得、携帯装置はそのジャイロスコープから導出されるその配向を利用して仮想カメラを仮想環境内に配置する。
ユーザは、頭を回転および傾斜することにより仮想現実ヘッドセット内の仮想カメラを配向する。
1つのこのような仮想環境はGoogle Spotlight Stories(商標)により提供される。Spotlight Stories(商標)はスマートフォン用に提供される360度アニメ映画(animated film)である。ユーザは、スマートフォンを動かすことにより仮想カメラを仮想環境内で配向し得る。内部ジャイロスコープを介し、スマートフォンはスマートフォンの配向を仮想カメラの配向へ変換する。次に、ユーザは、選択した視野から線形アニメーションを見、同アニメーション中に視野を変更し得る。
いくつかのアプリケーションでは、仮想環境内の相互作用を可能にすることが望ましいだろう。相互作用は通常、デスクトップ/ラップトップコンピュータのタッチパッドまたはポインティング装置(例えばマウス)を介し、携帯型装置のタッチスクリーンを介し、および仮想現実ヘッドセット上のボタンを介し提供される。
従来技術により提供される相互作用の性質およびアプリケーションは、仮想環境の利用を介し提供され得る様々なタイプの双方向経験において制限される。例えば、ユーザは、特定入力を与えることにより相互作用を意識的にトリガしなければならなく、携帯型装置および仮想現実ヘッドセットの入力を受信するためのユーザインターフェースは厄介であり得る。すなわち、タッチスクリーン上の指が携帯型装置のディスプレイの一部を遮断し、ユーザは仮想現実ヘッドセット内で押さなければならないボタンを見ることができない。
したがって、仮想環境内の相互作用を提供するための改良された方法およびシステムの要望がある。
本発明の目的は、仮想環境内の相互作用を提供するための方法およびシステムであって従来技術の欠点を克服するまたは少なくとも役立つ代替案を提供する方法およびシステムを提供することである。
本発明の第1の態様によると、装置上に表示される仮想環境内の相互作用を提供する方法が提供される。本方法は、仮想カメラを仮想環境内に配向するための入力をユーザから受信する工程であって、仮想環境は複数のオブジェクトを含み、複数のオブジェクトの少なくともいくつかはタグ付けされる、工程と、タグ付きオブジェクトが仮想カメラの規定視野範囲内に存在するとタグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガする工程とを含む。
本発明の別の態様によると、仮想環境内の相互作用を提供するためのシステムが提供される。本システムは、複数のオブジェクトを含む仮想環境を定義するためのデータを格納するように構成されたメモリであって、複数のオブジェクトの少なくともいくつかはタグ付けされる、メモリと、仮想カメラを仮想環境内で配向するための入力をユーザから受信するように構成された入力手段と、仮想カメラからの視野をユーザへ表示するように構成されたディスプレイと、上記入力に従って仮想カメラを配向するように、および仮想カメラの視野範囲内のタグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガするように構成されたプロセッサとを含む。
本発明の別の態様によると、仮想環境内の相互作用を提供するためのコンピュータプログラムコードが提供される。本コンピュータプログラムコードは、実行されると、仮想環境内の複数のタグ付きオブジェクトを生成し、各タグ付きオブジェクトと1つまたは複数の行為とを関連付けるように構成された生成モジュールと、実行されると、仮想カメラから仮想環境内への投射を生成し、投射と可視タグ付きオブジェクト間の交差点を検知し、交差したタグ付きオブジェクトに関連付けられた行為をトリガするように構成されたトリガモジュールとを含む。
本発明の別の態様によると、仮想環境内の相互作用を提供するためのシステムが提供される。本システムは、生成モジュールと、トリガモジュールと、複数のオブジェクトを含む仮想環境を定義するためのデータとを格納するように構成されたメモリと;複数のタグ付きオブジェクトと、仮想環境内の各タグ付きオブジェクトに関連付けられた1つまたは複数の行為とを生成するための入力をアプリケーション開発者から受信するように構成されたユーザ入力と;仮想環境内の複数のタグ付きオブジェクトと、各タグ付きオブジェクトに関連付けられた1つまたは複数の行為とを生成するために生成モジュールを実行するように、およびトリガモジュールを取り込むアプリケーションプログラムをコンパイルするように構成されたプロセッサとを含む。
本発明の他の態様は特許請求の範囲に記載される。
本発明の実施形態について、一例として、以下の添付図面を参照し次に説明する。
本発明の実施形態によるシステムを示すブロック図を示す。 本発明の実施形態による方法を示す流れ図を示す。 本発明の実施形態によるコンピュータプログラムコードを示すブロック図を示す。 本発明の実施形態によるシステムを示すブロック図を示す。 本発明の様々な実施形態による方法を示すブロック図を示す。 本発明の実施形態による方法を示す流れ図を示す。 本発明の実施形態による、仮想環境に対して物理的装置を配向することを示す図を示す。 本発明の実施形態による、ユーザが仮想シーン内の仮想カメラを配向することを示す図を示す。 本発明の実施形態による、ユーザがタブレット装置を配向することを示す図を示す。 本発明の実施形態による、ユーザが仮想現実ヘッドセット装置を配向することを示す図を示す。 本発明の実施形態による、「GazeObjects」における事象をトリガすることを示す図を示す。 本発明の実施形態による、近接ゾーン内の「GazeObjects」における事象をトリガすることを示す図を示す。 本発明の実施形態によるトリガ方法を示す流れ図を示す。 本発明の実施形態に従ってトリガされる様々な事象を示す図を示す。 本発明の実施形態による仮想シーン内の他のどこかで事象をトリガする「凝視された」オブジェクトを示す図を示す。 本発明の実施形態による立体音響(spatialised sound)を示す図を示す。 本発明の実施形態と共に使用するタブレットおよびヘッドフォンを示す。
本発明は仮想環境内の相互作用を提供するための方法とシステムを提供する。
本発明者らは、仮想3D環境内のユーザによる仮想カメラの配向がユーザの凝視としたがって当該仮想空間内のそれらの関心事とを近似することを発見した。これに基づき、本発明者らは仮想環境内の「凝視された」オブジェクトへ結び付けられた行為をトリガするためにこの「凝視」を単独で利用し得るということを理解した。この「凝視」可能環境は相互作用を提供または拡張する。本発明者らは、3D仮想世界内の相互作用ナレーティブ経験はユーザによりスクリプトされ得るがトリガされ得ないのでこの「凝視」可能環境は同経験を提供するのに特に有用であり得るということを発見した。
図1に、本発明の実施形態によるシステム100が示される。
システム100はディスプレイ101、入力102、プロセッサ103およびメモリ104を含む。
システム100はまた、音声出力105を含み得る。音声出力105はステレオスピーカまたはヘッドフォン、またはサラウンド音声システムなどの多チャンネル音声出力であり得る。
ディスプレイ101は仮想カメラの視野からの仮想環境を表示するように構成され得る。ディスプレイ101は、例えばLED/LCDディスプレイ、携帯装置上のタッチスクリーンまたは仮想現実ヘッドセットのデュアル左右眼ディスプレイであり得る。
入力102は仮想カメラを仮想環境内で配向するための入力をユーザから受信するように構成され得る。入力102は、例えばジャイロスコープ、コンパスおよび/または加速度計のうちの1つまたは複数のものであり得る。
仮想環境は複数のオブジェクトを含み得る。複数のオブジェクトのいくつかはタグ付けされ得るまたは1つまたは複数の行為に関連付けられ得る。
プロセッサ103は、ユーザに表示するための仮想カメラの視野を生成し、仮想カメラを仮想環境内で配向するための入力を受信および処理し、仮想カメラの視野範囲内に存在するタグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガするように構成され得る。
これらの行為は、仮想環境内の視覚または音声変化、ディスプレイ101を介した他のユーザ出力、音声出力105、または任意の他のタイプのユーザ出力(例えば振動モータを介した振動)、別の装置における活動、またはネットワーク活動であり得る。
これらの行為は、任意のオブジェクトではなく、タグ付きオブジェクト、仮想環境内の他のオブジェクトに関係し得る。
視野範囲は、仮想カメラの全視野、または仮想カメラからの投射により生成される視野であり得る。投射は、光線、または別のタイプの投射(例えば円錐投射)であり得る。投射は、仮想カメラの中心から仮想環境内へ向けられ得る。
メモリ104は、複数のオブジェクトを含む仮想環境を定義するデータ、複数のオブジェクトのうちのどれがタグ付けされているかを識別するデータ、行為をタグ付きオブジェクトへマッピングするデータ、および行為を定義するデータを格納するように構成され得る。
ディスプレイ101、入力102、メモリ104および音声出力105は、プロセッサ103へ独立に、組み合わせて、または通信バスを介し接続され得る。
システム100は好適には、デスクトップ/ラップトップコンピュータなどの個人用ユーザ装置、タブレットなどの携帯計算装置、スマートフォン、またはスマートウォッチ、仮想現実ヘッドセットまたは特注装置である。システム100は1つまたは複数の通信システムを介しリンクされる複数の装置全体にわたって分散され得るということが理解される。例えば、ディスプレイ101および入力102は、通信ネットワーク(例えばwifiまたはBluetooth(登録商標))を介しプロセッサ103へ、およびタブレットまたはスマートフォンなどの計算装置内のメモリ104へリンクされる仮想現実ヘッドセットの一部であり得る。
一実施形態では、携帯計算装置は、Google Cardboard(商標)、Samsung Gear(商標)またはHTC Vive(商標)などのヘッドセットを介しユーザに対し適所に保持され得る。
ここで、入力102およびディスプレイ101は携帯計算装置の一部を形成し、入力102はジャイロスコープ、コンパス、および/または加速度計のうちの1つまたは複数であり、したがって、装置全体の運動が仮想カメラを仮想環境内で配向し得る。入力102は、装置の配向が仮想カメラの配向と1対1で対応するように仮想カメラの配向へ直接関連付けられ得る。
図2を参照して、本発明の実施形態による方法200について説明する。
方法200は、例えばUnityなどの仮想環境開発プラットホームを使用することにより1人または複数のアプリケーション開発者により少なくとも部分的に定義または生成された仮想環境を利用し得る。仮想環境の生成中、アプリケーション開発者はタグ付きオブジェクトを生成または定義し、これらのタグ付きオブジェクトのそれぞれと1つまたは複数の行為とを関連付け得る。
いくつかの実施形態では、タグ付きオブジェクトおよび/または関連付けられた行為は、完全にまたは部分的に、プログラム的に、およびアプリケーション開発者からの入力に応答してまたは一実施形態ではユーザによる仮想環境との相互作用中に動的に、または別の実施形態ではユーザ以外の1つまたは複数のパーティからの入力に応答して生成され得る。
仮想環境は1つまたは複数のシーンから構成され得る。シーンは3D空間内に配置された複数のオブジェクトから構成され得る。シーンは、初期仮想カメラ配向により定義され得、仮想カメラの再配向に対する制限(例えば、回転運動だけ、または水平運動だけ等)を含み得る。シーン内のオブジェクトは静的であり得る(すなわち、オブジェクトの状態または位置が変わらない)または動的であり得る(例えば、オブジェクトは、3D空間内でアニメーション化されるまたは並進運動を受け得る)。スクリプトまたは規則がオブジェクトに対する修正を定義し得る。
工程201では、仮想カメラから仮想環境内への視野がユーザへ(例えばディスプレイ101上に)表示される。視野は、仮想カメラに「可視」である1つまたは複数のオブジェクトの少なくとも一部の表示を含み得る。オブジェクトは境界により仮想環境内に境界を定められ得る。境界は、仮想環境内の3Dオブジェクトを規定し得る。境界は静的または動的であり得る。「可視」オブジェクトは、仮想カメラから仮想環境内への投射と交差するオブジェクトであり得る。
工程202では、ユーザは、仮想カメラを仮想環境内で配向するための入力を(例えば入力102を介し)提供する。仮想カメラを再配向することで、工程203により示されるようにユーザへ表示される視野を変更し得る。
工程204では、仮想カメラの規定視野範囲内のタグ付きオブジェクトに関連付けられた1つまたは複数の行為が(例えばプロセッサ103により)トリガされる。視野範囲は、仮想カメラからの投射により形成される複数の視野の1つとして定義され得る。様々な投射の例が図5a〜5cに示される。様々な投射の例は、仮想カメラから仮想環境内へ投射する光線、仮想カメラから仮想環境内へ投射する円錐、または仮想カメラの全視野(例えば仮想環境内へ投射された、ユーザへ表示される視野の寸法の直角投射)を含み得る。次に、別の入力が、工程205により示されるようにユーザから受信され得る。
規定トリガ期間は、行為に、タグ付きオブジェクトに、またはグローバルに関連付けられ得る。1つまたは複数の行為は、タグ付きオブジェクトが全規定期間の間規定視野範囲内に存在するとトリガされ得る。トリガ期間の代替実施形態が可能であるということが理解される。例えば、タグ付きオブジェクトは、トリガ期間をリセットすることにより視野範囲外の閾値以下の期間を許可され得る。または、タグ付きオブジェクトは視野範囲内の反復発生によりトリガ期間を累積し得る。
行為は、以下の発生のうちの1つまたは複数を明示し得る:
a)オブジェクトのアニメーションなどの視覚的変化(例えばスプライトアニメーション、スケルトンアニメーション、3Dアニメーション、パーティクルアニメーション)、視環境内のアニメーション(天候アニメーションなど)、または他の視覚的修正(視野を明るくする/暗くする、またはユーザインターフェース要素の外観を変更する等)、
b)特定/すべてのオーディオトラックの再生または停止、特定オーディオトラックのダッキング、および特定/すべてのオーディオトラックに対する他のボリューム変更などの音声変更、
c)ユーザインターフェース機能を追加、除去、またはそうでなければ修正するなどのプログラム的変更、
d)振動などの任意の他のユーザ出力、
e)ネットワークメッセージ(例えば、ローカル接続された装置へのwifiまたはBluetoothメッセージ、またはサーバへのインターネットメッセージ)、
f)装置上で実行する他のアプリケーションへのメッセージ、
g)装置におけるデータの修正、
h)視野変更(例えば、仮想カメラはシーン内の別の位置および配向へジャンプし得る、または全シーンは変わり得る)、
i)シーンに関して定義されたスクリプト内の分岐の選択またはシーンに関して定義されたスクリプトの修正(例えば、分岐ナレーティブが仮想環境に関して定義された場合、一方の分岐は他方の分岐上で活性化または選択され得る)。
発生は、行為に関連付けられたタグ付きオブジェクト、シーン内の他のオブジェクト、または別のシーン内のオブジェクトに関係し得る。
いくつかの実施形態では、行為が音声変更を明示すると、音声変更のうちの少なくともいくつかは「音声が仮想環境内の特定オブジェクトを起源とするように出現する」ということをユーザが識別し得るように3D空間内に局地化され得る。特定オブジェクトはタグ付きオブジェクトであり得る。音声は、タグ付きオブジェクトが規定視野範囲内に存在するかどうかに基づきそのボリュームが変わり得る(例えば、ボリュームはタグ付きオブジェクトが規定視野範囲外に存在する場合には下げられ得る)。
いくつかの実施形態では、タグ付きオブジェクトに関連付けられた行為もまた、視野範囲内に入ることなく他の因子によりトリガされ得る。例えば、シーンの開始により始動されるカウントダウンタイマ、別の行為をトリガすること、ネットワーク信号を受信すること、別の入力を受信すること、および/または仮想環境に関係する事象(例えば、特定のオーディオ再生条件、表示状態など)の発生による。
規定遅延時間は、行為に、タグ付きオブジェクトに、またはグローバルに関連付けられ得る。一回トリガされた1つまたは複数の行為は、発生が明示される前に規定遅延時間が経過するまで待ち得る。
いくつかの実施形態では、1つまたは複数の行為は、関連付けられたタグ付きオブジェクトがもはや規定視野範囲内に存在しない場合に停止または変化するためにトリガされ得る。
いくつかの実施形態では、行為の少なくともいくつかだけが一回トリガされ得る。
いくつかの実施形態では、行為の少なくともいくつかは、行為をトリガするために満足されなければならない追加条件を含む。追加条件は、タグ付きオブジェクト内への投射からの入射角、タグ付きオブジェクトに対する投射の動き、カメラ、湿度センサなどの他の装置入力、時刻、天気予報などのうちの1つまたは複数を含み得る。
一実施形態では、特定行為が各タグ付きオブジェクトと直接関連付けられる。別の実施形態では、タグ付きオブジェクトは(例えば等級に)分類され得、等級は、当該等級のすべてのタグ付きオブジェクトがそれらの等級の関連行為に関連付けられるように特定行為に関連付けられ得る。
いくつかの実施形態では、オブジェクトに関連付けられた行為は、仮想カメラがまたオブジェクトに近接するとトリガされる。近接性は、グローバルベースまたはオブジェクト/オブジェクトタイプ固有ベースで規定され得る。オブジェクトの近接性閾値は、仮想カメラがオブジェクトまで所定距離内に存在する場合または仮想カメラが、オブジェクトを囲む規定周囲内に存在する場合に満足するように定義され得る。
図3を参照して、本発明の実施形態によるコンピュータプログラムコード300について説明する。
生成モジュール301が示される。生成モジュール301は、プロセッサ上で実行されると仮想環境において使用される複数のタグ付きオブジェクトのアプリケーション開発者による生成と、各タグ付きオブジェクトと1つまたは複数の行為との関連付けとを可能にするコードを含む。
トリガモジュール302が示される。トリガモジュール302は、プロセッサ上で実行されると仮想カメラから仮想環境内への投射と交差するタグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガするコードを含む。
コンピュータプログラムコード300は、フラッシュメモリまたはハードドライブなどの非一時的コンピュータ可読媒体(例えば装置またはサーバー内の)またはダイナミックメモリなどの一時的コンピュータ可読媒体上に格納され、通信信号などの一時的コンピュータ可読媒体を介し(例えば、サーバから装置までのネットワーク全体にわたって)送信され得る。
コンピュータプログラムコード300の少なくとも一部は、複数のユーザ装置への配備のための実行可能形式にコンパイルされ得る。例えば、トリガモジュール302は、仮想環境生成コードおよび他のアプリケーションコードと共に、ユーザ装置上の使用のための実行可能アプリケーションにコンパイルされ得る。
図4に、本発明の実施形態によるシステム400が示される。
システム400は、メモリ401、プロセッサ402およびユーザ入力403を含む。
メモリ401は、図3に関して説明したコンピュータプログラムコードと、Unityなどの仮想環境開発ソフトウェアプラットフォームとを格納するように構成される。仮想環境開発プラットホームは、仮想環境内の複数のオブジェクトを生成する能力を含む。これらのオブジェクトは、静止オブジェクト、仮想環境内で動くオブジェクト、またはアニメーションオブジェクトであり得る。オブジェクトは、表示されると立体形状を形成する閉じたポリゴンで構成され得る、または、1つまたは複数の透明/半透明ポリゴンを含み得る、または一定容積の煙または霧、火、プラズマ、水などの視覚効果であり得る、または任意の他のタイプのオブジェクトであり得る。
アプリケーション開発者は、仮想環境開発ソフトウェアプラットフォームを使用することにより、双方向仮想環境を生成するための入力をユーザ入力403を介し提供し得る。
アプリケーション開発者は、複数のタグ付きオブジェクトを生成し同タグ付きオブジェクトと1つまたは複数の行為とを関連付けるために生成モジュールへ情報を提供するための入力をユーザ入力403を介し提供し得る。
プロセッサ402は、仮想環境を装置上に表示する命令、仮想カメラを配向するためのユーザ入力を受信する命令、および仮想カメラからの投射と交差するタグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガする命令を含むコンピュータプログラムコードを生成するように構成され得る。
図5a〜5cは、本発明の実施形態による、投射により形成される様々な視野範囲を示す。
図5aは、仮想カメラから仮想環境内に投射された光線により規定される視野範囲を示す。仮想環境は複数のオブジェクトA、B、C、D、E、F、Gを含む。これらオブジェクトのいくつかはタグ付きである(A、C、F、G)。オブジェクトAは光線がオブジェクトAと交差するので光線の投射により規定された視野範囲内に存在するということがわかる。オブジェクトが不透明でありかつ非反射性であれば、投射は終了し得る。したがって、オブジェクトBは視野範囲内に存在しない。次に、Aに関連付けられた行為がトリガされ得る。
図5bは、仮想カメラから仮想環境内へ投射された円錐により規定された視野範囲を示す。オブジェクトA、C、Dは光線の投射により規定された視野範囲内に入るということがわかる。したがって、AおよびCに関連付けられた行為がトリガされ得る。
図5cは、仮想カメラの全視野により規定された視野範囲を示す。全視野を形成する投射はA、C、D、E、Fと交差するということがわかる。したがって、A、C、Fに関連付けられた行為がトリガされ得る。
次に、本発明のいくつかの実施形態について図6〜図12を参照して説明する。本発明のこれらの実施形態は「凝視(Gaze)」と呼ばれる。
凝視実施形態は、携帯装置、仮想現実ヘルメットおよびデプスタブレット(depth tablet)などの任意のジャイロスコープ使用可能装置を使用する双方向経験の生成システムを提供する。凝視はまた、ユーザと仮想環境間の複雑なトリガベース相互作用コンテンツの開発および生成を簡単化し得る。
凝視実施形態は、図6に示すように仮想環境内の様々な行為をユーザが仮想カメラで見るだけでそれらをトリガできるようにする。相互作用要素は、時間、他の相互作用要素のトリガおよびオブジェクト衝突などの複数の要因に基づきトリガされ得る。凝視実施形態はまた、オブジェクトがトリガされると同オブジェクトが他のオブジェクトもまたトリガし得るように連鎖反応を設定できるようにし得る。
凝視実施形態のいくつかは、その内部ライブラリおよびグラフィックユーザインターフェース(GUI)機能のいくつかを使用することによりUnity3Dソフトウェア環境内に配備され得る。代替の3Dソフトウェア開発環境が使用され得るということが理解される。
凝視実施形態のほとんどの要素は、チェックボックス、テキストフィールドまたはボタンを含むコンポーネントプロパティを介し標準的Unity編集者において直接設定され得る。
カメラ
Unityにおいて利用可能な標準的カメラは、以下のように記述されるコードの2つのスクリプトの追加により強化される。
1.ジャイロスクリプトは、アプリケーションを実行する物理的装置の運動に応じてカメラを移動できるようにする。タブレット装置が仮想環境に対して回転される例を図7aに示す。タブレット装置は、仮想カメラと物理的装置間の空間的運動を3次元軸上で1対1に翻訳する。仮想シーン内の仮想カメラの3次元運動を図7bに示す。
装置は、ゴーグルヘルメット(ゴーグルヘルメットを装着するユーザの頭の運動が図7bに示す運動へ変換される図7cに示す)、タブレットのような方位センサを有する携帯装置(物理的世界内のタブレットの配向が図7bに示す運動へ変換される図7dに示す)または配向センサ(例えばジャイロスコープ、コンパス)を有するスマートフォンまたは任意の他のシステムを含み得る。
2.光線放射器スクリプト(ray caster script)は、カメラにカメラが見ているものを気付かせるようにする。光線放射器は、光線をカメラからその見る角度に向けて真っすぐに発射する。これにより、光線放射器は、どのオブジェクトがカメラの前に存在し直接見られているかをスクリプトに知らしめる。次に、スクリプトは、このような情報を知ることに興味を持つコンポーネントに通知する。光線スクリプトを実行する例を、仮想カメラから放出された光線が「GazeObject」と衝突する図8aに示す。衝突は、GazeObjectにおける事象と、同じおよび異なる仮想シーン内の他のGazeObjectsにおける事象とをトリガする。
スクリプトは、Unity編集者ウィンドウ内のテキストフィールド内に数字(光線が放たれる前の数秒の時間を表す)を入力することにより上述のプロセスの活性化を遅らせる選択肢を有する。
光線は、無限遠点に放たれ得、交差する任意数の凝視可能オブジェクトを検知し、それらと相互作用することができる。
凝視可能オブジェクト
Unity内のあらゆるGameObjectは「GazedObject」と呼ばれるものに変えられ得る。このことは、Unityのシーンビュー(scene view)内のあらゆるオブジェクトが潜在的に凝視相互作用システムの一部であり得るということを意味する。GazedObjectを生成するために、Unityプレファブ(prefab)が生成される。このオブジェクトはシーンビュー内に投入され、以下の3つの個別部分を含む。
ルート−GazedObjectの階層内の最上位要素。シーンビュー内のGazedObjectプレファブ構造全体を動かすためのアニメータ(animator)を含む。
「トリガ」チャイルド−GazedObjectに関連付けられたすべてのトリガ(トリガはさらに説明される)を含む。「トリガ」チャイルドはまた、GazedObjectがカメラにより凝視されていることを通知する責任を負うコライダー(collider)を含む。
「スロット」チャイルド−GazedObjectに関連付けられたすべてのGameObject(スプライト、3Dモデル、音声等)を含む。「スロット」ペアレントへ加えられる各スロットは全GameObjectの1つまたは複数のコンポーネントを表す。例えば、Human GazedObjectのスロットコンポーネントは6つのチャイルド(ボディに1つ、各腕に1つ、各脚に1つ、頭に1つ)を含む可能性がある。スロットチャイルドはまた、自身が含むチャイルドコンポーネントをアニメ―ション化する責任を負うアニメータを有する。
トリガ
GazedObjectプレファブ内の「トリガ」と名付けられたチャイルドは1つまたは複数のチャイルドを含む。各チャイルドはトリガ自体である。トリガは、以下の事象のうちの1つにより発射され得る:
・2つのGameObject(Unity内のコライダーオブジェクト)間の衝突。
・(凝視技術を介し)カメラにより凝視されるGameObject。
・シーンのロードから始まる期間(秒)またはGazedObject内に含まれる別のトリガに対する期間(秒)のいずれか。
Trigger GameObjectは、4つのコンポーネント、すなわち標準的Unityの一部としての「音源」コンポーネント、「トリガアクティベータ(Trigger Activator)」スクリプト、「オーディオプレイヤー」スクリプトおよびカスタムスクリプトを含む。各スクリプトの説明は次のとおりである。
「トリガアクティベータ」は、トリガチャイルドGameObjectが活性状態になる時間と、他のトリガとの潜在的依存性とを規定するスクリプトである。「トリガアクティベータ」は、それらの様々な値を設定するためにユーザへ以下のグラフィック領域を表示する。
「自律的(Autonomous)」は、トリガが別のGazedObjectのトリガに依存するかどうかまたは自律的であるかどうかを規定する編集可能チェックボックスである。チェックボックスがチェックされれば、「活性化継続(Activation Duration)」および「待ち時間(Wait Time)」はUnityシーンの開始により設定される時間から相対的となる。そうでなければ、これらは別のGazedObjectのトリガの開始時刻に依存することになる。
「待ち時間」は、そのトリガが活性化された時間から、カスタムスクリプト(さらに説明される)内に規定された行為を立ち上げる前の所望時間量(秒)を設定するために使用される編集可能テキストフィールドである。
「自動トリガ」は、いかなるトリガ(衝突、凝視、または時間関連)も発生しなかったとしてもチェックされれば、規定「待ち時間」へ加えられた「活性化継続」時間の終わりに達するとトリガが発射されなければならないかどうかを規定する任意選択ボックスである。チェックされなければ、いかなる行為も、この時間窓中にいかなるトリガも発生しなければなされない。
「再ロード」は、トリガが再度トリガされ得るようにトリガされた後にリセットされるようにする任意選択ボックスである。
「インフィニット(infinite)」は活性化の期間が無限かどうかを規定するために使用される選択肢である。
「近接性(proximity)」は、行為をトリガすることができるためにカメラが規定距離まで接近していなければならないかどうかを規定する選択肢である。カメラが十分に近いと見なされるように入らなければならないこの距離はコライダ(非可視の立方体)により規定される(図8b、8c、8dに示すように)。
GazeObjectsにおける事象をトリガすることを示す流れ図が図9に示される。
ユーザが仮想カメラを制御する能力を有する完全没入型(3次元軸x/y/z上360°)仮想環境内の双方向経験はこれまで決してなされなかった。
見られたときに環境内の音源を優先させるのを助けるために、音声もまた凝視システムにより提供され得る。
凝視実施形態は、従来技術を越える以下の改善を提供する:ユーザはトリガに気付かなくても良く、これらのトリガは前記環境内のユーザの焦点合わせだけにより活性化され得る。したがって、いかなる物理的または仮想的ジョイスティックも必要無い。
ユーザ装置は、スマートフォン、ディジタルタブレット、携帯ゲームコンソールまたは仮想現実ヘッドセットなどの装置、または仮想カメラの配向により様々な事象をトリガすることができる他の装置を含み得る。さらに、空間的アプリケーションはiOS、Mac、Android、Windowsを含む様々なオペレーティングシステム上でアクセスされ得る。
1つまたは複数の実施形態では、本システムは、ジャイロスコープ可能装置(例えば、スマートフォン、ディジタルタブレット、携帯ゲームコンソール、または仮想現実ヘッドセット)を使用しそして仮想カメラの配向により様々な事象をトリガすることにより(ユーザにより意図的にまたは無意識に)、ユーザが3D環境内で仮想カメラによりナビゲートできるようにする。一例として、装置のスクリーンは、仮想世界の像を含み得る。さらに、仮想カメラは、仮想世界内のすべての要素の可能トリガとして働く光線を放ち得る。一実施形態では、この光線が仮想世界内の要素に当たると、図10aに示すように様々なタイプの事象、例えばアニメーション(仮想世界内の既存要素1000または任意の新しい要素の任意の種類の変換を含む)、音声1001、映像、シーン、パーティクルシステム1002、スプライトアニメーション、配向の変更1003、または任意の他のトリガ可能要素が活性化され得る。
具体的には、これらの事象は、光線のフィールド内だけでなく、図10bに示すようにそのシーンまたは別のシーンの任意の他の角度に配置され得る。特に、各事象は下記条件のうちの任意の組み合わせによりトリガされ得る:光線の角度、事象が活性化され得る時間窓、光線が特定の角度であれば継続時間、光線の運動、装置(例えば、カメラ、湿度センサ、物理的装置)の様々な入力、時刻、天気予報、他のデータ、またはこれらの任意の組み合せ。
具体的には、この新しい双方向視聴覚技術は、360°環境が必要な任意の種類のアプリケーション:すなわち音声ベースナレーティブ、双方向映画、双方向グラフィック小説、ゲーム、教育プロジェクト、または任意の模擬環境(すなわち、自動車、シミュレータ、飛行機シミュレータ、船シミュレータ、医学またはヘルスケアシミュレータ、格闘シミュレータのような環境シミュレータ、危機シミュレータ等)を生成するために使用され得る。
凝視実施形態のうちのいくつかは、凝視技術が実時間でユーザの配向へそしてユーザにより見られる3Dシーンの要素へ適応化するので音声はより動的であり得るので、サラウンド3D音声の改善を提供する。立体音響を図11に示す。立体音響は図12に示すようなステレオヘッドフォン1201を有するタブレット1200などのユーザ装置を介し送出され得る。
上記実施形態はハードウェア、ソフトウェアまたはその両方の組み合わせで配備され得るということが理解される。ソフトウェアは、1つまたは複数のプロセッサによる実行のために、フラッシュメモリなどの非一時的コンピュータ可読媒体上に格納されてもよいしネットワーク信号などの一時的コンピュータ可読媒体を介し送信されてもよい。
本発明のいくつかの実施形態の潜在的利点は、双方向仮想環境を提供するためにより簡単な装置が使用され得ること、相互作用を提供する機構は従来技術のシステムより使用するのがより容易であること、アプリケーション開発者が仮想環境とのアプリケーション内の可変相互作用をより容易に配備し得ること、および、新規な双方向経験(例えば、ユーザが相互作用を意識しない)が可能であることである。
本発明はその実施形態の説明により示され、実施形態はかなり詳細に説明されたが、添付特許請求範囲をこのような詳細に限定するまたはそれらにいかなるやり方でも制限することは本出願人の意図するものではない。追加の利点および修正は当業者には容易に思いつくであろう。したがって、より広い態様における本発明は、特定の詳細、代表的装置および方法、示され説明された例示的実施例に限定されない。したがって、出願人の一般的発明概念の精神または範囲から逸脱することなくこのような詳細からの逸脱がなされ得る。

Claims (41)

  1. 装置上に表示される仮想環境内の相互作用を提供する方法であって、
    仮想カメラを前記仮想環境内で配向するための入力をユーザから受信する工程であって、前記仮想環境は複数のオブジェクトを含み、前記オブジェクトの少なくともいくつかはタグ付けされる、工程と、
    前記タグ付きオブジェクトが前記仮想カメラの規定視野範囲内に存在する場合に、前記タグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガする工程とを含む方法。
  2. 前記仮想カメラから前記ユーザへの視野を前記装置上に表示する工程をさらに含む請求項1に記載の方法。
  3. 前記行為の少なくとも1つは前記オブジェクトに関する、請求項1乃至2のいずれか一項に記載の方法。
  4. 前記行為の少なくとも1つは前記仮想環境内の視覚的変化である、請求項1乃至3のいずれか一項に記載の方法。
  5. 前記視覚的変化はアニメーションである、請求項4に記載の方法。
  6. 前記行為の少なくとも1つは前記仮想環境内の音声変更である、請求項1乃至5のいずれか一項に記載の方法。
  7. 前記音声変更は音声サンプルの再生である、請求項6に記載の方法。
  8. 前記音声変更は現在再生中の音声サンプルの修正である、請求項6に記載の方法。
  9. 前記修正は前記現在再生中の音声サンプルのボリュームを下げることである、請求項8に記載の方法。
  10. 前記音声変更は、前記音声が前記仮想環境内の特定位置を起源として前記ユーザへ出現するように3D空間内で局地化される、請求項6乃至9のいずれか一項に記載の方法。
  11. 前記行為の少なくとも1つは前記仮想カメラの配向を変更する、請求項1乃至10のいずれか一項に記載の方法。
  12. 前記行為の少なくとも1つはユーザ出力を生成する、請求項1乃至11のいずれか一項に記載の方法。
  13. 前記ユーザ出力は音声出力、視覚出力、触覚出力の組から選択される、請求項12に記載の方法。
  14. 前記ユーザ出力は振動である、請求項13に記載の方法。
  15. 前記行為の少なくとも1つは前記装置外で発生する、請求項1乃至14のいずれか一項に記載の方法。
  16. 前記仮想環境は双方向ナレーティブ娯楽に関する、請求項1乃至15のいずれか一項に記載の方法。
  17. 前記双方向ナレーティブ娯楽は分岐ナレーティブから構成され、分岐は、前記1つまたは複数の行為のうちの少なくとも1つをトリガすることにより前記ユーザにより選択される、請求項16に記載の方法。
  18. 前記視野範囲は前記仮想カメラから前記仮想環境内へ投射された光線により形成される視野として定義される、請求項1乃至17のいずれか一項に記載の方法。
  19. 前記タグ付きオブジェクトは前記光線がタグ付きオブジェクトと交差すると前記視野範囲内に存在する、請求項18に記載の方法。
  20. 前記視野範囲は、前記仮想カメラから前記仮想環境内へ投射された円錐により形成される視野として定義される、請求項1乃至19のいずれか一項に記載の方法。
  21. 前記視野範囲は前記仮想カメラの全視野として定義される、請求項1乃至20のいずれか一項に記載の方法。
  22. 前記装置は仮想現実ヘッドセットである、請求項1乃至21のいずれか一項に記載の方法。
  23. 前記装置は携帯装置である、請求項1乃至22のいずれか一項に記載の方法。
  24. 前記携帯装置はスマートフォン、タブレットまたはスマートウォッチである、請求項23に記載の方法。
  25. 前記ユーザは前記装置内の加速度計および/またはジャイロスコープを使用することにより前記仮想カメラを配向する、請求項1乃至24のいずれか一項に記載の方法。
  26. 前記装置の配向は前記仮想カメラの配向に対応する、請求項25に記載の方法。
  27. 前記1つまたは複数の行為は前記タグ付きオブジェクトがトリガの所定待ち時間の間前記仮想カメラの視野範囲内に存在するとトリガされる、請求項1乃至26のいずれか一項に記載の方法。
  28. 前記トリガの所定待ち時間はタグ付きオブジェクト毎に定義される、請求項27に記載の方法。
  29. 少なくとも1つの行為が所定活性化時間に関連付けられ、トリガされると前記少なくとも1つの行為は前記活性化時間の経過後に活性化される、請求項1乃至28のいずれか一項に記載の方法。
  30. 前記1つまたは複数の行為のうちの少なくとも1つのトリガは、次には別の行為をトリガする、請求項1乃至29のいずれか一項に記載の方法。
  31. 前記タグ付きオブジェクトのうちの少なくともいくつかに関連付けられた前記1つまたは複数の行為は前記仮想カメラがタグ付きオブジェクトに関係する近接性閾値内に存在するときのみトリガされる、請求項1乃至30のいずれか一項に記載の方法。
  32. 仮想環境内の相互作用を提供するシステムであって、
    複数のオブジェクトを含む仮想環境を定義するためのデータを格納するように構成されたメモリであって、前記複数のオブジェクトの少なくともいくつかはタグ付けされる、メモリと、
    仮想カメラを前記仮想環境内で配向するための入力をユーザから受信するように構成された入力手段と、
    前記仮想カメラからの視野を前記ユーザへ表示するように構成されたディスプレイと、
    前記入力に従って前記仮想カメラを配向するように、および前記仮想カメラの前記視野範囲内のタグ付きオブジェクトに関連付けられた1つまたは複数の行為をトリガするように構成されたプロセッサとを含むシステム。
  33. 前記入力手段は加速度計および/またはジャイロスコープである、請求項32に記載のシステム。
  34. 前記表示手段と前記入力手段とを含む装置を含む請求項32乃至33のいずれか一項に記載のシステム。
  35. 前記装置は仮想現実ヘッドセットである、請求項34に記載のシステム。
  36. 前記装置は携帯装置である、請求項34に記載のシステム。
  37. 仮想環境内の相互作用を提供するコンピュータプログラムコードであって、
    実行されると、仮想環境内の複数のタグ付きオブジェクトを生成し、各タグ付きオブジェクトと1つまたは複数の行為とを関連付けるように構成された生成モジュールと、
    実行されると、仮想カメラから仮想環境内への投射を生成し、前記投射と可視タグ付きオブジェクト間の交差点を検知し、前記交差したタグ付きオブジェクトに関連付けられた行為をトリガするように構成されたトリガモジュールとを含むシステム。
  38. 請求項37に記載のコンピュータプログラムコードを格納するように構成されたコンピュータ可読媒体。
  39. 仮想環境内の相互作用を提供するシステムであって、
    生成モジュールと、トリガモジュールと、複数のオブジェクトを含む仮想環境を定義するためのデータとを格納するように構成されたメモリと、
    複数のタグ付きオブジェクトと、前記仮想環境内の各タグ付きオブジェクトに関連付けられた1つまたは複数の行為とを生成するための入力をアプリケーション開発者から受信するように構成されたユーザ入力と、
    前記仮想環境内の複数のタグ付きオブジェクトと、各タグ付きオブジェクトに関連付けられた1つまたは複数の行為とを生成するために前記生成モジュールを実行するように、および前記トリガモジュールを取り込むアプリケーションプログラムをコンパイルするように構成されたプロセッサとを含むシステム。
  40. ディスプレイと入力とを有する装置のプロセッサによりに実行されると請求項1乃至31のいずれか一項に記載の方法の工程を前記装置に実行させる命令を格納したコンピュータ可読記憶媒体。
  41. 添付図面を参照して本明細書に説明したような仮想環境内の相互作用を提供する方法またはシステム。
JP2016571069A 2014-06-02 2015-06-02 仮想環境内の相互作用を提供するための方法とシステム Pending JP2017526030A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462006727P 2014-06-02 2014-06-02
US62/006,727 2014-06-02
PCT/EP2015/062307 WO2015185579A1 (en) 2014-06-02 2015-06-02 A method and system for providing interactivity within a virtual environment

Publications (1)

Publication Number Publication Date
JP2017526030A true JP2017526030A (ja) 2017-09-07

Family

ID=53489927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016571069A Pending JP2017526030A (ja) 2014-06-02 2015-06-02 仮想環境内の相互作用を提供するための方法とシステム

Country Status (8)

Country Link
US (1) US20170220225A1 (ja)
EP (1) EP3149565A1 (ja)
JP (1) JP2017526030A (ja)
KR (1) KR20170012312A (ja)
CN (1) CN106462324A (ja)
AU (1) AU2015270559A1 (ja)
CA (1) CA2948732A1 (ja)
WO (1) WO2015185579A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6297739B1 (ja) * 2017-10-23 2018-03-20 東建コーポレーション株式会社 物件情報提供サーバ
JP2019133309A (ja) * 2018-01-30 2019-08-08 株式会社コロプラ プログラム、情報処理装置、及び情報処理方法
JP2019160112A (ja) * 2018-03-16 2019-09-19 株式会社スクウェア・エニックス 映像表示システム、映像表示方法及び映像表示プログラム
JP2022159417A (ja) * 2016-03-31 2022-10-17 マジック リープ, インコーポレイテッド 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN105844684B (zh) * 2015-08-24 2018-09-04 鲸彩在线科技(大连)有限公司 一种游戏数据下载、重构方法及装置
US10249091B2 (en) * 2015-10-09 2019-04-02 Warner Bros. Entertainment Inc. Production and packaging of entertainment data for virtual reality
CN108227520A (zh) * 2016-12-12 2018-06-29 李涛 一种基于全景界面的智能设备的控制系统及控制方法
CN107016898B (zh) * 2017-03-16 2020-08-04 北京航空航天大学 一种增强人机交互体验的触屏模拟顶板装置
US10388077B2 (en) * 2017-04-25 2019-08-20 Microsoft Technology Licensing, Llc Three-dimensional environment authoring and generation
US20190253700A1 (en) * 2018-02-15 2019-08-15 Tobii Ab Systems and methods for calibrating image sensors in wearable apparatuses
CN108786112B (zh) * 2018-04-26 2024-03-12 腾讯科技(上海)有限公司 一种应用场景配置方法、装置和存储介质
CN112771883B (zh) * 2018-09-28 2023-04-25 诺基亚技术有限公司 用于实现全向内容播放的多时间线支持的方法和装置
CN111258520B (zh) * 2018-12-03 2021-09-14 广东虚拟现实科技有限公司 显示方法、装置、终端设备及存储介质
CN109901833B (zh) * 2019-01-24 2022-06-07 福建天晴数码有限公司 一种限制物体移动的方法及终端
US11943565B2 (en) * 2021-07-12 2024-03-26 Milestone Systems A/S Computer implemented method and apparatus for operating a video management system
WO2024019899A1 (en) * 2022-07-18 2024-01-25 Nant Holdings Ip, Llc Virtual production based on display assembly pose and pose error correction

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081271A (en) * 1997-05-23 2000-06-27 International Business Machines Corporation Determining view point on objects automatically in three-dimensional workspace from other environmental objects in a three-dimensional workspace
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8239775B2 (en) * 2007-12-14 2012-08-07 International Business Machines Corporation Method and apparatus for a computer simulated environment
US8847992B2 (en) * 2008-08-22 2014-09-30 Google Inc. Navigation in a three dimensional environment using an orientation of a mobile device
US9118970B2 (en) * 2011-03-02 2015-08-25 Aria Glassworks, Inc. System and method for embedding and viewing media files within a virtual and augmented reality scene
US20140002582A1 (en) * 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022159417A (ja) * 2016-03-31 2022-10-17 マジック リープ, インコーポレイテッド 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
JP7186913B2 (ja) 2016-03-31 2022-12-09 マジック リープ, インコーポレイテッド 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
US11657579B2 (en) 2016-03-31 2023-05-23 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
JP6297739B1 (ja) * 2017-10-23 2018-03-20 東建コーポレーション株式会社 物件情報提供サーバ
JP2019079192A (ja) * 2017-10-23 2019-05-23 東建コーポレーション株式会社 物件情報提供サーバ
JP2019133309A (ja) * 2018-01-30 2019-08-08 株式会社コロプラ プログラム、情報処理装置、及び情報処理方法
JP2019160112A (ja) * 2018-03-16 2019-09-19 株式会社スクウェア・エニックス 映像表示システム、映像表示方法及び映像表示プログラム

Also Published As

Publication number Publication date
CA2948732A1 (en) 2015-12-10
WO2015185579A9 (en) 2016-01-21
EP3149565A1 (en) 2017-04-05
CN106462324A (zh) 2017-02-22
WO2015185579A1 (en) 2015-12-10
KR20170012312A (ko) 2017-02-02
US20170220225A1 (en) 2017-08-03
AU2015270559A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP2017526030A (ja) 仮想環境内の相互作用を提供するための方法とシステム
US11830151B2 (en) Methods and system for managing and displaying virtual content in a mixed reality system
RU2691589C2 (ru) Невизуальная обратная связь визуального изменения в способе и устройстве отслеживания взгляда
JP7440532B2 (ja) 複合現実システムを用いて仮想3次元空間内のウェブページを管理および表示すること
RU2677593C2 (ru) Привлечение взгляда зрителей устройств отображения
US10478720B2 (en) Dynamic assets for creating game experiences
ONG. et al. Beginning windows mixed reality programming
Chen et al. Research and development of virtual reality game based on unreal engine 4
Freiknecht et al. Game Engines
Anstey et al. Building a VR narrative
Gobira et al. Expansion of uses and applications of virtual reality
Seligmann Creating a mobile VR interactive tour guide
KR20150071613A (ko) 증강 현실 정보 상세도
Kucherenko Webvr api description and a-frame application implementation
Janis Interactive natural user interfaces
Kharal Game Development for International Red Cross Virtual Reality
Effelsberg et al. Jonas Freiknecht, Christian Geiger, Daniel Drochtert
Matveinen The Design and Implementation of a Virtual Reality Toolkit
Varma Corona SDK