JP5658286B2 - 3次元仮想環境におけるオブジェクトの動きの制御方法 - Google Patents

3次元仮想環境におけるオブジェクトの動きの制御方法 Download PDF

Info

Publication number
JP5658286B2
JP5658286B2 JP2012554292A JP2012554292A JP5658286B2 JP 5658286 B2 JP5658286 B2 JP 5658286B2 JP 2012554292 A JP2012554292 A JP 2012554292A JP 2012554292 A JP2012554292 A JP 2012554292A JP 5658286 B2 JP5658286 B2 JP 5658286B2
Authority
JP
Japan
Prior art keywords
movement
region
motion control
pointer
virtual environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012554292A
Other languages
English (en)
Other versions
JP2013520736A (ja
Inventor
ボツク,セバスチヤン
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013520736A publication Critical patent/JP2013520736A/ja
Application granted granted Critical
Publication of JP5658286B2 publication Critical patent/JP5658286B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Description

本発明は、請求項1のプリアンブルに記載されている3次元仮想環境におけるオブジェクトの動きを制御する方法と、請求項5のプリアンブルに記載されているシステムとに関する。
現在、オブジェクトを3次元仮想環境において正確に滑らかに直感的に動かすためには、HIDとも称され仮想現実のために特別に作成されたヒューマンインタフェースデバイスと、アナログ入力デバイス上で2つの自由度をそれぞれの手が制御する人間の2つの手の協調との両方またはいずれか一方が要求される。
3次元仮想環境におけるオブジェクトの動き制御のために用いられ、2つのアナログジョイスティックを備え広く知られているコンソールパッドが、古典的な家庭用ゲームシステムにおいて実現された解決策である。それぞれのアナログジョイスティックは、それぞれ2つの自由度を可能にしている。対話方式は、ターゲットアプリケーションのユーザビリティ要件に左右されるが、3次元仮想世界におけるアバタのための典型的な制御方式は、一方の(通常は左側の)ジョイスティックがアバタの直線運動を制御し、他方の(通常は右側の)ジョイスティックがカメラアングルの動きを制御するというものである。
任天堂のWiiが備えているような更なる混乱を誘う制御デバイスでも、3次元世界における動きをキャプチャするのに両手の協調が要求されるのであって、ヌンチャクに設けられたアナログスティックを介して2つの自由度を一方の手で制御し、他方の手でWiiのリモコンを傾斜させることにより更に2つの自由度を制御することになる。
また、2004年12月23日に公開され出願公開番号が第2004/0260507号である米国特許出願公開には角速度および直線速度を測定するための専用センサハードウェアが開示されており、他方で、専門家向けの仮想現実VRシステムで用いられているより高度なトラッキング技術では高い忠実度で6つの自由度すべてがキャプチャされるのであるが、高価で複雑な専用機器が用いられる。
また、2009年8月20日に公開され出願公開番号が第2009/0209343号である米国特許出願公開には、手および身体の動きをセカンドライフにおけるアバタの動きに変換することによって動作するカメラシステムが開示されている。すこし前方にチップするとアバタが歩き、より速くチップするとアバタが走り、速くチップしすぎるとアバタが転倒する。
3次元仮想環境におけるオブジェクトの動きを制御する上述のシステムは、それぞれが、そのような動きを制御するのに比較的複雑なシステムを要する点で短所を有する。なお、ここで複雑というのは要求されるシステム内部についていえることであり、すなわち、人の動作を分析するためのカメラ設定および処理環境や、3次元世界におけるオブジェクトの動きを制御するのに要求される身体協調のレベルのことである。
米国特許出願公開第2004/0260507号明細書 米国特許出願公開第2009/0209343号明細書
本発明の目的は、上述の知られているタイプの3次元仮想環境におけるオブジェクトの動き制御方法を提供することであるが、本発明ではそのような3次元仮想環境においてオブジェクトを制御するシステムの複雑性が軽減されている。
本発明によれば、この目的は、請求項1に記載された方法と、請求項5に記載されたシステムと、請求項7に記載されたオブジェクト動き制御モジュールと、請求項9に記載された関連するクライアントデバイスと、請求項10に記載された関連するヒューマンインタフェースデバイスとによって達成される。
実際には、2次元表面におけるポインタの初期位置を検出することによって2次元表面における始点をまず決定し、決定されたこの始点に基づいて、始点を包囲する2次元表面における第1の領域を配分し、前記第1の領域を包囲する2次元表面における第2の領域を配分し、今度は第2の領域を包囲する表面における第3の領域を配分し、更に、表面におけるポインタの連続的な動きに基づいてオブジェクト動き制御関数をそれぞれの配分された領域に割り当て、オブジェクト動き制御関数は動きが検出された領域と関連するようにすることによって、オブジェクト動き制御命令が生成される。
第2の配分された領域は第1の配分された領域を含まないように配分された領域であり、第3の配分された領域は第1および第2の配分された領域を含まないように配分された領域である。
本発明の追加的な効果としては、片手による操作だけしか要求されず、市販されているハードウェア(たとえば、タッチ感応表面など)を用いて容易に実装可能なソリューションであって、自由度3が与えられ、3次元環境においてオブジェクトの角速度および直線速度の制御が可能になるという、ごく普通のゲーム愛好家にとって十分であり、または直感的な仕方で3次元仮想環境をナビゲートするのに十分な効果がある。
本発明の別の特徴的な特色が、請求項2、請求項6および請求項8に記載されている。
ポインタの動きが第1の配分された領域の内部で生じる場合には、オブジェクト動き制御関数は、3次元仮想環境におけるオブジェクトの動きが生じないことを示す。ポインタの動きが第2の領域の内部で検出される場合には、オブジェクト動き制御関数は、3次元仮想環境におけるオブジェクトの動きとしては角運動だけが含まれる/指示されることを示す。なお、この場合に、角速度はポインタの動きから導かれる。あるいは、ポインタの動きが第3の領域の内部で検出される場合には、オブジェクト動き制御関数は、3次元仮想環境におけるオブジェクトの動きは回転および直線運動が含まれる/指示されることを示す。なお、この場合に、角速度および直線速度はポインタの動きから導かれる。
特許請求の範囲において用いられる「備える、含む」(comprising)という用語はその用語に続いて列挙される手段に限定されるように解釈されるべきではないことに注意してほしい。したがって、「手段Aと手段Bとを備えている装置」という表現の範囲は、コンポーネントAおよびBだけから構成される装置に限定されるべきではない。この表現は、本発明に関し当該装置において意味のあるコンポーネントはAおよびBだけであることを意味する。
同様に、特許請求の範囲において「結合された」(coupled)という用語が用いられているが、この用語は直接的な接続だけに限定されると解釈されるべきではないことにも注意してほしい。したがって、「装置Bに結合された装置A」という表現の範囲は、装置Aの出力が装置Bの入力に直接的に接続されている装置やシステムに限定されるべきではない。この表現は、Aの出力とBの入力との間に経路が存在していて、この経路は他の装置や手段を含む経路でありうることを意味する。
実施形態に関する以下の説明を添付の図面と共に参照することによって、本発明の上述したおよびそれ以外の目的並びに特徴がより明らかになり、本発明それ自体が最もよく理解されるはずである。添付の図面は以下の通りである。
3次元仮想環境におけるオブジェクトの動きをデバイスと結合ネットワークを用いて制御する本発明の実施形態が実現されているシステムを表す図である。 本発明による3次元仮想環境におけるオブジェクトの動き制御システムにおいて用いられるオブジェクト動き制御モジュールの機能構造を表す図である。 始点と、第1、第2および第3の領域とが配分される2次元表面を表す図である。 始点と、第1、第2および第3の配分された領域とに対する関係で2次元表面におけるポインタの動きを表す図である。
以下に続く段落では、図面を参照しながら、本発明による3次元仮想環境におけるオブジェクトの動きを制御するシステムの実装と関連の装置とについての説明がなされる。この説明の第1の段落では、このネットワークの主要な構成要素について、対応する図面である図1および図2に示されているその機能部分と共に、説明がなされる。第2の段落では、それまでに言及されたネットワーク構成要素と説明された機能部分との間のすべての接続が定義される。それ以降の段落では、3次元仮想環境におけるオブジェクトの動きを制御するシステムの実際の実行についての説明がなされる。
図1に示されている本発明のこの実施形態の本質的な構成要素は、セカンドライフセカンドライフ、ワンダーランド、オープンクロック、ソリプシス、または任意のそれ以外の3次元仮想環境/世界などの3次元仮想環境3DVEを配置するアプリケーションサーバ3D−ASである。簡潔とするためにアプリケーションサーバ3D−ASがただ1つだけ示されているが、通常はそのようなアプリケーションサーバが複数個存在する。更に、3次元仮想環境にアクセスするためのクライアントデバイスCLDが存在し、ここで、クライアントデバイスCLDはパーソナルコンピュータ、パーソナルデジタルアシスタントなどのモバイルPC、または携帯電話その他であるのが通常であり、クライアントデバイスCLDはDSL、ケーブル、WiFiまたはそれ以外などを経由してのインターネットアクセスを有する。また、クライアントデバイスCLDは、セカンドライフなどの3次元仮想環境3DVEにアクセスするためのクライアントアプリケーションを実行するのが通常である。
そのような3次元仮想環境3DVEにおけるユーザアバタなどのオブジェクトの動きを制御するためにヒューマンインタフェースデバイスHIDが存在し、本発明ではタッチスクリーンを有するモバイル通信デバイスであるが、それとは異なり、ラップトップコンピュータのタッチパッドや、クライアントデバイスCLDを制御するのに用いられるマウスでもかまわない。本発明において開示されている対話機構はヒューマンインタフェースデバイスHIDにおける3次元環境のレンダリングを要しないし、エンドユーザとヒューマンインタフェースデバイスHIDとの間での直接的なアイコンタクトも要しないということに注意するのが重要である。
ヒューマンインタフェースデバイスHIDは、有線または無線接続を介してクライアントデバイスCLDに結合されうる。有線接続は、USB、ファイアワイア、シリアルポート、イーサネット(登録商標)、光ファイバ、または任意のそれ以外の接続でありうる。無線接続技術としては、wifi、wimax、ブルートゥース、赤外線、3G、LTE、または任意のそれ以外の接続が含まれる。クライアントデバイスCLDは、インターネット接続を介して、または、イントラネット、ブルートゥース、wifi、wimax、3Gネットワークなどの任意のそれ以外の適切な接続を介して、直接的にまたはアクセスネットワークを介して結合されるなど間接的に、アプリケーションサーバ3D−ASに結合されうる。
更に、クライアントデバイスCLDまたはアプリケーションサーバ3D−ASは、HIDからの入力データを3次元世界の中でのオブジェクトの意図する動きに変換するオブジェクト動き制御モジュールOMCMを含みうる。あるいは、オブジェクト動き制御モジュールOMCMの機能を、クライアントデバイスCLD、アプリケーションサーバ3D−ASおよび任意のそれ以外の中間デバイスの間に配分することも可能である。
オブジェクト動き制御モジュールOMCMは、2次元表面における始点を当該2次元表面におけるポインタの位置を検出することによって決定することができる初期ポインタ検出部IPDPを第1に含む。ただし、ここで、2次元表面は、ラップトップコンピュータデバイスのタッチパッドや、PDAのタッチ感応スクリーンである。あるいは、2次元表面としての机やそれ以外の表面の上を移動するヒューマンインタフェースデバイスHIDとしてマウスを用いる場合には、マウスのボタンを押下することにより、対話の始点が指示される。
更に、決定された始点に基づいて、表面の上で始点を包囲する第1の(円形の)領域と、表面の上で第1の領域を包囲する第2の(円形の)領域と、表面の上で第2の領域を包囲する第3の(円形の)領域とを配分するように構成されているゾーン配分部ZAPと、ポインタの動きに基づいて、また、前記動きが生じる配分された領域のそれぞれと関連するオブジェクト動き制御関数に追加的に基づいて、オブジェクト動き制御命令を生成することができるオブジェクト動き制御命令生成部IGPとが存在する。
図3aおよび3bにおいて配分された領域I、IIおよびIIIは円形のものとして与えられているが、これらの領域はそれぞれが代わりに三角形や矩形や任意のそれ以外の適切な形状を有することが可能であることに注意すべきである。この実施形態では、これらの配分された領域は、代わりにそれ以外の適切な形状を選択することができるが、円形であるものと想定する。
この方法およびシステムにおいて意図されているオブジェクト動き制御関数は、次を意味する。
1.ポインタの動きが第1の(円形の)領域の内部で検出される場合には、3次元仮想環境におけるオブジェクトの動きは存在しないこと、
2.ポインタの動きが第2の(円形の)領域の内部で決定される/検出される場合には、3次元仮想環境におけるオブジェクトの動きは角運動であり、オブジェクトの動きの角速度はポインタの動きから導かれること、または
3.ポインタの動きが第3の領域の内部で検出される場合には、3次元仮想環境におけるオブジェクトの動きは回転および直線運動であり、動きの直線および回転速度はポインタの動きから導かれること。
オブジェクト動き制御モジュールOMCMは入力端子Iを有する。同時に、この入力端子Iは、ゾーン配分部ZAPに結合されている初期ポインタ検出部IPDPの入力端子でもある。ゾーン配分部ZAPは、更に、オブジェクト動き制御命令生成部IGPに結合されている。オブジェクト動き制御命令生成部IGPは、同時にオブジェクト動き制御モジュールOMCMの出力端子でもある出力端子を有する。
本発明の実行を説明するため、ユーザは、セカンドライフまたはワンダーランドのような3次元仮想環境3DVEをブラウズし、自分のヒューマンインタフェースデバイスHID、たとえばPDAのタッチ感応表面や、更にはたとえばパーソナルコンピュータである自分のクライアントデバイスCLDに結合されたタッチスクリーンや、ゲーム機や、スクリーンを備えたパブリック端末を用い、3次元仮想環境3DVEをブラウズするためのクライアントアプリケーションを用いると想定する。
ユーザはセカンドライフのブラウズを開始し自分のアバタを用いてセカンドライフの中をさまようことを希望すると想定する。セカンドライフにおいてアバタの動きを制御するため、ユーザは、意図している対話に応じて、手の指またはポインティングデバイスを用いて、タッチ感応表面のある位置をタッチし始める。初期ポインタ検出部IPDPは、2次元表面すなわちタッチスクリーンにおけるポインタの初期位置を検出することによって、最初のタッチに基づいて2次元表面における始点を決定する。この決定された始点に基づき、ゾーン配分部ZAPは、タッチスクリーン表面の上で始点を包囲する第1の領域と、タッチスクリーン表面の上で第1の領域を包囲する第2の領域と、タッチスクリーン表面の上で第2の領域を包囲するaとを配分する。
これらの領域はそれぞれが円形、三角形若しくは矩形であるかまたは任意のそれ以外の適切な形状を有することが可能であることに注意すべきである。この実施形態では、これらの領域は、他の適切な形状を代わりに選択することができるけれども、円形であると想定される。
これらの3つの上述した配分された感応領域の位置はタッチ感応領域の上の位置から導かれるのであるが、ポインタすなわち指がタッチ感応表面の上に最初におかれ、これらの配分された感応領域は、ポインタすなわち指が表面の上をドラッグされる限り同じ位置に留まる。
これは必須ではないが電池の寿命を節約するために通常のタッチスクリーンにおけるようにグラフィクスを表示することができる場合には、これらの配分された領域すなわちこの実施形態では円によって限界が画定された領域は、タッチ感応表面における視覚的フィードバックとして現れうる。
更に、タッチ感応表面における指またはポインティングデバイスの動きはトラッキングされ、オブジェクト動き制御命令生成部IGPが、この動きとこの動きが生じる領域に関連するオブジェクト動き制御関数とに基づいて、オブジェクト動き制御命令を生成する。
ユーザの指またはポインティングデバイスが第1の(円形の)領域の内部を動く場合には、オブジェクト動き制御命令生成部IGPによってどのようなオブジェクト動き制御命令も生成されない。ユーザの指またはポインティングデバイスが第1の(内部の)領域の外にスライドした後で再び第1の領域の中に戻る場合、または、タッチ感応表面との接触を失う(たとえば、指を持ち上げる)場合には、オブジェクト動き制御命令がIGPによって生成され、オブジェクトの動きが停止される。
このオブジェクト動き制御命令生成部IGPは、3次元仮想環境3DVEに、オブジェクトの動きがまったく存在しないように命令するオブジェクト動き制御命令を生成する。
その後でユーザの指またはポインティングデバイスが第1の領域から第2の円領域の内部へ移動された場合には、3次元仮想環境におけるオブジェクトの動きは、この領域と関連するオブジェクト動き制御関数によると、角運動である。第2の領域(第1の領域の外部であり第3の領域の外部)と関連するオブジェクト動き制御関数は、角運動のみが3次元仮想環境3DVEのオブジェクトに強制されるということであり、正規化された角速度は、ΔΘの振幅と符号との変動から導かれる。ここで、ΔΘは、第1の領域の外部にある指の現在の位置と、円の中心と、ドラッグされた指が第1の円の境界を最初に横切った点とによって形成される角度である(図3aを参照のこと)。ΔΘの振幅が増大すると、角速度が増加する。ΔΘの振幅が縮小すると、角速度が低下する。ΔΘの符号が変化すると、角回転の向きが変化する。
この後で、ユーザは、自分の指またはポインティングデバイスを第2の領域の外から第3の領域の中へドラッグすることがある。第3の領域は、最も外側にある「回転および直線運動感応領域」と称されることもある。
オブジェクト動き制御命令生成部IGPは、次に、第3の領域における動きとこの第3の領域に関連するオブジェクト動き制御関数とに基づいて、追加的な直線オブジェクト動き制御命令を生成する。なお、このオブジェクト動き制御関数は、ポインティングデバイスが最も内側の円を離れたときに導かれた回転運動に加え、正規化された直線運動成分を必然的に伴う。指が第2の円の外部へドラッグされると、オブジェクトの現在の向きに対する直線運動の方向が、方向v(図3bを参照のこと)から導かれる。ここでvは、円の中心から指が第1の円を最初に離れた点までのベクトルである。この相対的方向は、ポインティングデバイスが表面の上を第1の円の外部にドラッグされる限り、固定されている。この相対的方向は、指が表面の上でそれ以上ドラッグされない場合、または、第1の円の内部に戻る場合に、リセットされる。第2の領域(円)の外部では、正規化された速度が、指が現在ドラッグされている点と第2の円との間の距離を表す線分ΔRの長さの変動から導かれる。指が中心から離れる方向にドラッグされればされるほど、アバタはそれだけますます速く動く。指が第2の円に近づく方向にドラッグされればされるほど、アバタはそれだけますますゆっくりと動く。指がドラッグされて第2の円の内部に戻る場合には、オブジェクト動き制御関数は、直線運動を停止するように命令する。
たとえば、指が第3の領域の中にドラッグされると:
− ベクトルvが北方向を向いていてΔR>0およびΔΘ=0であると、前方向に歩いているアバタに対応する。
− ベクトルvが北方向を向いていてΔR>0およびΔΘ>0であると、前方向に歩きながら同時に左向きに回転するアバタに対応する。
− ベクトルvが北方向を向いていてΔR>0およびΔΘ<0であると、前方向に歩きながら同時に右向きに回転するアバタに対応する。
− ベクトルvが東方向を向いていてΔR>0およびΔΘ=0であると、右方向に銃撃するアバタに対応する。
オブジェクト動き制御関数によって生成される正規化された動きの感度は、ユーザのユーザビリティの要求に適合するようにユーザインタフェースを介して構成することが可能であり、生成された関連データは、3次元アプリケーションに特有のCLDインタフェースによって受け入れられる特定のデータ表現とプロトコルとに適合させることが可能である。
ヒューマンインタフェースデバイスHIDの追加的なボタンは、3次元仮想環境3DVEの中の地上面から、たとえばジャンプまたは飛び上がるオブジェクトの動きを強制するのに割り当てることができる。
最終的な注意は、以上の記載では本発明の実施形態が機能ブロックに関して説明されているということである。以上でなされたようなこれらのブロックの機能的な記載から、電子デバイスを設計する技術分野の当業者には、これらのブロックの実施形態が広く知られている電子コンポーネントを用いてどのように製造することができるかが明らかであろう。したがって、機能ブロックの内容の詳細なアーキテクチャは、与えられていない。
本発明の原理を特定の装置との関係において以上で説明したが、ここでの説明は単に実施例によってなされたものであり、添付の特許請求の範囲において定義される本発明の範囲に対する限定としてなされたものではないことは明確に理解されるであろう。

Claims (10)

  1. 3次元仮想環境をブラウズしているユーザのヒューマンインタフェースデバイス(HID)により前記3次元仮想環境におけるオブジェクトの動きを制御する方法であって、前記ヒューマンインタフェースデバイス(HID)は前記3次元仮想環境にアクセスするためのクライアントデバイス(CLD)に結合されており、前記3次元仮想環境は少なくとも1つのアプリケーションサーバ(3D−AS)に配置されており、前記クライアントデバイス(CLD)と前記少なくとも1つのアプリケーションサーバ(3D−AS)とは通信リンクを介して結合されている、方法において、
    a.2次元表面における始点を、前記2次元表面におけるポインタの位置を検出することによって決定するステップと、
    b.前記始点に基づき、前記始点を包囲する前記表面における第1の領域(I)と、前記第1の領域を包囲する前記表面における第2の領域(II)と、前記第2の領域を包囲する前記表面における第3の領域(III)とを配分するステップとを含み、前記第1の領域は第1の動き制御関数と関連し、前記第2の領域は第2の動き制御関数と関連し、前記第3の領域は第3の動き制御関数と関連し、
    c.前記第1の領域、前記第2の領域及び前記第3の領域の少なくとも1つの内部での前記ポインタの検出された動きと、それらに関連する第1のオブジェクト動き制御関数又は、第2のオブジェクト動き制御関数又は、第3のオブジェクト動き制御関数の少なくともそれぞれとに基づいて、少なくともオブジェクト動き制御命令を生成するステップと
    を含むことを特徴とする、方法。
  2. 前記方法における前記オブジェクト動き制御関数が、
    d1.前記ポインタの前記動きが前記第1の領域(I)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの動きは存在せず、
    d2.前記ポインタの前記動きが前記第2の領域(II)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの前記動きは角運動だけであり、前記角速度は前記ポインタの前記動きから導かれ、
    d3.前記ポインタの前記動きが前記第3の領域(III)の部で検出される場合には、前記3次元仮想環境における前記オブジェクトの前記動きは回転および/または直線運動であり、前記回転および/または直線運動の速度は前記ポインタの前記動きから導かれることを特徴とする、請求項1に記載の3次元仮想環境におけるオブジェクトの動き制御する方法。
  3. 前記ヒューマンインタフェースデバイス(HID)がタッチ感応表面を有するクライアントデバイスであり、2次元表面で前記始点を決定する前記ステップが前記タッチ感応表面の前記2次元表面で前記ポインタの位置を検出するステップであることを特徴とする、請求項1または請求項2に記載の3次元仮想環境におけるオブジェクトの動き制御する方法。
  4. 前記ヒューマンインタフェースデバイス(HID)がコンピュータマウスであり、2次元表面で前記始点を決定する前記ステップがマウスボタンのクリックにより2次元表面において動く前記マウスの最初の始点を検出するステップであることを特徴とする、請求項1または請求項2に記載の3次元仮想環境におけるオブジェクトの動き制御する方法。
  5. 前記3次元仮想環境アプリケーションにおけるオブジェクトの動きを制御するシステムであって、前記3次元仮想環境をブラウズしているユーザの、前記オブジェクトの前記動きを制御するためのヒューマンインタフェースデバイス(HID)を備え、前記3次元仮想環境アプリケーションを配置するための少なくとも1つのアプリケーションサーバ(3D−AS)を更に備えているシステムにおいて、
    a.2次元表面における始点を前記2次元表面におけるポインタの位置を検出することによって決定するように構成された始点検出部(IPDP)と、
    b.決定された前記始点に基づき、前記始点を包囲する前記表面における第1の領域(I)と、前記第1の領域(I)を包囲する前記表面における第2の領域(II)と、前記第2の領域(II)を包囲する前記表面における第3の領域(III)とを配分するように構成されたゾーン配分部(ZAP)とを備え、前記第1の領域は第1の動き制御関数と関連し、前記第2の領域は第2の動き制御関数と関連し、前記第3の領域は第3の動き制御関数と関連し、
    c.前記第1の領域、前記第2の領域及び前記第3の領域の少なくとも1つの内部での前記ポインタの検出された動きと、それらに関連する第1のオブジェクト動き制御関数又は、第2のオブジェクト動き制御関数又は、第3のオブジェクト動き制御関数の少なくともそれぞれとに基づいて、少なくともオブジェクト動き制御命令を生成するように構成されたオブジェクト動き制御命令生成部(IGP)と
    を備えていることを特徴とする、システム。
  6. 前記システムにおける前記オブジェクト動き制御関数が、
    d1.前記ポインタの前記動きが前記第1の領域(I)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの動きは存在せず、
    d2.前記ポインタの前記動きが前記第2の領域(II)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの前記動きは角運動だけであり、前記角運動は前記ポインタの前記動きから導かれ、
    d3.前記ポインタの前記動きが前記第3の領域(III)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの前記動きは回転および/または直線速度であり、前記回転および/または直線速度は前記ポインタの前記動きから導かれることを特徴とする、請求項5に記載の3次元仮想環境におけるオブジェクトの動き制御するシステム。
  7. a.2次元表面における始点を前記2次元表面におけるポインタの位置を検出することによって決定するように構成された始点検出部(IPDP)と、
    b.決定された前記始点に基づき、前記始点を包囲する前記表面における第1の領域(I)と、前記第1の領域(I)を包囲する前記表面における第2の領域(II)と、前記第2の領域(II)を包囲する前記表面における第3の領域(III)とを配分するように構成されたゾーン配分部(ZAP)とを備え、前記第1の領域は第1の動き制御関数と関連し、前記第2の領域は第2の動き制御関数と関連し、前記第3の領域は第3の動き制御関数と関連し、
    c.前記第1の領域、前記第2の領域及び前記第3の領域の少なくとも1つの内部での前記ポインタの検出された動きと、それらに関連する第1のオブジェクト動き制御関数又は、第2のオブジェクト動き制御関数又は、第3のオブジェクト動き制御関数の少なくともそれぞれとに基づいて、少なくともオブジェクト動き制御命令を生成するように構成されたオブジェクト動き制御命令生成部(IGP)と
    を備えることを特徴とする、請求項5または請求項6に記載のシステムにおいて用いられる、オブジェクト動き制御モジュール(OMCM)。
  8. 前記システムにおける前記オブジェクト動き制御関数が、
    d1.前記ポインタの前記動きが前記第1の領域(I)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの動きは存在せず、
    d2.前記ポインタの前記動きが前記第2の領域(II)の内部で検出される場合には、前記3次元仮想環境における前記オブジェクトの前記動きは角運動だけであり、前記角運動は前記ポインタの前記動きから導かれ、
    d3.前記ポインタの前記動きが前記第3の領域(III)の内部で決定/検出される場合には、前記3次元仮想環境における前記オブジェクトの前記動きは回転および/または直線運動であり、前記回転および直線速度は前記ポインタの前記動きから導かれることを特徴とする、請求項7に記載のオブジェクト動き制御モジュール(OMCM)。
  9. 請求項5または請求項6に記載のシステムにおいて用いられ、請求項7または請求項8に記載のオブジェクト動き制御モジュールを含むことを特徴とする、クライアントデバイス(CLD)。
  10. 請求項5または請求項6に記載のシステムにおいて用いられ、請求項または請求項に記載のオブジェクト動き制御モジュールを含むことを特徴とする、ヒューマンインタフェースデバイス(HID)。
JP2012554292A 2010-02-26 2011-02-16 3次元仮想環境におけるオブジェクトの動きの制御方法 Expired - Fee Related JP5658286B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305200.7A EP2362302B1 (en) 2010-02-26 2010-02-26 Method for controlling motions of an object in a 3-dimensional virtual environment
EP10305200.7 2010-02-26
PCT/EP2011/052287 WO2011104154A1 (en) 2010-02-26 2011-02-16 Method for controlling motions of an object in a 3-dimensional virtual environment

Publications (2)

Publication Number Publication Date
JP2013520736A JP2013520736A (ja) 2013-06-06
JP5658286B2 true JP5658286B2 (ja) 2015-01-21

Family

ID=42342677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012554292A Expired - Fee Related JP5658286B2 (ja) 2010-02-26 2011-02-16 3次元仮想環境におけるオブジェクトの動きの制御方法

Country Status (6)

Country Link
US (1) US8907946B2 (ja)
EP (1) EP2362302B1 (ja)
JP (1) JP5658286B2 (ja)
KR (1) KR101513343B1 (ja)
CN (1) CN102770836B (ja)
WO (1) WO2011104154A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102664988B (zh) * 2012-03-23 2014-02-19 中国科学院软件研究所 一种基于智能手机的三维交互方法及系统
US11181938B2 (en) * 2012-08-31 2021-11-23 Blue Goji Llc Full body movement control of dual joystick operated devices
CN103823705A (zh) * 2013-11-08 2014-05-28 广州菲动软件科技有限公司 虚拟角色转向控制方法及其系统
JP6793255B2 (ja) * 2017-03-20 2020-12-02 グーグル エルエルシー 仮想現実における保持オブジェクトの安定化

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
KR100543701B1 (ko) 2003-06-17 2006-01-20 삼성전자주식회사 공간형 입력 장치 및 방법
JP4819467B2 (ja) * 2005-10-04 2011-11-24 任天堂株式会社 オブジェクト移動制御プログラムおよび情報処理装置
KR100791287B1 (ko) * 2005-10-26 2008-01-04 삼성전자주식회사 그래픽 객체의 3차원 동작을 제어하는 장치 및 방법
US8698735B2 (en) * 2006-09-15 2014-04-15 Lucasfilm Entertainment Company Ltd. Constrained virtual camera control
WO2008095137A2 (en) * 2007-01-31 2008-08-07 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
JP4933381B2 (ja) 2007-08-23 2012-05-16 株式会社コナミデジタルエンタテインメント ネットワークゲームシステム、ネットワークゲームシステムの制御方法、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5252879B2 (ja) * 2007-10-25 2013-07-31 株式会社カプコン 操作制御装置、及び、この操作制御装置を実現するためのプログラム
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device

Also Published As

Publication number Publication date
KR20120137390A (ko) 2012-12-20
JP2013520736A (ja) 2013-06-06
KR101513343B1 (ko) 2015-04-17
CN102770836A (zh) 2012-11-07
WO2011104154A1 (en) 2011-09-01
US20120313935A1 (en) 2012-12-13
CN102770836B (zh) 2015-04-15
US8907946B2 (en) 2014-12-09
EP2362302B1 (en) 2018-06-06
EP2362302A1 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
US11221730B2 (en) Input device for VR/AR applications
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
US8050891B2 (en) Sensor mapping
TW202105133A (zh) 在人工實境環境中使用周邊裝置的虛擬使用者介面
US20200310561A1 (en) Input device for use in 2d and 3d environments
US9007299B2 (en) Motion control used as controlling device
US20080010616A1 (en) Spherical coordinates cursor, mouse, and method
WO2016097841A2 (en) Methods and apparatus for high intuitive human-computer interface and human centric wearable "hyper" user interface that could be cross-platform / cross-device and possibly with local feel-able/tangible feedback
EP2538309A2 (en) Remote control with motion sensitive devices
EP3639120A1 (en) Displacement oriented interaction in computer-mediated reality
CN104220962A (zh) 利用触摸手势的手势仿真的设备的命令
WO2012030958A1 (en) Methods and apparatus for improved motion capture
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
CN105807915A (zh) 虚拟鼠标的控制方法、控制装置以及头戴显示设备
JP2000511673A (ja) 複合カーソルを有するユーザインタフェース
JP5658286B2 (ja) 3次元仮想環境におけるオブジェクトの動きの制御方法
Pietroszek Raycasting in Virtual Reality.
CN108553892A (zh) 虚拟对象控制方法、装置、存储介质及电子设备
JP2023515525A (ja) ウェアラブルシステムのための手のジェスチャ入力
EP2538308A2 (en) Motion-based control of a controllled device
CN113467625A (zh) 虚拟现实的控制设备、头盔和交互方法
Chen et al. An integrated framework for universal motion control
WO2014014461A1 (en) System and method for controlling an external system using a remote device with a depth sensor
US11983326B2 (en) Hand gesture input for wearable system
Sokolowski et al. A Contextual Semantic Interaction Interface for Virtual Reality Environments

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140410

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141127

R150 Certificate of patent or registration of utility model

Ref document number: 5658286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees