JP2001504605A - 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム - Google Patents

空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム

Info

Publication number
JP2001504605A
JP2001504605A JP50962998A JP50962998A JP2001504605A JP 2001504605 A JP2001504605 A JP 2001504605A JP 50962998 A JP50962998 A JP 50962998A JP 50962998 A JP50962998 A JP 50962998A JP 2001504605 A JP2001504605 A JP 2001504605A
Authority
JP
Japan
Prior art keywords
user
reference direction
sensor
movement
segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP50962998A
Other languages
English (en)
Inventor
ラティポフ,ヌラフメド,ヌリスラモビチ
ラティポフ,ヌルラ,ヌリスラモビチ
Original Assignee
ラティポフ,ヌラフメド,ヌリスラモビチ
ラティポフ,ヌルラ,ヌリスラモビチ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from RU96116414A external-priority patent/RU2107328C1/ru
Priority claimed from RU96116415A external-priority patent/RU2106695C1/ru
Application filed by ラティポフ,ヌラフメド,ヌリスラモビチ, ラティポフ,ヌルラ,ヌリスラモビチ filed Critical ラティポフ,ヌラフメド,ヌリスラモビチ
Publication of JP2001504605A publication Critical patent/JP2001504605A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0247Determining attitude
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8005Athletics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)

Abstract

(57)【要約】 本発明は、主体の3次元位置及び方向性を決定し、仮想空間をイメージングするための方法及びシステムに関する。本発明は、インタラクティブコンピュータゲーム、治療用トレーニングシステムならびにスポーツ又は軍事用トレーニングにおいて使用することができる。本発明は、主体の3次元位置及び方向性を監視する際の精度及び速さを増大させ、この主体による容易かつ自然な動きを提供し、実空間内での主体の動きに従って変動する仮想空間を提供するのに使用することができる、主体の移動発動装置内のセグメント(2)の角位置を監視するために、センサ(4)が用いられ、ここでこれらのセンサは、セグメント(2)の接続部及び直接これらのセグメント(2)のいくつかの上に位置設定される。しかしながら、これらのセグメント(2)のうちの1つはその上にはめ込まれた形で、基準方向ならびにこれらの方向との関係における一定の与えられたセグメントの方向性を決定するためのベースシステム(5)を有している。センサ(4),基準方向決定システム(5)及び仮想空間内のオブジェクトと主体の間のインタラクションのためのオプションの装置は全て、主体全般の位置と方向性を計算するために処理される情報を出力する。この計算は、セグメント間の角度の具体的な値、ならびに基準方向との関係における主セグメントの方向性に基づいており、ここでこの主セグメントは基準方向決定システムを支持している。かくして得られたデータは、主体の動きのリアルタイムイメージングのため、又は、実空間内の変位に従って変動する主体の視野に対応する仮想空間を主体に提示するために使用することができる。

Description

【発明の詳細な説明】 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対 し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム 発明の分野 本発明は、空間内のユーザの位置及び方向性を決定するためのシステムに関し 、インタラクティブコンピュータゲーム及びスポーツ又は軍事用のトレーニング システムに応用可能である。本発明は、健康改善のため、子供及び大人によるス ポーツゲーム及びダンスの練習及び方法を正しく実施することを教授し実践させ る上で利用できるものである。 発明の背景 動作中の人体の位置を追跡し表示するための従来のシステムは、関節の回転角 度を測定し、例えば体との関係における手の、又は手との関係における指先の最 終的位置を決定するべく設計されたゴニオメータとして知られている、頭及び身 体の部分の位置の追跡用の機械的手段を利用する。 従来のシステムに付随する問題点は、ゴニオメータの回転の中心が関節の回転 中心と一致できないために、特に複数の自由度をもつ例えば手の関節といった関 節との関係においてゴニオメータを位置づけすることが困難であるということに ある。人間の関節は、理想的なヒンジ継手ではない。つまり回転軸は、関節の回 転角度の変化を変位させる。精度を改善するためには、適切な較正が利用されな くてはならない。 「仮想現実技術」1994年、John Wiley & Sons,Inc.,p17〜25という 題の参考文献の中でBurdea G.,Goiffer P.が記述しているのは、空間内のユー ザの位置及び方向性を追跡し表示する磁気システムである。このシステムには、 Polhemiusの動作捕捉サーバー及びAsention Technology CorpのFlock of birds が含まれており、これらには、測定された運動パラメータを処理するための複数 の回路ボード、コントローラ、外部タイミング回路ボード、通信回路ボード、キ ーボード及びモニタ、3つの電磁コイルを内含する送信機及び送信機が発する磁 界を検出するための小型三ツ組電磁コイルも各々有している複数の受信機が含ま れている。 このようなシステムは、範囲が小さく、その精度は、送信機と受信機との間の 距離の関数である。交流磁界を伴うシステムにおいては、金属異物の存在は、う ず電流が誘導されることに起因して精度を損なう。直流磁界を伴うシステムは、 金属異物の存在に対する感応性が低いが、磁気抵抗効果は、送信機により生成さ れる磁界と干渉する可能性がある。 これらのシステムはまた、アナログ信号を樹立する上での時間的遅延によって ひき起こされる不充分な速度、及びスクリーン上で画面の揺れを発生させる高い 雑音レベルという欠点をも有している。 もう1つの従来のシステムは、支持フレーム上に固定された3つの送信用電気 音響変換器のセットを内含する送信機と、ユーザの上例えば表示装置つきヘルメ ットの上に位置設定された支持フレーム上に固定された3つのマイクロホンから 成るセットを含む受信機と、検出された情報を処理するためのシステムと、ユー ザの合成画像を表示するためのシステムとを含んで成る、空間内のユーザの位置 及び方向性を追跡するための超音波システムである(同書p25〜28)。ユー ザは、三角測量の原理を用いて位置設定され、ユーザ の位置及び方向性を決定するのに9つの距離測定が必要とされる。このシステム は、システムの送信機と受信機との間に直接的視程を必要とする。多数の受信機 を追跡することが必要となると、ポーリング周波数は減少する。すなわち、動く 物体又はその一部分のリアルタイム表現を提供するのに必要とされる測定を行な う速度は低下する。 上述の従来のシステムは、送信機に結合された固定座標系との関係における可 動物体の絶対的位置及び方向性を測定する絶対運動パラメータセンサを含むシス テムに関するものである。 相対的動作パラメータセンサを含むシステムもまた存在する。これらのシステ ムのもつ長所は、その直接性及びコンパクト性である。かかるシステムの一例と しては、指の関節の回転角度の一部分又は全てを測定するためのセンサを含む仮 想現実潜入システムの中で用いられる「グローブ」を挙げることができる。かか るシステムにはさらに、ユーザの手首の動きを追跡するための絶対3次元運動及 び方向性センサ(3Dセンサ)も含まれている。例えば、VPLからの光学セン サを伴うデータグローブシステム(同書、p33〜37)は、軽量弾性グローブ 上に配置された光ファイバ及び3Dセンサを含んで成る。標準的構成には、基本 関節内の湾曲部を検知するべく各指の外部部分に取りつけられた一対のセンサが 内含されている。光ファイバは、オプトエレクトロニクスインタフェースに結合 される。センサは、関節内の湾曲がゼロである場合にファイバ内を伝播する光が 減衰されず、又逆に、湾曲部は、その量を変えて湾曲部回転角度の間接的測定を 可能にするような形で、設計されている。測定データは、較正定数及び適当な近 似方程式を用いて、角度値へと変換される。かかるシステムに付随する問題は、 開連鎖条件の下で累積した誤差によってひき起こされる精度の劣化及びそのコス トの高さにある。 1996年2月13日に公示された米国特許第5490784号、米国分類4 34−55,国際特許分類G09B9/00の中で記述されているのは、ユーザ が内部に位置設定される6つの自由度をもつ球形カプセルの形をした可動プラッ トフォームアセンブリ、球形プラットフォームの位置を検知するための手段及び 前記カプセルの内部に配置されたコンピュータを含んで成る、ユーザに対し仮想 現実を提示するためのシステムである。1つの送信機がプラットフォームの位置 情報を受信機に送り、受信機はそれ自体、受信した球形プラットフォームの角位 置データをプラットフォームの外部にあるホストコンピュータに適用する。ホス トコンピュータに提供されるのは、回転するプラットフォームの線形変位情報で ある。ヘルメットに取りつけられた表示装置は、受信されたプラットフォーム変 位情報に基づき、仮想現実画像を調整する。 しかしながら従来のシステムは、仮想環境シミュレーションの妥当性範囲が不 充分である一方で精巧な構造を有している。 1992年10月14日に公示された米国特許第5349517号、分類39 5−129,国際特許分類G06F15/20は、ユーザに対し実及び仮想環境 の複合画像を提示するためのシステムにおいて、ユーザに複合画像を提示するた めの仮想表示手段とユーザの視野の方向を指示する方向信号を生成するための方 向センサ手段と組合さった形でその視野を表わすビデオ信号シーケンスを生成す るためのビデオカメラ手段とビデオカメラ手段の視野がユーザの視野と実質的に 一致しその動きを追従するような形で、前記ビデオカメラ手段を取りつけるため のカメラ取付け用手段と複合画像に対応して適当なコンピュータ生成部分を生成 するための、前記方向信号に対する応答性をもつ画像生成手段と複合画像信号を 生成し前記視 覚表示手段に対しこの複合画像信号を適用するため、各々のビデオ信号を分析し ビデオ信号又はコンピュータ生成信号を選択するための画像選択及び組合せ手段 と、を含んで成るシステムについて記述している。 しかしながら、このシステムは、空間内のユーザの実際の位置及び方向性の変 化に応えてユーザに仮想環境画像を提示する可能性を提供することはできていな い。 発明の要約 本発明の目的は、ユーザの動きの適切なリアルタイム表示に必要とされる精度 及び速度の増大と同時に、製造及び運転コストの低減を確実に行なう、空間内の ユーザの位置及び方向性を追跡し表示するための方法及びシステムを提供するこ とにある。 本発明のもう1つの目的は、ユーザに対し、空間内で自然にかつ制約無く動き ユーザの動きを追跡する過程において仮想環境オブジェクトと相互作用する可能 性を提供することにある。 本発明のもう1つの目的は、実環境内でのユーザの動きの過程におけるその位 置及び方向の変化と完全に適合した形でユーザに仮想環境を提示する精度及び妥 当性を改善することにある。 上述の目的は、空間内のユーザの位置及び方向性を追跡し表示するための方法 において、 a)それぞれの接合部に隣接するセグメント間の少なくとも1つの角度を決定す るための手段を、ユーザの位置移動系のセグメントの基本接合部の各々に近傍に 取り付けるステップと、 b)ユーザの位置移動系セグメントのうちの少なくとも1つの上に基準方向決定 手段を位置設定するステップと、 c)前記基準方向が前記基準方向との関係において位置設定される 少なくとも1つのセグメントの方向性を決定するステップと、 d)前記基本接合部に隣接したセグメントの間の角度を決定するステップと、 e)決定された角度値及び前記基準方向決定手段がそこに位置設定される少なく とも1つのセグメントの方向性に基づいて、ユーザ全般の空間内の位置及び方向 性を決定するステップと、 を含む方法において達成される。ユーザの実際の動きに応えてユーザの空間内の 位置及び方向性の時間的変化を決定する関係づけされたデータシーケンスを得る ためには、前記(c)〜(e)の段階が予め定められた間隔で反復され、ユーザ の空間内の位置及び方向性について得られたデータは、その後の使用のために記 録される。 さらに、段階(e)は、ユーザの位置移動系セグメントの線形寸法の値を用い て達成され、さらに、 f)ユーザの位置移動系の単数又は複数のベアリングセグメントを決定するステ ップと、 g)表示された環境内のサポートとの関係における前記単数又は複数のベアリン グセグメントを位置づけするステップと、 を含む。 表示された環境内のユーザの位置及び方向性のデータシーケンスを獲得し記録 し、得られたデータに従ってユーザの動きを表示するため、予め定められた間隔 で前記(d)〜(g)のステップが反復される。 ユーザの動きはリアルタイムで表示されるか又は、記録されたデータに従って 必要に応じて後に表示される。 ユーザの動きは、好適には、必要な観察態様に応じて表示されるか、又はユー ザの動きについて得られた画像をさらに編集した後で表示される。基準方向は、 地球磁場センサの南北方向及び局所的垂 直センサの方向であるか、又は、ジャイロ安定化された基準方向センサによって 生成される方向であるか又は、南北及び東西方向であるか又は、外部基準方向供 給源により生成された方向である。 さらに、前記基準方向決定手段は好ましくは、少なくとも1対の離隔した絶対 座標センサであり、この対はユーザの位置移動系セグメントのうちの少なくとも 1つの上に配置されている。 ユーザの位置移動系セグメントの線形寸法を、ユーザの身長についてのデータ を用いて、人体の既知のプロポーションに基づいて規定することも同様に好まし く、ユーザの位置移動系セグメントの線形寸法は、表示された環境との関係にお けるユーザの寸法を適切に変更するように基準化され得る。 さらに、仮想環境オブジェクトとのユーザのインタラクションを提供するのに マニピュレータを使用する場合、このマニピュレータの位置は好適にはそれを保 持するユーザの手の位置に基づいて決定され、一方マニピュレータの正確な方向 性は、マニピュレータ上に配置された補足的基準方向決定手段を用いて決定され る。 ユーザの位置移動系セグメントの間の基本接合部は、好適には股関節、膝関節 、距腿関節、肩関節、肘関節、胸椎と腰椎との間の接合部さらには足関節及び指 関節の中から選択される。 前述の目的は、ユーザの身体部分上に配置された複数の運動パラメータセンサ 、所要の提示形式へとセンサ信号を変換するための変換手段、変換手段の出力端 に結合された入力端をもつ測定データ処理ユニット、及び測定データ処理ユニッ トに接続されたユーザの位置及び空間内方向性表示ユニットを備える、ユーザの 空間内位置及び方向性を追跡するためのシステムにおいて、本発明によるシステ ムは、ユーザの位置移動系セグメントのうちの少なくとも1つの上に配置された 基準方向決定手段と運動パラメータセンサ及び基準方 向決定手段に接続されたポールチャンネルをもち、その出力端が変換手段の入力 端に接続されているポーリングユニットと、 をさらに含み、運動パラメータセンサが、ユーザの位置移動系セグメントの間の 基本接合部のすぐ近傍、又はセグメントそのものの上に配置された相対的回転角 センサである追跡システムにおいても達成される。 位置及び方向性追跡用システムは、ポールチャンネルを通してポーリングユニ ットと接続されている補足的基準方向決定手段が上に配置されている、仮想環境 オブジェクトとユーザのインタラクションのための少なくとも1つの手段をさら に備える。 相対的回転角センサは、光ファイバセンサ又はひずみゲージである。 さらに、基準方向決定手段は、地球磁場センサ及び局所的垂直センサ、例えば 重力センサ又はジャイロ安定化基準方向センサ、あるいは人工的外部供給源基準 方向信号センサに基づいている。 そして最後に、位置及び方向性追跡用システムは好適には、ユーザの空間内の 位置及び方向性をその後表示するために変換済み測定データを記憶することを目 的としてデータ通信母線を通して測定データ処理ユニットに接続されている記憶 手段と、測定データ処理ユニットに接続され3次元環境の数学的シミュレーショ ン及びその中のユーザの数学的シミュレーションを構築するようオプションのデ ータを入力するための手段及び測定データ処理ユニットの出力端とユーザの空間 的位置及び方向性表示ユニットの入力端の間に接続され、所要画角で画像を生成 しその画像を編集するための画像生成ユニットとを備える。 本発明の上述の目的はまた、実環境内でのユーザの動きに応えて、ユーザに対 し仮想環境を提示するための方法において、 a)それぞれの接合部に隣接するセグメント間の少なくとも1つの角度を決定す るための手段を、ユーザの位置移動系のセグメントの基本接合部各々の近傍に取 り付けるステップと、 b)ユーザの位置移動系セグメントの線形寸法を規定するステップと、 c)ユーザの位置移動系セグメントのうちの少なくとも1つの上に基準方向決定 手段を位置設定するステップと、 d)前記基準方向決定手段が前記基準方向との関係においてそこに配置される少 なくとも1つのセグメントの方向性を決定するステップと、 e)前記基本接合部に隣接したセグメントの間の角度を決定するステップと、 f)得られた角度値及び基準方向決定手段がそこに配置される少なくとも1つの セグメントの方向性に基づいて、ユーザ全般の空間内の位置及び方向性を決定す るステップと、 g)ユーザの位置移動系の単数又は複数のベアリングセグメントを決定するステ ップと、 h)表示された仮想環境内のサポートとの関係における前記単数又は複数のベア リングセグメントを位置づけするステップと、 i)仮想環境内でのユーザの視野を決定するため仮想環境内のユーザの頭の位置 及び方向性を決定するステップと、 j)ユーザに対しユーザの視野に対応する仮想環境領域を生成し提示するステッ プとを備える方法においても達成される。 ユーザの動き及び仮想環境オブジェクトとのインタラクションに応えて、リア ルタイムで仮想環境変化を表示するため、d)からj)までの前記ステップが反 復される。 ユーザの位置及び方向性データのシーケンスは、その後の使用の ために記録され得る。 基準方向は、好適には、地球磁場センサの南北方向及び垂直センサの方向、又 は南北又は東西方向、又はジャイロ安定化された基準方向センサにより生成され た方向又は外部基準方向供給源により生成された方向、あるいは、ユーザの位置 移動系セグメントのうちの少なくとも1つの上に配置されている少なくとも1対 の離隔した絶対座標センサにより生成された方向である。 ユーザの位置移動系セグメントの線形寸法を、ユーザの身長についてのデータ を用いて、人体の既知の均斉に基づいて規定することも好ましく、ユーザの位置 移動系セグメントの前記線形寸法を、表示された環境との関係におけるユーザの 寸法を適切に変更するように基準化することが可能である。 さらに、表示された仮想環境オブジェクトとのユーザのインタラクションを提 供するのにマニピュレータを利用する場合、このマニピュレータの位置は好適に はそれを保持するユーザの手の位置に基づいて決定され、一方マニピュレータの 正確な方向性は、その上に配置された補足的基準方向決定手段を用いて決定され る。 ユーザの位置移動系セグメントの間の前記基本接合部は、好ましくは股関節、 膝関節、距腿関節、肩関節、肘関節、トウ骨手根関節、頭と肩との間の接合部及 び胸椎と腰椎との間の接合部、さらには足関節及び指関節の中から選ばれる。 本発明の上述の目的は、仮想環境画像表示手段と、ユーザの視野の方向を指示 する信号を生成するための手段と、このユーザの視野の方向を指示する信号を生 成するための手段の出力端に接続された入力端及び仮想環境画像表示手段の入力 端に接続された出力端を有する、ユーザの視野に対応する仮想環境画像の信号を 生成するための手段とを含んで成る、実環境内で移動するユーザに対し仮想環境 を提示するためのシステムにおいて、前記ユーザの視野の方向を指示する信号を 生成するための手段はさらに、前記セグメントの適切な接合部に隣接するユーザ の位置移動系セグメントの間の少なくとも1つの角度を決定するための手段と、 ユーザの位置移動系セグメントの少なくとも1つの上に配置された基準方向決定 手段と、前記ユーザの位置移動系セグメントと前記基準方向決定手段との間の角 度を決定するための手段の出力端に接続された入力端を有するアナログ−デジタ ル変換手段と前記アナログ−デジタル変換手段の出力端に接続された入力端を有 する、3次元環境及びその中のユーザのシミュレーションを構築するためのユニ ットと、及び前記3次元環境及びユーザの数学的シミュレーションを構築するた めのユニットの出力端に接続された入力端と、ユーザの視野に対応する前記仮想 環境画像信号を生成するための前記手段の入力端に接続された出力端を有するユ ーザ視野決定ユニットと、を備え、ユーザの視野に対応する仮想環境画像信号を 生成するための前記手段の第2の入力端が、3次元環境及びその中のユーザの数 学的シミュレーションを構築するためのユニットの出力端に接続されているシス テムにおいても達成される。 相対的回転角センサがひずみゲージ又は光ファイバセンサであることもまた好 ましい。 さらに、基準方向決定手段は、好適には、地球磁場センサ及び局所的垂直セン サ、又はジャイロ安定化基準方向センサ又は外部供給源基準方向信号センサであ る。 表示された実又は仮想環境のオブジェクトとユーザがインタラクションするた めにマニピュレータを使用する場合には、前記アナログ−デジタル変換手段の入 力端に接続されている出力端を有し、マニピュレータ上に配置された補足的基準 方向決定手段を利用するこ ともまた好ましい。 最後に、前記アナログ−デジタル変換手段の出力端に結合された長期メモリユ ニットを利用することも好ましい。 図面の簡単な説明 本発明は、添付図面と合わせて、その実施形態についての以下の記述を読むこ とにより明らかになることだろう。なお図面中、 図1は、本発明によるシステム内でユーザの位置移動系セグメントと基準方向 決定手段との間の角度を決定するための手段の配置を例示する、ユーザの従来の 図である。 図2は、本発明によるユーザの位置及び方向性を追跡し表示するためのシステ ムのおおまかなブロック図である。 図3は、本発明による、実環境内で動くユーザに対し仮想環境を提示するため のシステムのおおまかなブロック図である。 実施形態の詳細な説明 図1に概略的に描かれているのは、接合部3を伴うセグメントで構成された位 置移動系を有するユーザ1である。セグメント2の接合部3は、関節と骨との接 続をシミュレーションしている。人間又は動物の関節と同様に、接合部は異なる 自由度を有する。例えば前腕と肩、脛骨及び腿の接続部は、1つの自由度を伴う 単純なヒンジ継手としてシミュレーションでき、一方肩関節内の肩甲骨と肩の接 続部及び股関節のシミュレーションには多数の自由度を伴うヒンジ継手が必要と なる。 セグメント2間の角度を決定するための手段は、セグメント及びその部分の互 いとの関係における位置を追跡するセンサ4であり、これらのセンサは、セグメ ント2の接合部3上及びそのままのセグ メント2上に位置設定されている。センサ4は、例えば、肘セグメントの1方の 端部のそのもう1方の端部に対する回転角度といったような、いくつかのセグメ ントのその軸に対する回転角度を測定することを含む、ユーザの動きの精審な追 跡に役立つ。肘のセグメントは、互いとの関係において可動な2つの半径から成 り、こうして1つのセグメント端部はその軸全体にわたりもう1方の端部との関 係において回転できるようになっている。そのセグメントと隣接セグメントとの 間の角度を変えることなくその軸を中心にして回転することのできるセグメント が複数存在する。すなわち、肩との関係において回転する首を有する頭、骨盤の 部分との関係において回転する身体の胸部である。センサ4は、光ファイバセン サでも、ひずみゲージでもよい。本発明の一実施形態においては、センサ4は、 セグメント間の角度の変動に伴って変動する受信機回路内で誘導された起電力の 変動に応答する、送信セクションと受信セクションとで構成された角及び線形変 位測定センサであってもよい。 セグメント2の1つの上に基準方向決定手段5が配置されており、これは基準 方向との関係におけるセグメントの方向性を決定するように設計されている。手 段5は、歩く及び走るといったユーザの標準的な動きにおいて最も安定した状態 にとどまる部分の上に配置されるのがよい。この手段は、骨盤部分上に位置設定 することが勧められる。ユーザが仮想現実に潜入するとき、頭の方向性は、頭の 上に固定された補足的基準方向決定手段を用いてより迅速かつ適正に追跡するこ とができる。1つの実施形態においては、基準方向決定手段は、隣接するセグメ ント上に位置設定されてよく、これは、基準方向との関係におけるその方向性に 基づいてその角位置を決定する。 ユーザに対して仮想環境を表示するための手段6がユーザの目前 でユーザの頭の上に配置される。 図2に示されているように、ユーザの位置及び方向性を追跡し表示するための システムの一実施形態は、センサ4のポーリング速度n,基準方向決定手段5の ポーリング速度m,仮想環境オブジェクトとのインタラクション用のオプション 装置8(マニピュレータ、ジョイスティック、兵器シミュレータなど)のポーリ ング速度kを規定するマスタークロックを内含するポーリングユニット7を備え る。ポーリングユニット7の出力端は、センサ4,オプション装置8及び基準方 向決定手段5から受信したアナログデータを8バイトの値を有するデジタルデー タへと変換するためのアナログ−デジタル変換手段(ADC)9に接続されてい る。ADC9の出力端が、(n+m+k)より少なくはない数の記憶セルをもつ 記憶ユニット10の入力端に結合されている。記憶ユニット10は、ポーリング ユニット11を介して、長期メモリユニット12及びデータ準備ユニット13に 結合される。この長期メモリユニット12は、異なる目的にさらに利用するため ユーザの行動に応えて、時変的なユーザの位置及び方向性データを記憶する。こ の場合、長期メモリ12の出力端は、得られたデータを平滑化し、偶発的誤差を 排除しユーザの数学的シミュレーションを構築するために受容可能な形でデータ を表現するデータ準備ユニット13の入力端に結合させることができる。1実施 形態においては、ADCがそれ相応に実施されていることを条件として、長期メ モリユニットの入力端をADCの入力端に接続することが可能である。両方の実 施形態を考慮に入れて、要素7,9,10,及び11を合わせてアナログ−デジ タル変換手段と呼ぶことができる。 データ準備ユニット13の出力端は、ユーザがその中で表示される(又はユー ザに提示される)3次元環境の数学的シミュレーショ ン及びその中のユーザの数学的シミュレーションを構築するためのユニット14 の入力端に結合される。ユニット13及び14は合わせて、測定変換済みデジタ ルデータ処理手段と呼ぶことができる。ユニット14に接続されているのは、ユ ーザ、表示された環境、ユーザの動きの間の時間的関係、及び表示された環境内 の変化のダイナミクスについてのオプション情報を規定するオプションデータ入 力ユニット15である。情報は、ユーザの身長、体重、性別、年令などといった オプション情報を内含していてよい。オプション情報が欠如しているか又は必要 とされていない場合、ユーザの数学的シミュレーションは、標準的プロポーショ ンをもつ平均的人間について計算される。ユニット14は、基準方向決定手段5 が基準方向との関係においてその上に位置設定されている基本セグメントの方向 性を決定するためのユニット16と、ユーザ全般のシミュレーションを構築する ためのユニット17と、ユーザのベアリングセグメント(各セグメント)を決定 するためのユニット18と、コンピュータにより生成されたシミュレーションさ れた環境内でサポートとの関係においてユーザを位置設定するためのユニット1 9で構成されている。ユニット14の出力端は、所要画角で画像を生成するため のユニット20の入力端に接続されている。ユニット20の出力端は、表示され た環境内でサポートとの関係において位置づけされたシミュレーションされたユ ーザの位置及び方向性を表示するためのユニット21の入力端に接続されている 。 ここで図3を参照すると、実環境内で動くユーザに対し仮想環境を提示するた めのシステムは、図2と同じ要素4,5,7〜19を備えるが、図2に描かれた システムと比べ、ユニット14の出力端が、ユーザの視野決定ユニット22の入 力端及びユーザの視野に対応する仮想環境画像の信号を生成するためのユニット 23の入力端 に接続されているという点で異なっている。ユニット22の出力端はまた、仮想 環境画像信号生成ユニット23の入力端に結合されている。ユニット23の出力 端は、ユーザが潜入している仮想環境をその中でのユーザの位置及び方向性に応 えてユーザに提示するためのユニット24の入力端に結合されている。 図2に例示されているユーザの位置及び方向性を追跡し表示するためのシステ ムは、以下の要領で作動する。 好適な実施形態においては、センサ4及び基準方向決定手段5は、オーバーオ ールといったような特殊なボディスーツに、又はセグメント2間の接合部3の部 位及びそのままのセグメント2の上でユーザに直接取りつけられる。1組のセン サ4及び手段5を伴うボディスーツは、軽量で容易に着脱でき、ユーザの動きを 制約しないものでなくてはならない。センサ4は、ユーザが動いたとき、すなわ ち、セグメント2間の角度が変動するか又は1つのセグメントの片端がもう1方 の端部との関係においてセグメント軸に沿って回転した場合に、センサ内でいく つかの物理的パラメータが変化するような形で、ボディスーツにとりつけられて いる。物理的パラメータは、1つの端部位置からもう1つの端部位置までの隣接 するセグメント2間の角度の変動に応答して、予め定められた範囲内で変化する はずである。 システムは、適切な手段5が位置設定されているセグメントと基準方向との間 の角度を決定するための一次的及び補足的基準方向決定手段5を内含することが できる。一次的基準方向決定手段5は、基本セグメントとしてとられるセグメン ト上に位置設定される。ユーザの幾何学的中心により近く、歩く及び走るといっ た人間の標準的運動において最も安定している基本セグメントを選択することが 好ましい。これらの必要条件は、骨盤セグメントが最も良く満たし ている。ユーザが仮想現実内に潜入するとき、頭の傾動及び方向転換をより精密 かつ迅速に追跡するよう頭の上に取けられた補足的基準方向決定手段5が使用さ れる。 センサ4、基準方向決定手段5及び仮想環境オブジェクトとのインタラクショ ンのためのオプション装置8からの情報は、ADCに適用され、ポーリンクユニ ット7のクロック生成装置により生成されるポーリング信号に応えて更新される 。ADC9から、情報は、記憶ユニット10内の対応するメモリセルに適用され る。 ポーリングユニット11には、記憶ユニット10内のメモリセルをポーリング し、特定の時点(現時点)に関連したオプション装置8からのデータを内含する 、ユーザの位置及び方向性を定義づけるデータシーケンスを生成し、そのデータ を、長期記憶のため長期メモリユニット12に提供する。このデータは任意の時 点で利用でき、唯一必要なのは、その後の処理のためデータ準備ユニット13に データを供給することである。リアルタイムで使用される場合、ポーリングユニ ット11からのデータは、データ準備ユニット13に直接提供される。ユニット 13は、得られたデータを平滑化し、偶発的誤差を消去し、必要とされるデータ シーケンスを生成し、ユーザの数学的シミュレーションを構築するべくユニット 14に対し、要求される形式でデータを提供する。 ユニット14は、ユーザがその中で表示されるべき3次元環境の数学的シミュ レーション及びその中のユーザの数学的シミュレーションを構築する。オプショ ンデータ入力ユニット15を通して、ユーザ、表示された環境、ユーザの動きの 間の時間的関係及び表示された環境内の変化のダイナミクスについてのオプショ ンデータが、ユニット14内に供給される。この情報は、ユーザの身長、体重、 性別、年令などといったユーザのオプション情報を含むことができ る。オプション情報が欠如しているか又は必要とされていない場合、数学的シミ ュレーションは、標準的プロポーションをもつ平均的な人間について計算される ことになる。表示された環境内において不自然に大きい又は小さいオブジェクト を用いて「ガリバー」を生み出すことが望まれる場合、環境及びその中のオブジ ェクトの線形寸法とユーザの線形寸法との間のバランスの入カデータは修正され る。同じ要領で、長期メモリ12からデータを入力する場合のユーザの動きのダ イナミクスを変更することにより、表示された環境の中に高速又は低速時間スケ ールを導入することができる。ユーザの動きのデータがリアルタイムでユニット 13に適用される場合、表示された環境内のプロセスフローのダイナミクスを加 速することも減速することも可能である。 一次的セグメント構築及び方向づけユニット16は、受信したデータに基づい て、一次的基準方向決定手段が基準方向との関係において配置されている基本的 セグメントの位置及び方向性を計算し構築する。基準方向は好適には、地球磁場 と関係づけされた方向、南北方向、東西方向又は地球の重力場及び南北方向に基 づいて定義づけされる局所的垂直である。これらの場は一般に至る所に存在し、 ユーザとは無関係である。電磁コンパス及び水平又は垂直重力センサといったよ うな特殊な手段を用いて、ユーザの方向性、特にこれらの手段が固定されている ユーザの位置移動系のセグメントの方向性を定義づけすることができる。強い干 渉又は遮へいされた地球磁場をもつサイトでは、専用手段により基準方向の人工 的な場を生成することができる。この場合、コンピュータの出力需要を発生させ る三角測量アルゴリズムを使用してこの手段までの絶対的距離を決定する必要な く、この場の中のユーザの方向性を定義づけすることのみが必要となる、という 点に留意することが肝要である。 ユーザ全般のシミュレーションを構築するためのユニット17は、間の角度に ついての修正済みデータ用いて、すでに構築された基本的セグメントに対し隣接 セグメントを付加し、さらに、構築された隣接セグメントに次に続く隣接セグメ ントを付加し、かくして同様に最終セグメントまで続く。 ユニット18は、ユーザの単数又は複数のベアリングセグメントを決定する。 一例を挙げると、ユーザが水平平面に沿って移動している場合、ベアリングセグ メントは局所的垂直との関係において最も低いものとなり、一方支点はこのセグ メントの最も低い部分となるだろう。 ユニット19は、コンピュータにより生成された環境内でサポートとの関係に おいてユーザを位置づけする。この目的で、最も単純な場合においては、方向づ けされた後、ユーザのシミュレーションは、ユーザのベアリングセグメントのベ アリング部分と現時点でのユーザのサポートであるシミュレーションされた環境 の一部分を位置合せするべく、シミュレーションされた環境の中でユーザのサポ ートと心合せされる。ユーザがジャンプといった運動を行なっている場合、すな わち一定時間「飛行中」である場合、このユーザは、そのダイナミクスについて の最新の情報を用いてサポートとの関係において位置づけされる。ダイナミクス 中のセグメント間の角度の変動について完全な情報を有している場合、ユーザの 心拍数及びユーザがサポートから押し返された力さえも計算することができると いう点に留意すべきである。こうして、表示された環境内でのユーザの動きのほ とんど現実のようなシミュレーションが可能となる。このようにしながら、変化 しつつあるユーザの位置(座標)及びユーザのおおまかな空間内の方向性は、ユ ーザのセグメントの変動する位置及び方向性に応答して、ダイナミクスについて 追跡されてい る。すなわち、ユーザの動きの表示された画像から、例えばユーザが北向きに1 0歩進み、方向転換し南西に走った等々といったことがわかる。 ユニット14の出力端から、シミュレーションされた環境内のユーザの構築さ れたシミュレーションの情報は、所要画角で画像を生成するためユニット20の 入力端に適用され、ここでヴューワの視点は選択され、所要画角でのユーザの画 像は計算され、必要とあらばその後の表示のため画像は編集される。ユニット2 0の出力端から、表示された環境内のサポートとの関係において位置づけされた シミュレーションされたユーザの位置及び方向性を表示するユニット21の入力 端に対し、情報が提供される。ユニット20を用いて、ユーザ自身又は部外者は 、ユーザの動きのダイナミクスを検分するための態様を特定することができる。 望まれる場合には、ユーザの動きを上から、下から、側面から又は変化する視点 から検分することができる。長期メモリ内に以前に書込まれたユーザの動きを表 示するに際しては、いくつかのタスクに従って表示する前に動きを編集すること が可能である。一例を挙げると、異なる時点でメモリ内に書き込まれた同じユー ザの動きを同時に表示すること、又は比較のため異なるユーザの動きを表示する ことが可能である。設定されたタスクに応じて、ユーザの動きは、単純化され様 式化されたシミュレーションとして又は、衣服、肌、周囲環境の複雑なテクスチ ュアを「表現する」ことを伴う現実的な画像にさらに近いその他のあらゆる形態 で表示することができる。前者の場合では、実質的にどのコンピュータでもタス クを処理することができるのに対し、後者の場合では、優れたグラフィック能力 をもつ比較的パワフルなコンピュータが必要とされる。 仮想環境をユーザに提供する場合、本発明に従ったシステムは原 則的に図2に関して記述されているものと同一の要領で作動する。他と異なる特 長は、ユニット14がユーザに対して表示された環境の3次元シミュレーション 及びその中のユーザの数学的シミュレーションを構築するということにある。ユ ニット14の出力端から、ユーザの視野を決定するためのユニット22の入力端及 び仮想環境画像を生成するためのユニット23の入力端に対し、シミュレーショ ンされた環境内のユーザの構築されたシミュレーションについての情報が適用さ れる。ユニット14から受信した情報を用いて、ユニット22は、仮想環境内の ユーザの視野すなわち、現瞬間にユーザが仮想環境のどの部分を見ることができ るかを決定する。ユニット22の出力端から、仮想環境画像を生成するためユニ ット23に対しユーザの画角情報が提供される。ユーザの視野及び仮想環境シミ ュレーションに従って、ユニット23は、実環境内での動きに応えて計算された 仮想環境内での自らの位置及び方向性に従ってユーザが見ることのできる仮想環 境の一部分の画像を生成する。ユニット23の出力端から、ユーザが潜入してい る仮想環境をその中のユーザの位置及び方向性に応えてユーザに提示するための ユニット24の入力端に対し信号が適用される。ユニット24は、手段6(図1 )を含め、任意の仮想環境表示手段すなわちモニタ、仮想ヘルメット又はゴーグ ルであってよい。 技術的現状の記述において前述した通り、従来のシステムの大部分は、ユーザ の上に位置設定されたセンサにより決定される絶対座標を用いてユーザのシミュ レーションを生成する。かくして、ユーザ全般の空間内の位置が自動検出される 。ダイナミクスでは、絶対座標は、ユーザの動きの経路を示すことになる。しか しながら環境は、ユーザの行動の活動領域の周囲全体にわたり位置設定された外 部センサ又はエミッタの限界によって制約を受けるというのが最も 一般的である。これとは対照的に、本発明は、ユーザの位置及び方向性を決定す るために必要なものが全てユーザ自身の上に位置設定されていることから、ユー ザの動きの活動領域を実質的に制約することはない。唯一重要なのは、空間内の ユーザの動きが基準方向との関係におけるユーザの方向性及びセグメントの間の 角度の変更についての情報に従ってコンピュータによって計算されている間に、 基準方向決定手段のためのオペレーションフィールドを提供することにある。環 境の変化は、ユーザの歩みの数、寸法及び方向に基づいて計算することができる 。歩みの寸法を決定するためには、歩みを運ぶ瞬間におけるユーザのベアリング セグメントの間の角度及びその線形寸法がわかっているべきである。より特定的 に言うと、人間の歩みを決定するためには、左右の脚の大腿骨の間の角度、各脚 の脛骨と大腿骨との間の角度、並びに脛骨及び腿の線形寸法に知る必要がある。 いくつかの場合においては、足と脛骨との間及び足とつま先との間の角度を測定 することもまた有用であると思われる。 1平面との関係におけるセグメントの方向性を通してベアリングセグメントを 決定する基準を簡略化するため、ユーザの足の裏に取りつけたセンサを使用する ことができる。例えば、脚がある時点でベアリングのものである場合、センサ内 で接点が閉じ、脚がもち上っているか又はぶら下がっている状態の場合には反対 に接点は開く。センサは、各脚により指示されている負荷についての情報もまた 提供できる。ダイナミクスにおいて脚により支持されている負荷及びユーザの体 重に基づき、ユーザが得る運動量及びユーザの動きの経路を、ジャンプについて さえ計算することができる。ユーザの動きの経路及び物理的特性を計算するのに 必要とされるデータはまた、セグメント間の角度の変化のダイナミクスに基づい て計算できる。 産業上の利用分野 本発明による方法及びシステムは、これまで実施不可能であった全て新しいさ まざまな可能性、特に体操やダンスといったさまざまな動きが関与する試験及び 競技会を行なう機会、そして戦闘における及び計算された状況に対する応答の妥 当性を評定する可能性を提供する。競技は、例えば同じユーザから異なる時点で データを捕捉することにより、時間的に分離された状態で行なうことができる。 次に、データを、比較目的での動作の検分の後コンピュータと人間の両方により 評定、比較することができる。競技は、複数のユーザの間で同時に行なうことが できる。この目的で、データが複数のユーザからリアルタイムでとられ、演技を 行い状況に応答する適正さ、応答時間及び動きの独創性を比較するのに使用され る。このような競技は、ユーザが多大な距離によって分離されている可能性があ るにもかかわらず、インターネット又は専用ネットワークに接続されている発明 されたシステムのユーザの間で実施することが可能である。 メモリ内に書込まれたユーザの位置及び方向性のデータはさらにアーカイブす ることもできる。人間を脊索動物の標準的な動き及び出したスポーツマン及びダ ンサーから書込まれた独特の動きのライブラリを生成することが可能である。 本発明の基本的利点の1つは、センサのシステム全体がユーザの体の上にある ということにある。先行技術のシステムにおいて外部センサ位置として定義づけ されている基準点に対する絶対的距離を決定する必要性は全く無い。本発明は、 実質的に、ユーザを方向づけすることのできる基準となる基準方向の場のみをも つ束縛のない環境の中で、ユーザの位置及び方向性の決定を確実に行なう。基準 方向の決定は、上述の通り、基準方向との関係における、その上に 基準方向決定手段が位置設定されるセグメントの方向性の決定に先立つものであ る。最も便利な基準方向は、我々とは無関係に実質的に至るところに存在する地 球の天然の場のベクトル方向である。提案された2つの基準方向(第3のものは 前の2つに対し直交して構築されている)は、地球磁場の南北及び東西方向又は 、地球の重力の場により定義される局所的垂直及び南北方向である。ユーザが外 部の場から遮へいされた部屋の中にいる場合、基準方向の人工的磁界エミッタを 使用することができる。この場合、前述のとおり、外部のエミッタに対する絶対 的距離よりもむしろ基準方向の場の中のユーザの方向性を決定することが必要で ある。この場合に決定されるのは、基準方向決定手段が上に位置設定されたセグ メントのベクトルと基準方向との間の角度である。 本発明に従ってユーザの位置及び方向性を追跡しユーザに対し仮想環境を提示 することにより、仮想現実に潜入した時点でログされたユーザの行動履歴の範囲 内で「タイムマシン」のほぼ全ての特性を、実施することができる。ユーザは、 自らのログされた活動又はもう1人のヒーローの活動の任意の瞬間において自ら の履歴内の任意の時点まで戻ることができる。これは、プレーヤが戻って自らの 挙動をより有効なものに変更することができるように、コンピュータゲームの中 で使用することができる。いくつかの平行した挙動ラインを書き込むことができ ることを考慮すると、ユーザは、自らの考えで自らの活動を続行するのに最も有 効であるいずれかの挙動ラインを選択することができる。ログされたユーザの位 置及び方向性のダイナミクスにおける変更を利用することにより、空間的3次元 及び時間によって定義づけられる4次元環境を実現することが可能となる。経時 的動きが未来に向かって唯一の方向にのみ達成される現実の生活の中での動きと は異なり、本発明は、記憶されたデータ を用いて、連続した又は離散的な動きを、空間内と同じ程容易にメモリ内に書込 まれたデータの範囲内で時間内でも異なる側に向かって達成することができるよ うにする。 本発明が精巧な外部装置を利用することなくユーザを追跡し仮想環境を提示す るという事実のため、既存のコンピュータシステムの能力を拡大させ、新しい応 用分野を見い出すことが可能である。追跡されたユーザの動きの標準的記述を、 異なるシステムにおいて利用する目的で生成することができる。ユーザの動きに ついてのこのような標準的な記述は、例えばVRML(仮想現実モデリング言語 )の一部としてアニメーションで、及び専用ライブラリの生成のために使用する ことができる。将来のコンピュータアプリケーションの大部分は、本発明による 方法により追跡されるユーザの自然な動きを用いてプログラムを制御する可能性 を考慮に入れた規格を使用することが可能となるだろう。本発明に従ったシステ ムを用いて、キーボード、マウス又はジョイスティックによって、ユーザの動き がその中で実現される現行のコンピュータアプリケーションの全てを使用する可 能性を提供するためには、インターフェースドライバ、すなわちユーザの動きを 認識しそれらをゲーム制御信号及び類似の運動シミュレーション信号に変換する ようなプログラムを提供することが必要である。 本発明の最も重要な利用分野の1つは、ダンス、体操又は職業的動き又は健康 向上のための動きをいかに実施するかをユーザに訓練することに関する分野であ る。この目的のため、ユーザに対してモデル運動が表示される。最良の結果を達 成するために、被訓練者には、いずれかの様相、パフォーマンスダイナミクス及 びスケールを選択するべく再試行する可能性が提供されなくてはならない。その 後、ユーザは、できるかぎり正しく動きをくり返すべく努力しなけ ればならない。その後の管理のため、ユーザの動きを記憶しログして、それらを モデルの動きと比較できるようにしなくてはならない。ユーザの動きとモデルの 動きとの比較は、異なる方法によって達成することができる。ユーザ自身は、同 時に表示されたモデルの動きと以前に記憶されたユーザの動きとを検分すること ができる。さらに有利で将来性ある可能性は、コンピュータ又は当業者によるユ ーザの動きの正しさの評定である。ダウンロードされたプログラムに従って、コ ンピュータは、ユーザの位置及び方向性を通して追跡されたユーザの動きの比較 の後、コメント及び推奨事項を生成することができる。ユーザは、必要とされる 技能及び精度が達成されるまで自らの動きを補正することになる。このプロセス は、師匠によるトレーニングと同じであるが、それに対応するような支出も師匠 による予約の承認も関与してこない。最高の師匠により生成されたフィードバッ クプログラムを、何百万枚もコピーでき、だれでもが都合の良いときにそれを利 用することができる。 本発明はまた、ユーザの身体上で測定される物理的負荷を監視するのに使用す ることもできる。例えば、医師又はトレーナーの勧告に従って、特定の人物につ いて負荷が規定される。かかる個別の勧告あるいは一般的禁忌が無い場合、コン ピュータが、一定期間についての負荷系を計算し推奨することができる。負荷を 規定するためには、過去の及び慢性の疾患、体重、身長、性別、年令、トレーニ ングの目的、運動及び一日の間の情動ストレスについてのデータを使用すること ができる。体の応答、例えば加減されたストレスの下での心拍数の変化度の監視 が関与する専用予備テストを行なうことができる。 負荷を決定した後、コンピュータは、一定の時間についての最適な推奨事項を 生成することができる。ユーザは、別々の身体部分の 上の負荷データが動きの情報に基づいて容易に計算されうるように、ユーザの動 きを最も完全に追跡するセンサシステムを用いて自らのトレーニングに到達する ことになる。このようなトレーニングにおいては、ユーザの心拍数センサからの データ及び、該当する場合にはその他の生理学的特性を利用することが有用であ ろう。 ユーザが仮想環境内に潜入し、動きを制約なく実施できるようにするトレーニ ング器具を使用する場合、ユーザの運動及び情動ストレスは、ストーリー、ダイ ナミス及びユーザをとりまく環境を変更することを通してダウンロードされたプ ログラムによって制御することができる。ゲームにおいては、出現する敵の数、 ストーリーの強度、充分な速度で敵を追撃するか又は危険な場所から逃れる必要 性を加減することによって達成できる。ユーザが気づかない状態で、このような 制御は例えば、特定の時間中心拍数を予め定められた範囲内に維持することも可 能にする。望ましいストレスに達した後、ユーザは、タスクを実行しストーリー を完成せざるを得なくなるはずである。こうしてユーザは、結果が達成されたこ とによる感情的に興奮したムードでトレーニングを終了できる。現在存在してい るゲームは、残念なことにこれらの原則を満たすことができない。プレーヤーは ほとんど無動作である。すなわち、緊張及び意気消沈を導く可能性のある高い感 動ストレスで運動ストレスはゼロである。管理された運動及び感動ストレスにて 行なわれると、ゲーム及び運動は、活力低下及び神経過剰緊張を防止し、人の全 体的な調和のとれたハビリテーションを促進するための優れた手段となりうる。 認知的又は娯楽性のある情報が付随する予め定められた物理的負荷を伴う運動 は、特定のユーザにより選択された仮想環境への潜入を通して達成できる。一例 を挙げると、コンピュータプログラムは、興味深い場所での走行小旅行(running excursion)をシミュレー ションし、予め定められた速度又は必要に応じて変動する速度に歩行又は走行小 旅行のテンポをセットすることができる。この小旅行は、予め定められた負荷に 達した後、終らせることができる。運動は個人的なものであるため、以前の運動 及び負荷についてのデータをコンピュータメモリ内に書き込んで、初期レベルか ら安定したものとして推奨されるレベルまで負荷を後に修正することも可能であ る。通常の一定の又は日々可変的なストレスを感情的に色付けることができ、新 しい有用な情報をこれに付随させることもできる。より優れた感情的な色付けの ためには、ガイドの性別又は年令を選択するか又は著名な役者又は政治家のイメ ージをシミュレーションする可能性を提供することもできる。 センサシステムを利用するユーザが、仮想現実内に潜入することなく負荷を得 た場合、これらの負荷はプロセッサによって制御され得、聴覚チャンネルを介し てヘッドホンを通しフィードバックが提供される。プロセッサは、別々の身体部 分上の単数又は複数の負荷の一般的テンポを変更する必要性について報告するこ とができる。決定は、負荷計算プログラムに従ってユーザの位置及び方向性を追 跡するためのシステムから受信した情報に基づいて下すことができる。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),AL,AM,AT,A U,AZ,BB,BG,BR,BY,CA,CH,CN ,CZ,DE,DK,EE,ES,FI,GB,GE, HU,IS,JP,KE,KG,KP,KR,KZ,L K,LR,LS,LT,LU,LV,MD,MG,MK ,MN,MW,MX,NO,NZ,PL,PT,RO, RU,SD,SE,SG,SI,SK,TJ,TR,T T,UA,UG,UZ,VN (72)発明者 ラティポフ,ヌルラ,ヌリスラモビチ ロシア連邦,モスコー,モジャイスコエ ショスセ,デー.30,クバルチーラ 14 【要約の続き】 のオプションの装置は全て、主体全般の位置と方向性を 計算するために処理される情報を出力する。この計算 は、セグメント間の角度の具体的な値、ならびに基準方 向との関係における主セグメントの方向性に基づいてお り、ここでこの主セグメントは基準方向決定システムを 支持している。かくして得られたデータは、主体の動き のリアルタイムイメージングのため、又は、実空間内の 変位に従って変動する主体の視野に対応する仮想空間を 主体に提示するために使用することができる。

Claims (1)

  1. 【特許請求の範囲】 1.ユーザの空間内位置及び方向性を追跡及び表示するための方法であって、 前記ユーザの身体部分の移動パラメータを決定するステップ、得られた測定デー タを所要提示形式に変換するステップ、及びユーザの空間内の位置及び方向性を 定義づけるデータを生成するべく1セットの前記変換したデータを処理するステ ップを備える方法において、 a)それぞれの接合部に隣接するセグメント間の少なくとも1つの角度を決定す るための手段を、ユーザの位置移動系のセグメントの基本接合部各々の近傍に取 り付けるステップと、 b)前記ユーザの位置移動系セグメントのうちの少なくとも1つの上に基準方向 決定手段を位置設定するステップと、 c)前記基準方向決定手段が前記基準方向との関係において位置設定される前記 少なくとも1つのセグメントの方向性を決定するステップと、 d)前記基本接合部に隣接したセグメントの間の角度を決定するステップと、 e)決定された角度値及び前記基準方向決定手段がそこに位置設定される前記少 なくとも1つのセグメントの方向性に基づいて、ユーザ全般の空間内の位置及び 方向性を決定するステップとを特徴とする方法。 2.前記ユーザの実際の動きに応えて前記ユーザの空間内の位置及び方向性の 時間的変化を決定する関係づけされたデータシーケンスを獲得すべく、前記(c )〜(e)の各ステップが予め定められた間隔で反復される請求項1に記載の方 法。 3.前記ユーザの空間内の位置及び方向性について前記獲得され たデータが、その後の使用のために記録される請求項2に記載の方法。 4.前記ステップ(e)が前記ユーザの位置移動系セグメントの線形寸法の値 を用いて達成され、 f)前記ユーザの位置移動系の単数又は複数のベアリングセグメントを決定する ステップと、 g)表示された環境内のサポートとの関係における前記単数又は複数のベアリン グセグメントを位置づけするステップと をさらに備える請求項1に記載の方法。 5.前記表示された環境内の前記ユーザの位置及び方向性のデータシーケンス を獲得し記録し、前記獲得されたデータに従って前記ユーザの動きを表示するべ く、予め定められた間隔で前記(d)〜(g)のステップが反復される請求項4 に記載の方法。 6.前記ユーザの動きがリアルタイムで表示される請求項5に記載の方法。 7.前記ユーザの動きは、前記記録されたデータに従って必要に応じて後に表 示される請求項5に記載の方法。 8.前記ユーザの動きが、所要観察態様に応じて表示される請求項6又は7に 記載の方法。 9.前記ユーザの動きについての生成画像を編集し、前記ユーザの動きの編集 された画像を表示するステップをさらに備える請求項6又は7に記載の方法。 10.前記基準方向が、地球磁場センサの南北方向及び局所的垂直センサの方 向である請求項1〜9のいずれか一項に記載の方法。 11.前記基準方向が、地球磁場センサの南北又は東西方向である請求項1〜 9のいずれか一項に記載の方法。 12.前記基準方向が、ジャイロ安定化された基準方向センサに よって生成される方向である請求項1〜9のいずれか一項に記載の方法。 13.前記基準方向が、外部基準方向供給源により生成された方向である請求 項1〜9のいずれか一項に記載の方法。 14.前記基準方向決定手段が少なくとも1対の離隔した絶対座標センサであ り、この対は前記ユーザの位置移動系セグメントのうちの少なくとも1つの上に 配置されている請求項1〜9のいずれか一項に記載の方法。 15.前記ユーザの位置移動系セグメントの前記線形寸法が、前記ユーザの身 長についてのデータを用いて、人体の既知のプロポーションに基づいて規定され る請求項4〜14のいずれか一項に記載の方法。 16.前記ユーザの位置移動系セグメントの前記線形寸法が、前記表示された 環境との関係における前記ユーザの寸法を適切に変更するように基準化される請 求項4〜15のいずれか一項に記載の方法。 17.仮想環境オブジェクトとのユーザのインタラクションを提供するのにマ ニピレータを利用する場合、前記マニピュレータの位置は前記マニピュレータを 保持する前記ユーザの手の位置に基づいて決定され、一方、前記マニピュレータ の正確な方向性は、前記マニピュレータ上に配置された補足的基準方向決定手段 を用いて決定される請求項4〜16のいずれか一項に記載の方法。 18.前記ユーザの位置移動系セグメントの間の前記基本接合部が、好適には 、股関節、膝関節、距腿関節、肩関節、肘関節、トウ骨手根関節及び脊柱接合部 の中から選ばれている請求項1〜17のいずれか一項に記載の方法。 19.前記基本接合部はまた、足関節及び指関節である請求項1 8に記載の方法。 20.ユーザの空間内位置及び方向性を追跡するためのシステムであって、ユ ーザの身体部分上に配置された複数の運動パラメータセンサ、所要提示形式へと センサ信号を変換するための変換手段、該変換手段の出力端に結合された入力端 をもつ測定データ処理ユニット、及び該測定データ処理ユニットに接続されたユ ーザの空間的位置及び方向性表示ユニットを備えるシステムにおいて、 ユーザの位置移動系セグメントのうちの少なくとも1つの上に配置された基準 方向決定手段と、 前記運動パラメータセンサ及び前記基準方向決定手段に接続されたポールチャ ンネルを有するポーリングユニットであって、該ポーリングユニットの出力端が 前記変換手段の入力端に接続されているポーリングユニットとをさらに備え、前 記運動パラメータセンサが、ユーザの位置移動系セグメントの間の基本接合部の すぐ近傍、又は前記セグメントそのものの上に配置された相対的回転角センサで あることを特徴とするシステム。 21.ポールチャンネルを通して前記ポーリングユニットと接続されている補 足的基準方向決定手段が上に配置されている、仮想環境オブジェクトに対するユ ーザのインタラクションのための少なくとも1つの手段をさらに備える請求項2 0に記載のシステム。 22.前記相対的回転角センサがひずみゲージである請求項20又は21に記 載のシステム。 23.前記相対的回転角センサが光ファイバセンサである請求項20又は21 に記載のシステム。 24.前記基準方向決定手段は、地球磁場センサを備える請求項20〜23の いずれか一項に記載のシステム。 25.前記基準方向決定手段がさらに局所的垂直センサを備える 請求項24に記載のシステム。 26.前記局所的垂直センサが重力センサである請求項25に記載のシステム 。 27.前記基準方向決定手段が、人工的外部供給源基準方向信号センサを備え る請求項20〜23のいずれか一項に記載のシステム。 28.前記ユーザの空間内の位置及び方向性をその後表示する目的で変換した 前記測定データを記憶するための記憶手段をさらに備え、前記記憶手段がデータ 通信母線を通して前記測定データ処理ユニットに接続されている請求項20〜2 7のいずれか一項に記載のシステム。 29.3次元環境の数学的シミュレーション及びその中に表示された前記ユー ザの数学的シミュレーションを構築するためオプションのデータを入力するため の手段をさらに備え、前記オプションデータ入力手段が、測定データ処理ユニッ トに接続されている請求項20〜28のいずれか一項に記載のシステム。 30.前記測定データ処理ユニットの出力端に接続された入力端及び前記ユー ザの空間的位置及び方向性表示ユニットの入力端に接続された出力端を有する、 所要画角で画像を生成し前記画像を編集するための画像生成ユニットをさらに備 える請求項20〜29のいずれか一項に記載のシステム。 31.実環境内でのユーザの動作に応えてユーザに対し仮想環境を提示するた めの方法であって、ユーザの身体部分の移動パラメータを決定すること、獲得さ れたデータを所要提示形式に変換すること及び仮想環境オブジェクトとユーザの インタラクションを考慮に入れてユーザの位置及び方向性に応えてユーザに表示 すべき仮想環境領域を決定するべく1セットの前記変換したデータを処理するこ とを有する方法において、 a)それぞれの接合部に隣接するセグメント間の少なくとも1つの角度を決定す るための手段を、ユーザの位置移動系のセグメントの基本接合部の各々の近傍に 取り付けるステップと、 b)前記ユーザの位置移動系セグメントの線形寸法を規定するステップと、 c)前記ユーザの位置移動系セグメントのうちの少なくとも1つの上に基準方向 決定手段を位置設定するステップと、 d)前記基準方向決定手段が前記基準方向との関係においてそこに配置される前 記少なくとも1つのセグメントの方向性を決定するステップと、 e)前記基本接合部に隣接したセグメントの間の角度を決定するステップと、 f)獲得された前記角度値及び前記基準方向決定手段がそこに配置される前記少 なくとも1つのセグメントの方向性に基づいて、前記ユーザ全般の空間内の位置 及び方向性を決定するステップと、 g)前記ユーザの位置移動系の単数又は複数のベアリングセグメントを決定する ステップと、 h)前記表示された仮想環境内のサポートとの関係における前記単数又は複数の ベアリングセグメントを位置づけするステップと、 i)前記仮想環境内でのユーザの視野を決定するため前記仮想環境内の前記ユー ザの頭の位置及び方向性を決定するステップと、 j)前記ユーザに対し前記ユーザの視野に対応する仮想環境領域を生成し提示す るステップとを特徴とする方法。 32.前記ユーザの動作及び仮想環境オブジェクトとのインタラクションに応 えて、リアルタイムで仮想環境変化を表示するため、d)からj)までの前記ス テップが反復される請求項31に記載の 方法。 33.前記ユーザの位置及び方向性データのシーケンスが、その後の使用のた めに記録される請求項31に記載の方法。 34.前記基準方向が、地球磁場センサの南北方向及び局所的垂直センサの方 向である請求項31〜33のいずれか一項に記載の方法。 35.前記基準方向が、地球磁場センサの南北又は東西方向である請求項31 〜33のいずれか一項に記載の方法。 36.前記基準方向が、ジャイロ安定化された基準方向センサによって生成さ れる方向である請求項31〜33のいずれか一項に記載の方法。 37.前記基準方向が、外部基準方向供給源により生成された方向である請求 項31〜33のいずれか一項に記載の方法。 38.前記基準方向決定手段が少なくとも1対の離隔した絶対座標センサであ り、この対は前記ユーザの位置移動系セグメントのうちの少なくとも1つの上に 配置されている請求項31〜33のいずれか一項に記載の方法。 39.前記ユーザの位置移動系セグメントの前記線形寸法が、前記ユーザの身 長についてのデータを用いて、人体の既知のプロポーションに基づいて規定され る請求項31〜38のいずれか一項に記載の方法。 40.ユーザの位置移動系セグメントの前記線形寸法が、前記表示された環境 との関係における前記ユーザの寸法を適切に変更するように基準化される請求項 31〜39のいずれか一項に記載の方法。 41.仮想環境オブジェクトとのユーザのインタラクションを提供するのにマ ニピュレータを使用する場合、前記マニピュレータの 位置は前記マニピュレータを保持する前記ユーザの手の位置に基づいて決定され 、一方前記マニピュレータの正確な方向性は、前記マニピュレータ上に配置され た補足的基準方向決定手段を用いて決定される請求項31〜40のいずれか一項 に記載の方法。 42.前記ユーザの位置移動系セグメントの間の前記基本接合部が、股関節、 膝関節、距腿関節、肩関節、肘関節、トウ骨手根関節、頭と肩との間の接合部及 び胸椎と腰椎との間の接合部の中から選ばれている請求項31〜41のいずれか 一項に記載の方法。 43.前記基本接合部は同様に、足関節及び指関節である請求項42に記載の 方法。 44.実環境内で移動するユーザに対し仮想環境を提示するためのシステムで あって、仮想環境画像表示手段と、前記ユーザの視野の方向を指示する信号を生 成するための手段と、前記ユーザの視野の方向を指示する信号を生成するための 手段の出力端に接続された入力端及び仮想環境画像表示手段の入力端に接続され た出力端を有する、前記ユーザの視野に対応する仮想環境画像の信号を生成する ための手段とを備えるシステムにおいて、前記ユーザの視野の方向を指示する信 号を生成するための手段は、 前記セグメントの適切な接合部に隣接するユーザの位置移動系セグメントの間 の少なくとも1つの角度を決定するための手段と、 前記ユーザの位置移動系セグメントの少なくとも1つの上に配置された基準方 向決定手段と、 前記ユーザの位置移動系セグメントの間の角度を決定するための手段及び前記 基準方向決定手段の出力端に接続された入力端を有するアナログ−デジタル変換 手段と、 前記アナログ−デジタル変換手段の出力端に接続された入力端を有する、3次 元環境及びその中のユーザのシミュレーションを構築 するためのユニットと、 前記3次元環境及びユーザの数学的シミュレーションを構築するためのユニッ トの出力端に接続された入力端、及び前記仮想環境画像信号を生成するための前 記手段の人力端に接続された出力端を有する、ユーザ視野決定ユニットとをさら に備えることを特徴とするシステム。 45.前記相対的回転角センサがひずみゲージである請求項44に記載のシス テム。 46.前記相対的回転角センサが光ファイバセンサである請求項44に記載の システム。 47.前記基準方向決定手段が、地球磁場センサ及び局所的垂直センサである 請求項44〜46のいずれか一項に記載のシステム。 48.前記局所的垂直センサが重力センサである請求項47に記載のシステム 。 49.前記基準方向決定手段がジャイロ安定化された基準方向センサである請 求項44〜46のいずれか一項に記載のシステム。 50.前記基準方向決定手段が、外部供給源基準方向信号センサを備える請求 項44〜46のいずれか一項に記載のシステム。 51.表示された実又は仮想環境のオブジェクトとユーザがインタラクション するためにマニピュレータが使用される場合には、前記アナログーデジタル変換 手段のそれぞれの入力端に接続されている出力端を有し、前記マニピュレータ上 に配置された補足的基準方向決定手段が使用される請求項44〜50のいずれか 一項に記載のシステム。 52.前記アナログ−デジタル変換手段の出力端に接続された入力端を有する 長期メモリユニットをさらに備える請求項44〜51のいずれか一項に記載のシ ステム。
JP50962998A 1996-08-14 1997-08-07 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム Ceased JP2001504605A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
RU96116414A RU2107328C1 (ru) 1996-08-14 1996-08-14 Способ отслеживания и отображения положения и ориентации пользователя в пространстве и система для осуществления способа
RU96116415 1996-08-14
RU96116414 1996-08-14
RU96116415A RU2106695C1 (ru) 1996-08-14 1996-08-14 Способ представления виртуального пространства пользователю и система для осуществления способа
PCT/RU1997/000251 WO1998007129A1 (fr) 1996-08-14 1997-08-07 Procede de suivi et de representation de la position et de l'orientation d'un sujet dans l'espace, procede de presentation d'un espace virtuel a ce sujet, et systemes de mise en oeuvre de ces procedes

Publications (1)

Publication Number Publication Date
JP2001504605A true JP2001504605A (ja) 2001-04-03

Family

ID=26653888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50962998A Ceased JP2001504605A (ja) 1996-08-14 1997-08-07 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム

Country Status (6)

Country Link
US (1) US6005548A (ja)
EP (1) EP0959444A4 (ja)
JP (1) JP2001504605A (ja)
CN (1) CN1168057C (ja)
AU (1) AU3954997A (ja)
WO (1) WO1998007129A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234217A (ja) * 2004-02-19 2005-09-02 Nisshin Flour Milling Inc 小麦粉加工品製造技術を教授する小麦粉加工品製造技術教授装置及びプログラム
JP2007530966A (ja) * 2004-03-30 2007-11-01 コミッサリヤ ア レネルジ アトミック 人の動作を決定する方法及び装置
JP2014501992A (ja) * 2011-01-05 2014-01-23 クゥアルコム・インコーポレイテッド ユーザの向きを追跡するための方法および装置
KR101880701B1 (ko) * 2017-06-27 2018-07-20 이형준 가상현실 실시간 모션 시뮬레이터

Families Citing this family (460)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6722888B1 (en) * 1995-01-20 2004-04-20 Vincent J. Macri Method and apparatus for tutorial, self and assisted instruction directed to simulated preparation, training and competitive play and entertainment
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6243106B1 (en) * 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
IL127569A0 (en) * 1998-09-16 1999-10-28 Comsense Technologies Ltd Interactive toys
US6369794B1 (en) * 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
US6607136B1 (en) 1998-09-16 2003-08-19 Beepcard Inc. Physical presence digital authentication system
AU5997299A (en) 1998-10-02 2000-04-26 Comsense Technologies Ltd. Card for interaction with a computer
US6567116B1 (en) 1998-11-20 2003-05-20 James A. Aman Multiple object tracking system
US6707487B1 (en) 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
US7483049B2 (en) 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
JP4006873B2 (ja) * 1999-03-11 2007-11-14 ソニー株式会社 情報処理システム、情報処理方法及び装置、並びに情報提供媒体
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US7113918B1 (en) * 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
JP2001070640A (ja) 1999-09-07 2001-03-21 Konami Co Ltd ゲーム機
JP3179769B2 (ja) 1999-09-07 2001-06-25 コナミ株式会社 信号発生装置
US8019609B2 (en) 1999-10-04 2011-09-13 Dialware Inc. Sonic/ultrasonic authentication method
US6749432B2 (en) 1999-10-20 2004-06-15 Impulse Technology Ltd Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
WO2001029799A2 (en) * 1999-10-20 2001-04-26 Impulse Technology Ltd. Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
FR2805057B1 (fr) * 2000-02-10 2002-05-03 Renault Procede et dispositif de presentation visuelle d'un espace virtuel a trois dimensions simulant un vehicule automobile
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US6734834B1 (en) * 2000-02-11 2004-05-11 Yoram Baram Closed-loop augmented reality apparatus
US8407595B1 (en) 2000-02-11 2013-03-26 Sony Corporation Imaging service for automating the display of images
US7810037B1 (en) 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
US7328119B1 (en) * 2000-03-07 2008-02-05 Pryor Timothy R Diet and exercise planning and motivation including apparel purchases based on future appearance
US6778866B1 (en) * 2000-03-16 2004-08-17 Ted S. Bettwy Method and apparatus for learning specific body motion
KR100355815B1 (ko) * 2000-04-11 2002-10-19 이지로보틱스 주식회사 다중 이동 로봇을 이용한 모션캡쳐 및 동작 애니메이션 장치
IL136373A0 (en) * 2000-05-25 2001-06-14 Itpen Ltd Partnership Israel Representation of three-dimensional bodies on computer screens and games involving such representations
US7330806B2 (en) * 2000-08-08 2008-02-12 Reohr Iii John Virtualized network
US7117136B1 (en) * 2000-08-18 2006-10-03 Linden Research, Inc. Input and feedback system
WO2002021451A1 (en) * 2000-09-07 2002-03-14 Neochi Llc Method and system for simultaneously creating and using multiple virtual reality programs
WO2002032035A2 (en) * 2000-10-10 2002-04-18 University Of Utah Research Foundation Method and apparatus for monitoring dynamic systems using an integrated graphic display for the n-dimensional representations of critical functions
US6746247B2 (en) 2000-12-27 2004-06-08 Michael P. Barton Choreographed athletic movement to music
US6646643B2 (en) 2001-01-05 2003-11-11 The United States Of America As Represented By The Secretary Of The Navy User control of simulated locomotion
US8306635B2 (en) 2001-03-07 2012-11-06 Motion Games, Llc Motivation and enhancement of physical and mental exercise, rehabilitation, health and social interaction
JP4708590B2 (ja) * 2001-03-13 2011-06-22 キヤノン株式会社 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム
US9219708B2 (en) 2001-03-22 2015-12-22 DialwareInc. Method and system for remotely authenticating identification devices
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
KR100393350B1 (ko) * 2001-04-23 2003-08-02 (주)가시오페아 가상경기 시스템 및 방법
EP1417008A1 (en) * 2001-06-19 2004-05-12 Jan G. Fäger A device and a method for creating an environment for a creature
SE523098C2 (sv) * 2001-06-19 2004-03-30 Jan G Faeger Anordning och förfarande för att i en reell omgivning skapa en virtuell företeelse
US6569019B2 (en) * 2001-07-10 2003-05-27 William Cochran Weapon shaped virtual reality character controller
US6758678B2 (en) 2001-08-14 2004-07-06 Disney Enterprises, Inc. Computer enhanced play set and method
KR20030038883A (ko) * 2001-11-07 2003-05-17 최창구 피에스디 센서를 이용한 모션 검출 장치
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
CA2477553A1 (en) 2002-03-12 2003-09-25 Menache, Llc Motion tracking system and method
US8260593B2 (en) * 2002-09-18 2012-09-04 Siemens Product Lifecycle Management Software Inc. System and method for simulating human movement
CN100428218C (zh) * 2002-11-13 2008-10-22 北京航空航天大学 一种实现通用虚拟环境漫游引擎的方法
WO2004070577A2 (en) * 2003-02-04 2004-08-19 Z-Kat, Inc. Interactive computer-assisted surgery system and method
WO2004070573A2 (en) * 2003-02-04 2004-08-19 Z-Kat, Inc. Computer-assisted external fixation apparatus and method
US20050267354A1 (en) * 2003-02-04 2005-12-01 Joel Marquart System and method for providing computer assistance with spinal fixation procedures
ES2234384B1 (es) * 2003-02-05 2006-10-16 Jesus Ciudad Colado Equipo informatizado para simular virtualmente el toreo de salon.
US7009561B2 (en) * 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2005002677A2 (de) * 2003-07-02 2005-01-13 Gonzalez De Mendoza Y Kaeding Simulations- und trainingskugel zur aufnahme von personen
US20050130108A1 (en) * 2003-12-12 2005-06-16 Kurzweil Raymond C. Virtual encounters
US8600550B2 (en) * 2003-12-12 2013-12-03 Kurzweil Technologies, Inc. Virtual encounters
US9948885B2 (en) * 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US9971398B2 (en) * 2003-12-12 2018-05-15 Beyond Imagination Inc. Virtual encounters
US9841809B2 (en) * 2003-12-12 2017-12-12 Kurzweil Technologies, Inc. Virtual encounters
US7747409B2 (en) * 2004-03-12 2010-06-29 Vectronix Ag Pedestrian navigation apparatus and method
US20050278157A1 (en) * 2004-06-15 2005-12-15 Electronic Data Systems Corporation System and method for simulating human movement using profile paths
US9129077B2 (en) * 2004-09-03 2015-09-08 Siemen Product Lifecycle Management Software Inc. System and method for predicting human posture using a rules-based sequential approach
JP2008512166A (ja) * 2004-09-09 2008-04-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 可動関節の三次元撮像に対するシステム
US7433760B2 (en) * 2004-10-28 2008-10-07 Accelerated Pictures, Inc. Camera and animation controller, systems and methods
US20060281061A1 (en) * 2005-06-13 2006-12-14 Tgds, Inc. Sports Training Simulation System and Associated Methods
WO2007013833A1 (en) * 2005-09-15 2007-02-01 Oleg Stanilasvovich Rurin Method and system for visualising virtual three-dimensional objects
US20070142177A1 (en) * 2005-09-26 2007-06-21 Crucial Innovation, Inc. Computerized method and system for fitting a bicycle to a cyclist
US20070078535A1 (en) * 2005-09-30 2007-04-05 Rockwell Automation Technologies, Inc. System and method for identifying particularized equipment information of interest to varied users in an industrial automation environment
US7433741B2 (en) * 2005-09-30 2008-10-07 Rockwell Automation Technologies, Inc. Hybrid user interface having base presentation information with variably prominent supplemental information
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
CN1991691B (zh) * 2005-12-30 2012-07-04 财团法人工业技术研究院 交互式控制平台系统
US20100201512A1 (en) 2006-01-09 2010-08-12 Harold Dan Stirling Apparatus, systems, and methods for evaluating body movements
US9082319B2 (en) 2006-01-24 2015-07-14 Carnegie Mellon University Method, apparatus, and system for computer-aided tracking, navigation and motion teaching
CN102058976A (zh) * 2006-05-04 2011-05-18 美国索尼电脑娱乐公司 用于跟踪环境中的用户操纵的系统
WO2008014486A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Improved camera control
US20080028312A1 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Scene organization in computer-assisted filmmaking
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
TW200842692A (en) * 2007-04-17 2008-11-01 Benq Corp An electrical device and a display method
US8088017B2 (en) * 2007-05-15 2012-01-03 United States Bowling Congress, Inc. System and method for analyzing bowling ball motion
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
RU2364436C2 (ru) * 2007-06-18 2009-08-20 Максим Алексеевич Васин Способ тренировки и устройство для его осуществления
US7980141B2 (en) 2007-07-27 2011-07-19 Robert Connor Wearable position or motion sensing systems or methods
US20100027839A1 (en) * 2007-07-31 2010-02-04 Think/Thing System and method for tracking movement of joints
WO2009042896A1 (en) 2007-09-26 2009-04-02 Aq Media, Inc. Audio-visual navigation and communication dynamic memory architectures
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
TWI372645B (en) * 2007-10-17 2012-09-21 Cywee Group Ltd An electronic game controller with motion-sensing capability
EP2203896B1 (en) * 2007-10-26 2019-04-24 Koninklijke Philips N.V. Method and system for selecting the viewing configuration of a rendered figure
US20090166684A1 (en) * 2007-12-26 2009-07-02 3Dv Systems Ltd. Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8571637B2 (en) 2008-01-21 2013-10-29 Biomet Manufacturing, Llc Patella tracking method and apparatus for use in surgical navigation
EP3352107A1 (en) 2008-03-03 2018-07-25 NIKE Innovate C.V. Interactive athletic equipment system
US20090270193A1 (en) * 2008-04-24 2009-10-29 United States Bowling Congress Analyzing a motion of a bowler
DE102008027103A1 (de) * 2008-06-06 2009-12-10 Cairos Technologies Ag System und Verfahren zur automatisierten Analyse eines Wettkampfverlaufes
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8172722B2 (en) * 2008-12-05 2012-05-08 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US8628453B2 (en) 2008-12-05 2014-01-14 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US8231506B2 (en) 2008-12-05 2012-07-31 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US8681321B2 (en) * 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
CN102341767A (zh) * 2009-01-21 2012-02-01 佐治亚技术研究公司 使用运动捕获的角色动画控制接口
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8577084B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8577085B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8682028B2 (en) * 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8588465B2 (en) * 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US8942428B2 (en) * 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8660303B2 (en) * 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US20100311512A1 (en) * 2009-06-04 2010-12-09 Timothy James Lock Simulator with enhanced depth perception
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
GB2471905B (en) * 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) * 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) * 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) * 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US20110083108A1 (en) * 2009-10-05 2011-04-07 Microsoft Corporation Providing user interface feedback regarding cursor position on a display screen
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US20110175918A1 (en) * 2010-01-21 2011-07-21 Cheng-Yun Karen Liu Character animation control interface using motion capure
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) * 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) * 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) * 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US8540571B2 (en) 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) * 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9628755B2 (en) * 2010-10-14 2017-04-18 Microsoft Technology Licensing, Llc Automatically tracking user movement in a video chat application
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
KR101818092B1 (ko) 2010-11-10 2018-01-12 나이키 이노베이트 씨.브이. 시간 기반 체육 활동 측정 및 표시를 위한 시스템 및 방법
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
DE102010053582A1 (de) * 2010-12-06 2012-06-06 Northrop Grumman Litef Gmbh System und Verfahren zur Überwachung von mechanisch gekoppelten Strukturen
US8872762B2 (en) * 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9123316B2 (en) * 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
CN106984041B (zh) 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
JP5813787B2 (ja) 2011-02-17 2015-11-17 ナイキ イノベイト シーブイ ワークアウトセッション中のユーザーパフォーマンス指標の追跡
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) * 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US8542112B2 (en) 2011-03-25 2013-09-24 Telenav, Inc. Navigation system with physical activity safety mechanism and method of operation thereof
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US20130029681A1 (en) * 2011-03-31 2013-01-31 Qualcomm Incorporated Devices, methods, and apparatuses for inferring a position of a mobile device
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
CN103197757A (zh) * 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 一种沉浸式虚拟现实系统及其实现方法
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US10321873B2 (en) 2013-09-17 2019-06-18 Medibotics Llc Smart clothing for ambulatory human motion capture
US10716510B2 (en) 2013-09-17 2020-07-21 Medibotics Smart clothing with converging/diverging bend or stretch sensors for measuring body motion or configuration
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
US10602965B2 (en) 2013-09-17 2020-03-31 Medibotics Wearable deformable conductive sensors for human motion capture including trans-joint pitch, yaw, and roll
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
CN102755745A (zh) * 2012-07-31 2012-10-31 曾珠峰 一种全身式仿真游戏设备
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
CN109799900B (zh) 2012-11-01 2023-02-28 艾卡姆有限公司 手腕可安装计算通信和控制设备及其执行的方法
US20140142442A1 (en) * 2012-11-19 2014-05-22 Judy Sibille SNOW Audio Feedback for Medical Conditions
CN102921158A (zh) * 2012-12-07 2013-02-13 宋艳霞 一种太极拳训练装置
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
CN103970258B (zh) * 2013-01-28 2018-08-07 联想(北京)有限公司 穿戴式电子设备以及显示方法
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9253606B2 (en) 2013-03-04 2016-02-02 Here Global B.V. Structure access characteristics determined from mobile unit data
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
JP2015069895A (ja) * 2013-09-30 2015-04-13 パナソニックIpマネジメント株式会社 照明制御装置及び照明制御システム
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US20160258778A1 (en) * 2013-10-11 2016-09-08 Imsi Design, Llc Method for calibrating the physical position and orientation of an electronic device using device sensors only
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
CN104463947A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种人体骨骼建模方法
US9135347B2 (en) * 2013-12-18 2015-09-15 Assess2Perform, LLC Exercise tracking and analysis systems and related methods of use
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9996975B2 (en) * 2014-03-18 2018-06-12 Dreamworks Animation L.L.C. Interactive multi-rider virtual reality ride system
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
EP2988288A1 (en) * 2014-08-22 2016-02-24 Moog B.V. Medical simulator handpiece
US10959666B2 (en) 2015-01-12 2021-03-30 Enbiomedic Wearable hip joint-action detectors
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
DE102015003881A1 (de) * 2015-03-26 2016-09-29 Audi Ag Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
US10095306B2 (en) * 2015-06-15 2018-10-09 Harman International Industries, Incorporated Passive magnetic head tracker
WO2016205182A1 (en) * 2015-06-15 2016-12-22 Survios, Inc. Systems and methods for immersive physical interaction with a virtual environment
US10261985B2 (en) 2015-07-02 2019-04-16 Microsoft Technology Licensing, Llc Output rendering in dynamic redefining application
US9860145B2 (en) 2015-07-02 2018-01-02 Microsoft Technology Licensing, Llc Recording of inter-application data flow
US10198252B2 (en) 2015-07-02 2019-02-05 Microsoft Technology Licensing, Llc Transformation chain application splitting
US9658836B2 (en) 2015-07-02 2017-05-23 Microsoft Technology Licensing, Llc Automated generation of transformation chain compatible class
US9733915B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Building of compound application chain applications
US9733993B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Application sharing using endpoint interface entities
US9712472B2 (en) 2015-07-02 2017-07-18 Microsoft Technology Licensing, Llc Application spawning responsive to communication
US9785484B2 (en) 2015-07-02 2017-10-10 Microsoft Technology Licensing, Llc Distributed application interfacing across different hardware
US10031724B2 (en) 2015-07-08 2018-07-24 Microsoft Technology Licensing, Llc Application operation responsive to object spatial status
US10198405B2 (en) 2015-07-08 2019-02-05 Microsoft Technology Licensing, Llc Rule-based layout of changing information
US10277582B2 (en) 2015-08-27 2019-04-30 Microsoft Technology Licensing, Llc Application service architecture
US11562502B2 (en) 2015-11-09 2023-01-24 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US10757394B1 (en) 2015-11-09 2020-08-25 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US10812778B1 (en) * 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
JP6952713B2 (ja) 2016-01-19 2021-10-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
CA3021964A1 (en) 2016-04-26 2017-11-02 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10242505B2 (en) 2016-05-12 2019-03-26 Google Llc System and method relating to movement in a virtual reality environment
FR3052949B1 (fr) * 2016-06-17 2019-11-08 Alexandre Courtes Procede et systeme de prise de vues a l'aide d'un capteur virtuel
US10037626B2 (en) * 2016-06-30 2018-07-31 Microsoft Technology Licensing, Llc Interaction with virtual objects based on determined restrictions
US11000211B2 (en) 2016-07-25 2021-05-11 Facebook Technologies, Llc Adaptive system for deriving control signals from measurements of neuromuscular activity
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US10409371B2 (en) 2016-07-25 2019-09-10 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US11179066B2 (en) 2018-08-13 2021-11-23 Facebook Technologies, Llc Real-time spike detection and identification
US10489986B2 (en) 2018-01-25 2019-11-26 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
WO2018022657A1 (en) * 2016-07-25 2018-02-01 Ctrl-Labs Corporation System and method for measuring the movements of articulated rigid bodies
CN107223271B (zh) * 2016-12-28 2021-10-15 达闼机器人有限公司 一种显示数据处理方法及装置
US10388077B2 (en) 2017-04-25 2019-08-20 Microsoft Technology Licensing, Llc Three-dimensional environment authoring and generation
CN109419604A (zh) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 基于虚拟现实的下肢康复训练方法和系统
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
US10999733B2 (en) 2017-11-14 2021-05-04 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening device
US10867623B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Secure and private processing of gestures via video input
US10867054B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening assistant device
US10872607B2 (en) 2017-11-14 2020-12-22 Thomas STACHURA Information choice and security via a decoupled router with an always listening assistant device
US11100913B2 (en) 2017-11-14 2021-08-24 Thomas STACHURA Information security/privacy via a decoupled security cap to an always listening assistant device
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
EP3743892A4 (en) 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10817795B2 (en) 2018-01-25 2020-10-27 Facebook Technologies, Llc Handstate reconstruction based on multiple inputs
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
EP3743901A4 (en) 2018-01-25 2021-03-31 Facebook Technologies, Inc. REAL-TIME PROCESSING OF HAND REPRESENTATION MODEL ESTIMATES
WO2019147996A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Calibration techniques for handstate representation modeling using neuromuscular signals
WO2019148002A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3801743A4 (en) 2018-05-25 2021-08-04 Facebook Technologies, LLC PROCESSES AND APPARATUS FOR OBTAINING A SUB-MUSCULAR COMMAND
EP3801216A4 (en) 2018-05-29 2021-04-14 Facebook Technologies, LLC. SHIELDING TECHNIQUES FOR NOISE REDUCTION IN SURFACE ELECTROMYOGRAPHY SIGNAL MEASUREMENT AND RELATED SYSTEMS AND METHODS
CN112585600A (zh) 2018-06-14 2021-03-30 脸谱科技有限责任公司 使用神经肌肉标记进行用户识别和认证
US11045137B2 (en) 2018-07-19 2021-06-29 Facebook Technologies, Llc Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
EP4241661A1 (en) 2018-08-31 2023-09-13 Facebook Technologies, LLC Camera-guided interpretation of neuromuscular signals
CN109118910B (zh) * 2018-09-07 2020-12-15 华南理工大学广州学院 一种直流电流方向检测装置
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
US10921764B2 (en) 2018-09-26 2021-02-16 Facebook Technologies, Llc Neuromuscular control of physical objects in an environment
WO2020072915A1 (en) 2018-10-05 2020-04-09 Ctrl-Labs Corporation Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
CN111249691B (zh) * 2018-11-30 2021-11-23 百度在线网络技术(北京)有限公司 一种基于形体识别的运动员训练方法和系统
CN109817031B (zh) * 2019-01-15 2021-02-05 张赛 一种基于vr技术的肢体运动教学方法
WO2020160683A1 (en) 2019-02-07 2020-08-13 Thomas Stachura Privacy device for smart speakers
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11287505B2 (en) 2019-05-13 2022-03-29 Cast Group Of Companies Inc. Electronic tracking device and related system
US11145102B2 (en) 2019-11-04 2021-10-12 Volvo Car Corporation Using a handheld device to recreate a human pose or align an object in an augmented reality or virtual reality environment
US11599257B2 (en) * 2019-11-12 2023-03-07 Cast Group Of Companies Inc. Electronic tracking device and charging apparatus
EP3832435A1 (en) * 2019-12-06 2021-06-09 XRSpace CO., LTD. Motion tracking system and method
CN112957726B (zh) * 2021-02-01 2024-05-03 北京海天维景科技有限公司 一种虚拟运动场景的交互控制方法和装置
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN113750529B (zh) * 2021-09-13 2024-05-28 网易(杭州)网络有限公司 游戏中的方向指示方法、装置、电子设备及可读存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE793543A (fr) * 1971-12-30 1973-04-16 Ibm Methodes de codage de position de mecanismes
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
US4937444A (en) * 1982-09-29 1990-06-26 Vpl Research, Inc. Optical flex sensor
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
SE8801043D0 (sv) * 1988-03-22 1988-03-22 Orjan Strandberg Genimator
US4856996A (en) * 1988-06-24 1989-08-15 Henson Jerry H Cycling pedal stroke monitoring system
US5229756A (en) * 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5349533A (en) * 1992-05-08 1994-09-20 Lockheed Missiles & Space Company, Inc. System and method for collision checking between solid objects and vectors
US5323174A (en) * 1992-12-02 1994-06-21 Matthew H. Klapman Device for determining an orientation of at least a portion of a living body
CA2172548A1 (en) * 1993-09-29 1995-04-06 Jaron Z. Lanier Method and apparatus for displaying a virtual world
US5490784A (en) * 1993-10-29 1996-02-13 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5580249A (en) * 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
AU5019896A (en) * 1995-01-11 1996-07-31 Christopher D Shaw Tactile interface system
RU2109336C1 (ru) * 1995-07-14 1998-04-20 Нурахмед Нурисламович Латыпов Способ погружения пользователя в виртуальную реальность и устройство для его реализации

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234217A (ja) * 2004-02-19 2005-09-02 Nisshin Flour Milling Inc 小麦粉加工品製造技術を教授する小麦粉加工品製造技術教授装置及びプログラム
JP2007530966A (ja) * 2004-03-30 2007-11-01 コミッサリヤ ア レネルジ アトミック 人の動作を決定する方法及び装置
JP2014501992A (ja) * 2011-01-05 2014-01-23 クゥアルコム・インコーポレイテッド ユーザの向きを追跡するための方法および装置
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
KR101880701B1 (ko) * 2017-06-27 2018-07-20 이형준 가상현실 실시간 모션 시뮬레이터

Also Published As

Publication number Publication date
EP0959444A1 (en) 1999-11-24
WO1998007129A1 (fr) 1998-02-19
CN1168057C (zh) 2004-09-22
CN1231753A (zh) 1999-10-13
AU3954997A (en) 1998-03-06
EP0959444A4 (en) 2005-12-07
US6005548A (en) 1999-12-21

Similar Documents

Publication Publication Date Title
JP2001504605A (ja) 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム
CN111460872B (zh) 图像处理方法及装置、图像设备及存储介质
US11037369B2 (en) Virtual or augmented reality rehabilitation
US11586276B2 (en) Systems and methods for generating complementary data for visual display
Caserman et al. A survey of full-body motion reconstruction in immersive virtual reality applications
RU2107328C1 (ru) Способ отслеживания и отображения положения и ориентации пользователя в пространстве и система для осуществления способа
US8217995B2 (en) Providing a collaborative immersive environment using a spherical camera and motion capture
US20210349529A1 (en) Avatar tracking and rendering in virtual reality
CN107330967B (zh) 基于惯性传感技术的骑师运动姿态捕捉及三维重建系统
KR101979750B1 (ko) 댄스 트레이닝 콘텐츠 저작 시스템
Waltemate et al. Realizing a low-latency virtual reality environment for motor learning
US20130171596A1 (en) Augmented reality neurological evaluation method
US20090187389A1 (en) Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and Cave
JP2019526295A (ja) 組込みセンサと外界センサとを組み合わせる多関節トラッキングのための方法およびプログラム製品
JP4351808B2 (ja) 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム
CN105892626A (zh) 用于虚拟现实环境中的下肢运动仿真控制设备
Nam et al. Dance exergame system for health using wearable devices
Echeverria et al. KUMITRON: Artificial intelligence system to monitor karate fights that synchronize aerial images with physiological and inertial signals
RU2106695C1 (ru) Способ представления виртуального пространства пользователю и система для осуществления способа
JP7442368B2 (ja) 運動用の衣服の設計を支援する装置、方法及びプログラム
Arsenault et al. Wearable sensor networks for motion capture
CN117503120B (zh) 人体姿态估计方法及系统
Pędrys et al. Ubiquitous rehabilitation combining inertial measurement system with smartphone and supported by visual and voice feedback
Krukowski et al. User Interfaces and 3D Environment Scanning for Game-Based Training in Mixed-Reality Spaces
CA3111430C (en) Systems and methods for generating complementary data for visual display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 19950420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070814

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070921

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20071226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080205