JP2001517344A - カメラ・ベースの身振り入力を使用の仮想現実環境を通じての3次元航行を認めるためのシステムおよび方法 - Google Patents

カメラ・ベースの身振り入力を使用の仮想現実環境を通じての3次元航行を認めるためのシステムおよび方法

Info

Publication number
JP2001517344A
JP2001517344A JP53468399A JP53468399A JP2001517344A JP 2001517344 A JP2001517344 A JP 2001517344A JP 53468399 A JP53468399 A JP 53468399A JP 53468399 A JP53468399 A JP 53468399A JP 2001517344 A JP2001517344 A JP 2001517344A
Authority
JP
Japan
Prior art keywords
user
system user
virtual reality
dimensional
reality environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP53468399A
Other languages
English (en)
Inventor
ダミアン エム リオンズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2001517344A publication Critical patent/JP2001517344A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 システム利用者のカメラ・ベースの身振り入力を使用して仮想現実環境を通しての3次元航行を認めるシステムおよび方法。このシステムは、コンピュータが読取り可能な記憶装置、該システム利用者の身振りおよびこのシステム利用者を取り巻く相互動作区域を示すビデオ信号を発生するためのビデオカメラ、およびビデオ映像表示装置を有する。このビデオ映像表示装置は該システム利用者の前に置かれる。該システムは、更にこのシステム利用者の身体および主要身体部分の3次元位置を決定するために、上記のコンピュータが読取り可能な記憶装置に蓄積されるプログラムによりビデオ信号を処理するためのマイクロプロセッサを有する。このマイクロプロセッサは該システム利用者の身体および主要身体部分の3次元位置に基づきビデオ映像表示装置上に、該システム利用者および相互動作区域の3次元映像を構築する。該ビデオ映像表示装置は仮想現実環境内に3次元のグラフィック対象物を示し、且つ該システム利用者による動きは、該システム利用者が仮想現実環境内を通して動くように見えるように該ビデオ映像表示装置上に表示される3次元対象物の見掛け上の動きを許容する。

Description

【発明の詳細な説明】 カメラ・ベースの身振り入力を使用の仮想現実環境を通じての 3次元航行を認めるためのシステムおよび方法 〔本発明の背景〕 A.本発明の分野 本発明は、一般的にはマルチメディアおよび仮想現実(virtual reality)応用 に関し、且つ、一層特別にはカメラ・ベースの身振り入力を使用の仮想現実環境 を通じての3次元航行を認めるためのシステムおよび方法に関する。 B.関連する分野の説明 マルチメディアおよび仮想現実応用は、利用者とコンピュータ間で感動的な相 互動作を可能にする。不幸にも、現在のコンピュータ・利用者間インタフェース では極度に単純化された相互活動およびそれによるマルチメディアおよび仮想現 実応用の消費者の受け入れへの障壁を設ける。理想的には、コンピュータ・利用 者間インタフェースは、直観的な相互作用フォーマットと広範囲の相互動作能力 との組み合わせであろう。しかしながら、これらの2個の特色は対立している。 例えば、コンピュータのキーボードは広範囲な相互動作能力を提供するが、直観 的でなく、一方、テレビジョンのリモートコントロールは一層直観的ではあるが 、制限された相互動作能力を提供するに過ぎない。機器が取り付けられたボディ スーツのように一層柔軟なインタフェースは、煩わしく且つ高価である。 仮想現実応用においては、表示し且つ仮想現実環境と相互動作する2個の初歩 的なコンピュータ・利用者間インタフェースへの手法には、沈入的手法(immersi ve approach)と非沈入的手法が存在する。沈入的手法においては、利用者は頭部 搭載ディスプレイおよび頭部および1又は複数の肢体に取り付けられる追尾機器 を着用する。コンピュータ・ディスプレイは、利用者の目に対し合成された可視 映像を表示することにより、頭部搭載ディスプレ上に仮想現実環境を表示し、且 つ頭部の追尾機器から受信する情報に応じて映像を変化させる。肢体追尾機器は 、利用者に仮想現実環境と相互動作を許容する。沈入的手法は、利用者に仮想現 実 環境の「内部」に存在する印象を与える利点を与える。不幸にも、沈入的手法は 、利用者を本人の実際の環境から切り離し、利用者に実際の環境における健康お よび安全に関する危険を気付かさずに置く不利益を与える。 非沈入的手法においては、コンピュータは、コンピュータ・モニタまたはテレ ビジョン・スクリーンのような静的表示機器機器上にバーチャル環境の可視映像 を表示する。利用者は、可視映像の眺めをコンピュータとのインタフェースとし てコンピュータ・キーボード、マウス、ジョイスティック、または類似の機器を 使用して変化させる。この非沈入的手法は、利用者を本人の環境から切り離すこ となく、利用者に仮想現実環境と相互動作を認める長所をもたらす。しかし、非 沈入的手法は、利用者に仮想現実環境の「内部」に存在する印象を与えることが できない。 多くのコンピュータ・利用者間インタフェースの設計の手法が、沈入的手法と 非沈入的手法の間の妥協(trade-off)として取り組むように提案されてきた。1 つの手法は、システム利用者に表示される映像を制御するように、このシステム 利用者の身振りを測定するために非沈入的手法にビデオカメラを使用する。図1 に示すように、そのようなインタフェース・システム10は、水色の壁12を有し、 利用者14はその前面に立ち、この利用者14の2次元のシルエット(silhouette)抽 出を可能とし且つこのシルエットをクロマキーすること(chromakeying)を有する 。更にシステム10は、2次元の利用者シルエットを識別し且つ映像信号を発生さ せるためのビデオカメラ16を含む。コンピュータのマイクロプロセッサ18は、ビ デオカメラ16により観られる2次元の利用者シルエットを識別するが、2次元の 形状である。このようにして、利用者14の動きは、このシルエットの映像の座標 軸の変化の項目でマイクロプロセッサ18により理解されるに過ぎない。マイクロ プロセッサ18は、利用者14の映像をテレビジョン・ディスプレイ上に表示する。 テレビジョン20上に表示される映像は、その中に利用者の映像がクロマキーされ た2次元の場面から構成される。利用者14は、例えば両手を頭上にのような特別 なポーズを取ることによるか、又は利用者14が如何にも展示された対象物に接触 したよう見えるようにするために利用者のシルエットの一部が映像座標の決めら れた組に接触するように動くことにより、表示された画面と相互動作を行う。 図1に示されるインタフェース・システムは、マルチメディアおよび仮想現実 応用への使用が容易で且つ安価なインタフェースを供給する。しかし、このイン タフェース・システムは、このインタフェースの能力を2次元に制限して、コン ピュータに表示された対象物と2次元の相互動作を許容するに過ぎない。例えば 、図1の2次元システムにおいて、全てのコンピュータに表示された対象物は、 この利用者のシルエットを取り巻くウインドウにおいて同一の深さである。 図2に示されるように、図1に示されるシステムにより使用される従来からの 2次元シルエット抽出過程は、ハードウエア処理(鎖線上)およびソフトウエア 処理(鎖線下)の両者を有し、コンピュータ・マイクロプロセッサ18はソフトウ エア処理階程を実行する。ハードウエア処理は、アナログのビデオカメラ信号の 入力階程22、およびそれに続くグレースケール2値データ信号を発生するために アナログのカメラ信号をデジタル化する階程24を含む。更に、ハードウエア処理 は、ビデオカメラの解像度を(高くまたは低く)調整する階程26、およびカメラ の視野を対象の映像すなわちこの利用者の映像のウインドウに限定する階程28を 有する。上記のハードウエアは、次にグレースケール2値データ信号がデジタル 2値信号すなわち「1」または「0」に変換される動的しきい値階程30を有する 。階程32において、ハードウエア処理は利用者の映像の縁(edge)(シルエット) を決定し、この縁データに基づき、画像寸法を調整し(階程34)、それに従って階 程26において解像度を調整する。 ソフトウエア処理は、階程34の縁データから背景を除去し、利用者の映像輪郭 のみを残す第1階程36を含む。上記の背景は、カメラにより観られる空虚な場面 の画像であり、階程38により与えられる。更に、ソフトウエアは、この利用者の 映像の全ての縁データを共に結合し、この利用者の映像の周辺に単一の輪郭を与 える階程を有する。また、ソフトウエア処理は、この利用者の映像輪郭が人間、 動物、またはその他を表すかを決定するための識別階程42、およびこの利用者の (x,y軸における)シルエットの像、すなわち頭、手、足、腕、脚、またはそ の他を識別するためのシルエット像(feature)階程44を有する。階程46において 、ソフトウエア処理は、この利用者の回りのバウンディング・ボックス(boundin g box)を計算するために輪郭識別データを利用する。このバウンディング・ボッ ク ス・データには利用者周辺のカメラ・ウインドウの寸法を制限するためにウイン ドウ制限階程28が与えられ、これにより抽出処理の速度が増加する。 Massachusetts Institute of Technology(MIT)のMedia Labにより提案された 他の1つの手法は、カメラ・ベースの身体動作およびシステム利用者の身振りを 使用することにより、利用者がコンピュータにより発生されたグラフィックな世 界と相互動作をできるようにする。そのようなシステムは、現在利用できるこの 種のものの内で最も用途の広いものであるが、下記の問題の弱点を有する;(1) 標準グラフィカル・インタフェース(SGI)・プラットフォームに基づく;(2)シス テム利用者周辺の照明条件に敏感である;(3)利用者の足の位置は3次元で追随 するが、この利用者の身体の残りの部分は2次元の物体として扱う;(4)1人の 利用者に限定される;(5)指のような手の詳細を観るには荒すぎる解像度を与え る;(6)下記の「マジックミラー(“magic mirror”)」相互動作ビデオ環境(IVE) パラダイムのみに結び付けられている。このようにして、この他に代わる方法も 、他の問題と同様に、従来からの2次元手法により遭遇するのと同様な制限に受 ける。 日本国特許出願公開「特開平07-38873号」(特願平05-182,744号)で公開され たように、更に別の手法は人間像の実時間認識に対する方法を含む。上記特開平 07-38873号は、表情、頭部の回転、指の動き、および人体の回転を検出する人間 の3次元のグラフイックな表現を記述している。しかし、特開平07-38873号は人 体のグラフイック・モデルの発生に限定されている。更に、特開平07-38873号は 、主としてテレビ会議の目標のために利用者の3次元のグラフイック・アニメー ションを使用することに焦点を合わせ、そこでは上記の利用者はコンピュータに より発生された場面における対象物を制御できない。最後に、参照は、テレビ会 議目標に対する身近の利用者の3次元アニメーションとは違って、遠隔側の利用 者の3次元アニメーションの使用を公開している。 国際特許出願(PCT)公開第WO96/21321号(以下“PCT 96/21321”という)に発 見される最後の手法は、カメラとマイクロフォンを使用して事象(例えば、フッ トボール・ゲーム)の3次元シミュレーションを実時間で創り出すかまたはCD R OMに蓄積することから成っている。しかし、上記PCT 96/21321号に公開されたシ ス テムは事象の3次元場面をカメラで眺められたままに単に再現するに過ぎない。 更に、PCT 96/21321システムの利用者は、3次元場面の眺めを変化させられるに 過ぎず、場面中の対象物を制御することは不可能である。 不幸にも、上記に提案された手法の何れもが、直観的な相互動作フォーマット を広範囲の相互動作できる能力と組み合わせるコンピュータ・利用者間インタフ ェースを供給していない。 〔本発明の概要〕 本発明の目標は、2次元インタフェース・システムと、Massachusetts Instit ute of TechnologyのMedia Labにより提案された他の1つの手法と、上記の他の 関連技術により遭遇した問題と、に対処することである。他の1つの目標は、仮 想現実環境を表示し且つそれと相互動作するために沈入的および非沈入的手法の 両者の利点を統合するコンピュータ利用者のための3次元インタフェースを提供 することである。 別の目標は、対象物がコンピュータ利用者の周辺の仮想現実環境において3次 元空間を占め、且つ上記のコンピュータ利用者が中をナビゲートし通常の身体の 動きにより仮想現実環境中の対象物を制御するように、コンピュータにより発生 された対象物の3次元表示を提供することである。 本発明の追加的目標および長所は、一部分は下記に記述され、且つ他の一部分 は上記の記述から明確であろう、或いは本発明の実施により理解されるであろう 。本発明の目的および特長は、付属の請求項において特に指摘される要素および 組み合わせの手段により実現され且つ達成されるであろう。 上記の目標を達成し且つ本発明の目的に従って、実施され且つここに広く記述 されたように、本発明は、システムの利用者のカメラ・ベースの身振り入力を利 用する仮想現実環境を通じて3次元航行を認めるためのシステムを有し、下記を 含む:コンピュータが読取り可能な記憶手段;このシステムの利用者の身振りお よびこのシステムの利用者を取り巻く相互動作領域を示すビデオ信号を発生する ための手段;上記利用者の前に置かれるビデオ映像を表示するための手段;およ びシステム利用者の身体および主要身体部分の3次元位置を決定するための上記 のコンピュータが読取り可能な記憶手段に蓄積されたプログラムに従ってビデオ 信号を処理するための手段であって、このビデオ信号を処理するための手段はシ ステム利用者の身体および主要身体部分の3次元位置に基づくビデオ映像表示手 段上にシステム利用者と相互動作領域の3次元映像を構築し、上記のビデオ映像 表示手段は仮想現実環境内に3次元のグラフによる対象物を表示し、且つこのシ ステム利用者による動きは該システム利用者が仮想現実環境内を動いているよう に見えるようにするために上記のビデオ映像表示手段上に表示される3次元の対 象物の見掛け上の動きを可能にする。 この目標を一層達成するために、本発明は、上記のコンピュータが読取り可能 な記憶手段に蓄積されるプログラムを使用してマイクロプロセッサに接続された コンピュータが読取り可能な記憶装置およびビデオ映像表示装置を持つコンピュ ータ・システムの利用者のカメラ・ベースの身振りの入力を使用する仮想現実環 境を通じて3次元航行を可能にする方法を有し、この方法は下記の階程を有する :このシステムの利用者の身振りおよびこのシステムの利用者を取り巻く相互動 作領域を示すビデオ信号の発生の階程;システム利用者の身体および主要身体部 分の3次元位置を決定するためのマイクロプロセッサ中の信号の処理の階程;シ ステム利用者の身体および主要身体部分の3次元位置に基づくビデオ映像表示手 段上にシステム利用者と相互動作区域の3次元映像の構築のためのマイクロプロ セッサの使用の階程;および仮想現実環境内の3次元のグラフによる対象物のビ デオ映像表示装置上への表示へのマイクロプロセッサの使用の階程であり、上記 のシステム利用者による動きは該システム利用者が仮想現実環境内を動いている ように見えるようにするために上記のビデオ映像表示手段上に表示される3次元 の対象物の見掛け上の動きを可能にする。 上記のビデオ映像表示手段上に表示される対象物は、ビデオ映像表示装置上の 異なる位置および相互に異なる位置へ、対象物がビデオ映像表示スクリーンから 離れているいると考えられる距離に依存する量を移動する。この動きは、スクリ ーンに直交する利用者の頭部からの視線上を仮想現実環境内の基本的な位置から の移動に関連する。この移動は、各対象物に対して頭部の位置の検出された変化 から計算される。 更に、目標を達成するために、本発明は、コンピュータ読取り可能記憶装置に 蓄積された命令を使用するマイクロプロセッサに接続されるビデオ映像表示装置 を持つコンピュータ・システムの利用者のカメラ・ベースの身振り入力を使用す る仮想現実環境を通じて3次元航行を可能にするプログラムを蓄積するためのコ ンピュータ読取り可能記憶装置を有し、このコンピュータ読取り可能記憶装置は 下記を有する:システム利用者の身体および主要身体部分の3次元位置を決定す るためにこのシステム利用者の身振りを示すビデオ信号を処理するための命令; システム利用者の身体および主要身体部分の3次元位置に基づきビデオ映像表示 装置上にこのシステム利用者と相互動作区域の3次元映像を構築するための命令 ;およびビデオ映像表示装置上に仮想現実環境内の3次元のグラフによる対象物 の表示のための命令であって、上記のシステム利用者による動きは該システム利 用者が仮想現実環境内を動いているように見えるようにするために上記のビデオ 映像表示手段上に表示される3次元の対象物の見掛け上の動きを可能にする。 更に、目標を達成するために、本発明はマイクロプロセッサに接続されたビデ オ映像表示装置を持つコンピュータ・システムの利用者のカメラ・ベースの身振 り入力を使用する仮想現実環境を通じての3次元航行を可能にするコンピュータ ・プログラム製品を有し、このコンピュータ・プログラム製品は下記を有する: システム利用者の身体および主要身体部分の3次元位置を決定するためにこのシ ステム利用者の身振りを示すビデオ信号を処理するための手段;システム利用者 の身体および主要身体部分の3次元位置に基づくビデオ映像表示装置上のこのシ ステム利用者と相互動作区域の3次元映像を構築するための手段;およびビデオ 映像表示装置上に仮想現実環境内の3次元のグラフによる対象物の表示のための 手段であって、上記のシステム利用者による動きは該システム利用者が仮想現実 環境内を動いているように見えるようにするために上記のビデオ映像表示手段上 に表示される3次元の対象物の見掛け上の動きを可能にする。 上記の一般的記述および下記の詳細記述の両者はともに例示であり、且つ例示 に過ぎず請求項に示す本発明を制限するものでは無いことを理解されるべきであ る。 〔図面の簡単な説明〕 付随する図面は、この仕様に組み込まれ且つその一部を構成するが、本発明の 数個の実施例をその記述と共に示し、本発明の原理の説明に役立たせる。図面に おいて: 図1は利用者のカメラ・ベースのシルエットを使用する2次元映像を構築する ための従来からのシステムのブロック図であり; 図2は利用者のシルエットを利用する2次元映像を抽出するための従来からの ソフトウエア処理に含まれる階程を示す流れ線図であり; 図3は本発明の好ましい実施例による利用者のカメラ・ベースのシルエットを 使用する3次元映像を構築するためのシステムのブロック図であり; 図4は本発明の他の1つの好ましい実施例による利用者のカメラ・ベースのシ ルエットを使用する3次元映像を構築するためのシステムのブロック図であり; 図5は利用者と相互動作区域の2次元映像場面を図3および4に示される本発 明の好ましい実施例による相互動作区域内の3次元位置上にマッピングするため のソフトウエア処理における階程を示し; 図6は図3に示される3次元映像を構築するためのシステムを使用する本発明 のカメラ・ベースの身振り入力を使用の仮想現実環境を通じての3次元航行を可 能にするためのシステムを示すブロック図であり; 図7は図6に示す本発明のカメラ・ベースの身振り入力を使用の仮想現実環境 を通じての3次元航行を可能にするためのシステムに使用のソフトウエア処理に 使用される階程を示す流れ線図であり;且つ 図8は身体の高さ(H)が立っている人の高さである時に身体部分の長さを身 体の高さ(H)の比で示す生物測定データ表である。 〔好適な実施例の説明〕 本発明の現在の好ましい実施例に関し詳細に参照することとし、その例が付随 する図面に表示される。可能な限り、全ての図面を通して同一の参照番号を同一 または類似の部分を参照するために使用されるであろう。 好ましい実施例に従い、本発明はシステム利用者のカメラ・ベースの身振り入 力を使用する仮想現実環境を通じて3次元航行を可能にするシステムおよび方法 を含む。このシステムは、コンピュータ読取り可能記憶手段、このシステムの利 用者の身振りおよび該システム利用者を取り巻く相互動作区域を示すビデオ信号 を発生するための手段、およびビデオ映像を表示するための手段を有する。上記 のビデオ映像表示手段はシステム利用者の前面に位置する。更に、このシステム は、コンピュータ読取り可能記憶手段に蓄積されるプログラムに従って、このシ ステム利用者の身体および主要な身体の部分の3次元位置を決定するためにビデ オ信号を処理するための手段を有し、このビデオ信号処理手段は該システム利用 者の身体および主要な身体の部分の3次元位置に基づきビデオ映像表示手段上に システム利用者と相互動作区域の3次元映像を構築し、上記のビデオ映像表示手 段は仮想現実環境内の3次元のグラフで示す対象物を表示し、且つ上記のシステ ム利用者による動きは該システム利用者が仮想現実環境内を動いているように見 えるようにするために上記のビデオ映像表示手段上に表示される3次元の対象物 の見掛け上の動きを可能にする。 換言すれば、本発明は、システム利用者によりコンピュータ映像との相互動作 に基づく自然且つ直観のコンピュータ・利用者間インタフェースに導かれる。こ こで使用する「コンピュータ・ビジョン」は撮影機器がどのような対象物を見た かの項目でビデオ撮影機器から受信した情報を翻訳するためにコンピュータを使 用することである。コンピュータ・ビジョンは、利用者の身振り、身体の動き、 頭部の動き、目の動き、などの識別を可能とする。一方、識別された利用者の動 きは、マルチメディアおよび仮想現実応用と相互動作するために使用れる。特に 、本発明は、システム利用者のシルエットを2次元の映像座標に取り入れ、且つ このシステム利用者が相互動作区域において占める3次元映像座標にそれらを投 影する。 そのような手法はシステム利用者に要求することがなく、且つ作成するのに安 価である。もし利用者が大きなスクリーン表示機器を介して相互動作をしていれ ば、コンピュータはこのシステム利用者が何を眺め且つ何に的を絞っているかを 知りそれにより表示機器上の情報を操作する。更に、表示スクリーンの前に位置 するシステム利用者の位置および姿態は抽出され3次元のグラフィク・モデルす なわち仮想現実環境との相互動作に使用される。本発明のコンピュータ・ビジョ ン方式への身振り翻訳の追加は、コンピュータとの相互動作にリアリズムを追加 する。例えば、直観的な手の動きは仮想現実環境を通じての航行を許すためのコ ンピュータ・システムとのインタフェースとして使用できるであろう。 従来からのSGIベースのソフトウエアに依存するよりは、図3に最善に示され るように、むしろ本発明はカメラ・ベースの利用者インタフェース・システム50 を使用する。システム50は、ビデオカメラ56、ビデオ表示スクリーン54、および Philips社の“single board image processor(SBIP)”60を持つコンピュータ58 を有する。SBIP60は、Massachusetts Institute of TechnologyのMedia Labによ り提案された手法で遭遇した問題(1)‐(3)、およびこれにより2次元システムで 遭遇した問題を除去する。また、コンピュータ58は、3次元撮像ソフトウエアが 書き込まれたコンピュータ読取り可能記憶装置66を有す。SBIP60は、システム50 がシステム利用者の3次元の身体の動きを処理できるように、上記のソフトウエ アを使用する。本発明の3次元撮像ソフトウエアは、Massachusetts Institute of TechnologyにおけるMedia Labにより提案された手法で遭遇した問題(4)およ び(5)を正す。 Media Labによる手法での問題(6)への対処として、本発明はMassachusetts In stitute of Technologyの提案する「マジックミラー」パラダイム以外の幾つか の相互動作ビデオ環境(IVE)パラダイムを評価できる1個のIVEを供給する。本発 明は、下記の4個のIVEパラダイムを評価できる:(1)表示装置は、遠隔側のカメ ラ入力のライブ・ビデオを示し、システム利用者のビデオカメラ入力は表示装置 上のライブ・ビデオで構成される(これはMITの方法において「ミラー」効果と して知られている);(2)表示装置は遠隔側のライブ・ビデオを示し、利用者の カメラ入力は上記の表示装置上の前記のライブ・ビデオとは混合しない(これは 「ウィンドウ」効果として知られている);(3)表示装置は仮想現実の形でグラ フィック映像を示し、且つ該システム利用者のカメラ入力は表示装置上のグラフ ィック映像と混合される;ならびに(4)表示装置はグラフィック映像を示し、且 つ該システム利用者のカメラ入力は上記表示装置上のグラフィック映像とは混合 しない。 A.好適な実施例のハードウエア・システムの詳細な説明 ここに実施されたように、本発明の好ましい実施例のカメラ・ベースの身振り 入力を使用する仮想現実環境を通じて3次元航行を認めるためのシステムおよび 方法を図3に示す。特に、システム50はビデオ・カメラ56のようなビデオ信号を 発生する手段に電気的に結合された、コンピュータ58のようなビデオ信号を処理 する手段を有する。コンピュータ58は、ビデオ表示スクリーン54のようなビデオ 映像を表示するための手段に電気的に結合されている。ビデオ表示スクリーン54 は、システム利用者62が立っている相互動作区域52の前面に位置することが望ま しい。ビデオカメラ56は、利用者62の映像と相互動作区域52を電子的に読み、こ れらの映像に手法するビデオ信号を創り出し、且つこのビデオ信号をコンピュー タ58に供給する。 コンピュータ58は、IBMコンパティブル・パーソナル・コンピュータのような 典型的なマイクロプロセッサ・ベースの計算装置が望ましい。更に、コンピュー タ58は、ビデオカメラ56からのビデオ信号を受信するためにマイクロプロセッサ 60に接続された直列ポート64、およびソフトウエア・プログラムを書き込むこと が可能な従来からのコンピュータ読取り可能な記憶装置66を有する。マイクロプ ロセッサ66はPhilips社の“single board image processor”(SBIP)であること が望ましい。SBIP60は、利用者62の2次元映像場面と相互動作区域52をマッピン グし、且つ相互動作区域52内のシステム利用者62の3次元位置を計算するために 、コンピュータ記憶装置66内に符号化された(下記の)ソフトウエアを使用する 。また、SBIP60は、コンピュータ読取り可能な記憶装置66内に固定的に書き込ま れたか、または例えばフロッピー・ディスクまたはCD ROMのようなコンピュータ 読取り可能な外部記憶装置を介してそこへ一時的に書き込まれた応用プログラム を使用するであろう。更に、コンピュータ58は、遠隔制御のようなたの相互動作 機能からデータを受信するためにSBIP60に接続されたモード制御ポート68、およ びビデオ信号をビデオ表示スクリーンに届けるためのビデオ処理装置70を有する 。コンピュータ読取り可能な記憶装置66に書き込まれ且つSBIP60により使用され るソフトウエアは、システム利用者の輪郭を分離し、該利用者の身体および四肢 の位置を3次元映像空間内に決定し、且つ上記の身体および四肢の位置に手法す るビデオ信号をビデオ表示スクリーン54に発生する。 表示スクリーン54は、3次元のグラフィック情報を表示できる従来からのオー ジオ・ビジュアル・モニタから構成されるのが望ましい。本発明に使用される表 示スクリーン54およびビデオカメラ56の種類については任意であり、且つ本発明 のシステムの適用目的のみによって決定できるであろう。 好ましい実施例のカメラ・ベースの身振り入力を使用する3次元映像を構築す るためのシステムの一層好ましい実施例において:ビデオ表示スクリーン34はRe troscan社製RS125SWスクリーン(y方向に6フィートの高さとx方向に8フイー トの幅)を持つ後方投射式の池上社製のTPP1000/1500投射器;相互動作区域52は ビデオ表示スクリーン54の前面において(z方向に)11フイートと(x方向に) 12フイートであり;且つビデオカメラ56はソニー社製NTCSカメラである。 本発明のカメラ・ベースの身振り入力を使用する仮想現実環境を通して3次元 航行を認めるためのシステムの実施例の代替案を図4に示す。図示のように、こ の代替案は、図3を参照して記述されたものに類似して、ビデオカメラ56、SBIP 60を持つコンピュータ58およびコンピュータ読取り可能な記憶装置66を有する。 しかし、この代替案は、更にCD ROM上に書き込まれた応用プログラムを読み取り 且つそのような応用プログラムをSBIP60へ供給することができるコンパクトディ スク・リーダ84を有する。この代替案は、また該応用プログラムの制御機能のた めにリモート・コントローラ86を有する。更に、図3に示す実施例の表示スクリ ーンとは異なり、この代替案は、SBIP60からビデオ信号を受信し且つSBIP60へ情 報を送信することが可能な従来からのテレビジョン表示82を含む。 B.好適な実施例のソフトウエア・システムの詳細な説明 本発明の好適な実施例において、システム利用者および相互動作区域の2次元 映像場面とを相互動作区域内の3次元位置へのマッピングのためのソフトウエア 、ならびに好適な実施例と共に使用されるための応用プログラムを記述する。参 照を容易にするために、このソフトウエアおよび応用プログラムは1人のシステ ム利用者を参照して記述する。しかし、本発明のカメラ・ベースの身振り認識技 術は、複数の利用者により個別に各利用者を識別し且つそれにより各利用者と相 互動作することにより複数利用者においても利用できることが理解される。 図5は、システム利用者62の2次元映像画面を、システム利用者が図3及び図 4に示される本発明の好適な実施例に従って位置する部屋の3次元位置上にマッ ピングするためのソフトウエア処理において関係する階程を示す流れ線図である 。 3次元撮像ソフトウエアは、コンピュータ読取り可能な記憶装置66内に永久的に 書き込まれているか或いはフロッピー・ディスク、CD ROMまたは類似の記憶蓄積 手段を介して記憶装置66に一時的に書き込まれる。図示のように、3次元撮像ソ フトウエア処理は、図2に示される2次元抽出処理を使用して映像空間座標(u,v )中の利用者の2次元の頭部、手および脚の場面を抽出する第1階程100を有する 。座標(u,v)はビデオカメラ56の前面にある該利用者の2次元のx‐y平面に対応 する。3次元撮像処理は、更に部屋に関して3次元座標(x,y,z)におけるビデオ カメラ36の方向および位置を読み取る階程102を有する。該利用者の脚は床の上 にあると想定して、階程104においてソフトウエア処理は、該利用者の脚の2次 元の抽出した場面を、この部屋に関するカメラ56の(x,y,z)座標を使用して、該 使用者の脚の3次元座標(x,y,z)に投射する。階程106においては、ソフトウエア 処理は、頭部と手は脚の位置からz方向へ少しずれていると仮定し且つカメラ56 のこの部屋に関する(x,y,z)方向を使用して、該利用者の頭部と手の抽出した2 次元の場面を該利用者の頭部と手の3次元座標(x,y,z)に投射する。 3次元撮像処理は、更に高さで区別され且つコンピュータが読むことができる 記憶装置66に蓄積される(階程110に示される)生物測定データにアクセスする ために該利用者の測定した高さ(h)を使用する階程108を有する。本発明と共に使 用が可能な生物測定データ表の一例を図8に示す。他の生物測定データもD.Chaf fin,G.Anderssonによる“Occupationl Biomechanics”,2d ed.(1991);L.Farkas による“Anthropometry of Head and Face”,2d ed.(1994);およびN.A.S.A.によ る“Anthropometric Source Book”,vols.1-3(1978)に発表されているように使 用できるであろうから、本発明は図8に示される生物測定データに限定れない。 3次元撮像処理は、利用者の肩は、hが利用者の高さである時に,該利用者の頭 部の上端からこの利用者の首の付け根まででy方向に0.182hの距離ずれていて、 且つ利用者の背面の中心から肩甲骨の終端までの肩の幅はx方向に0.129hである と想定する。この撮像処理は、更に利用者の腕の長さは0.44hであると想定し、 且つこの想定した腕の長さ(0.44h)を、0.44hより大きい測定された腕の長さがビ デオカメラ56によって得られるまで使用する。ソフトウエア処理は、更に階程10 8において計算された想定された腕の長さ(0.44h)を使用して、手法する足からz 方向への各腕のずれを計算する階程112を有する。階程112において、各腕のz方 向への実際の長さは、想定された腕の長さから奥行を縮めて書く原理を使用して 計算される。ソフトウエア処理は、該利用者の頭部、手、および足の3次元位置 を応用プログラムへ供給する最終階程114を有する。 図6は、カメラ・ベースの身振り入力を使用して仮想現実環境中を航行するこ とを許すためのシステム90および図3に示される3次元映像を構築するためのシ ステムを示すブロック線図である。図6に示すように、航行システムの利用者62 は、仮想現実環境94のグラフイック映像を表示するビデオ表示スクリーン54の前 面に立つ。ビデオカメラ56は利用者62を眺め、且つSBIP60は利用者62の3次元映 像を抽出することにより且つ上記のように該利用者の頭部、脚、足などの利用者 の動きを識別することによりカメラ56から受信したデータを処理する。 このようにして、図6に示すシステムは、表示および仮想現実環境との相互動 作への沈入的手法および非沈入的手法の両者の長所を組み込む。本発明の航行シ ステムは、仮想現実環境を静的表示上に表示し且つ身体の動きを読み取るのに該 利用者の身体に特別な装置を搭載しない非沈入的概念を使用する。本発明の航行 システムは、また仮想現実環境の動きおよびその環境との相互動作を制御するの に該利用者の身体の動きを使用する沈入的概念を使用する。利用者がバーチャル 環境の実物大の表現を眺め且つ表示が該利用者の視野の大きな部分をカバーする ように、大型のスクリーン表示が使用されるのが好ましい。 本発明は、下記のようにして仮想現実環境94を通して航行することを可能にす る。利用者62が表示スクリーン54の前面を歩く時に、SBIP60は利用者62が立って いる位置を計算する。一歩前進することにより、利用者62は、利用者62が仮想現 実環境94を通して前方へ移動しているように見えるように、SBIP60に表示スクリ ーン上でグラフィック映像92を動かせるようにさせる。同様に左または右へ足を 動かすことにより、利用者62は、利用者62が仮想現実環境94を通して左または右 へ移動しているように見えるように、SBIP60に表示スクリーン上でグラフィック 映像92を動かせるようにさせる。利用者62が一歩後方へ移動する時に、SBIP60は グラフィック映像92の動きを停止させる。もし利用者62が第2歩を後方に取るな らば、利用者62が仮想現実環境94を通して後方に移動しているように見えるよう に、SBIP60はグラフィック映像92を反対方向に動かす。 柔軟性を増すために、追加の身振りが本発明の航行システム90と共に使用され るであろう。例えば、もし利用者がその右手を挙げれば、SBIP60はグラフィック 映像92が一定速度で時計方向回転させるようにして、利用者が仮想現実環境94に おいて時計方向に回転するように見えるようにする。右手を下げることにより、 利用者62はSBIP60に回転を停止するように命令し、SBIP60はグラフィック映像92 が回転を停止するようにさせる。利用者62は仮想現実環境94において見掛け上の 反時計方向の回転を開始または停止させるために同様の方法でその左手を使用で きる。更に、利用者62が腰を曲げれば、SBIP60はグラフィック映像92が回転して 利用者62の前の地面のバーチャル映像を見ることができる。本発明の航行システ ム90には、また下記の追加の身振りが加えられるであろう:(1)利用者62がその 手をグラフィックな対象物に到達させる時にそのグラフィックな対象物は取り上 げられるであろう;(2)「取り上げ」られたグラフィックな対象物は、押す、動 くなどの利用者の身振りにより操作されるであろう;且つ(3)左または右脚の動 きは利用者に仮想現実環境内を「歩く」ことを認めることと識別されるであろう 。 最後に、本発明の航行システムは一組の利用者を取り扱うように拡張され、そ こではシステムが利用者の大多数により示される方向に動くように、多数原理が 動きを制御するために使用されるであろう。他の方法として、多数利用者相互動 作が個別ベースで取り扱われ、異なる利用者に仮想現実環境において同時にそれ ぞれのグラフィックな対象物を選択し且つそれらと相互動作をすることを認める であろう。例えば、ビデオゲーム応用において、そのような設備は異なる利用者 に一組のバーチャル対抗者と1対1で戦うことを許すであろう。 図7は図6に示す本発明のカメラ・ベースの身振り入力を使用する仮想現実環 境を通して3次元航行を許すシステムに使用されるソフトウエア処理に関連する 階程を示す流れ線図である。この処理は、利用者の頭部と手の位置の1秒間サン プルを取るために、このシステム利用者の(図5の処理から供給される)抽出さ れた3次元データを使用する階程200を有する。この処理は、更にどちらかの手 の平均の高さ(平均の手の高さは1秒間サンプルから決定される)はこの利用者 の頭部の平均の高さ(平均の頭部の高さは1秒間サンプルから決定される)より 大きいか否かを決定する階程202を有する。どちらかの手の平均の高さが頭部の 平均の高さより大きくなければ、この処理は階程200に戻る。しかし、どちらか の手の平均の高さが頭部の平均の高さより大きければ、処理は階程204に進み、 そこでは利用者の足の位置(bx,bz)および現在の頭部の位置(bh)が測定される。 この処理は、更にこの利用者はまだ見えているか否かを決定する階程206を有 する。もしこの利用者が見えていないならば、この処理は階程200に戻る。もし この利用者が見えていれば、処理は階程208に進み、現在の足の位置(px,pz),現 在の頭部の位置、現在の高さ(ph)が測定され、且つ移動速度に関する変数(vxお よびvz),この利用者が体を曲げているかを決定する高さの変数(dy),および回 転移動(dryおよびdrz)がゼロに設定される。この処理は、下記の式により移動速 度を設定する次の階程210を有する:(1)(k)を利用者が仮想現実環境内を動く速 度を決定するシステムへの入力すなわち(k)が増加すればシステムの移動が早く なるとした時に、vx=k*(bx-px)および(2)vz=k*(by-pz)となる。(k)の値 は0.3から1.0が望ましい。次の階程212において、もし両方の手の高さが頭部の 高さ(bh)より大きい時は、高さ変数(dy)はダミーの変数(deltay)に設定される。 そうでなければ、階程212において、もし左手の高さのみが頭部の高さ(bh)より 大きければ、その時は回転動作(dry)はalphaに設定されるが、このalphaは仮想 現実環境の反時計方向回転が望ましいことを示す。alphaは+1.0度に設定される のが望ましい。もし右手の高さのみが頭部の高さ(bh)より大きければ、その時は 回転動作(dry)は-alphaに設定されるが、この-alphaは仮想現実環境の時計方向 回転が望ましいことを示す。-alphaは-1.0度に設定されるのが望ましい。環境は 繰り返し(iteration)のループ時間をベースに各繰り返し毎に回転されるので、A lphaおよびbetaは仮想現実環境の回転速度を決定する。このシステムは1秒間に 10繰り返しが発生することを意味する10Hzで動作することが好ましい。 この処理は、更にもし現在の高さ(bh)が頭部の高さ(bh)の80%以下であれば、 回転運動(drx)をダミーの変数(-beta)に且つ変数(bending)を“TRUE”に設定す る階程214を有するが、(-beta)は利用者の前の地面を見るための仮想現実環境 の回転を示し、且つ(bending)は利用者が曲げていることを示す。(-beta)は-2 .0度に設定するのが好ましい。しかし、(bending)が“TRUE”であり且つ現在 の高 さ(bh)が頭部の高さ(bh)の80%以上であれば、回転運動(drx)は(beta)に設定され (bending)は“FALSE”に設定されるが、(beta)は(-beta)の反対への回転を示す 。(beta)は+2.0度に設定されるのが好ましい。この処理は、ビデオ表示スクリー ン上において、仮想現実環境を(vx),(vz)および(dy)移動させ且つ(drx)および(d ry)回転させることを実行する最終階程216を有する。階程216の後、この処理は 該利用者がまだ見えるかを決定するために階程206に戻る。 C.好適な実施例で使用の応用プログラムの例 本発明は、本発明のカメラ・ベースの入力を使用する3次元映像を構築するた めのシステムおよび方法において使用が可能な応用プログラムの下記の例により 一層明確化されるであろう。これらの応用プログラムは本発明の好適な実施例で の使用の純粋な典型であることを意図し、且つ本発明の広い特徴の範囲を限定す ることを意図していない。本発明の好適な実施例は、利用者がグラフィックなコ ンピュータで発生された対象物を3次元で操作できるようにするために、この利 用者の3次元での位置の計算を必要とする如何なる応用にも適用できる。応用プ ログラムの例には、複数利用者の相互動作のための情報壁、電気通信応用、身振 りベースの遠隔制御、および家庭での運動と娯楽応用を含む。 1.複数利用者の相互動作のための情報壁 情報壁応用プログラムは、本発明の仮想現実を通して航行するためのシステム および方法を使用するであろう。この情報壁は、複数の利用者が相互動作をでき る、大型の、掲示板に類似の表示スクリーンを有し、高度に直観的に分かり且つ 相互動作が可能なシステムを提供する。そのような応用は、ショッピング・モー ル、博物館、図書館、美術館、および類似の環境において使用されるのが好まし い。例えば、ショッピング・モールにおいて、情報壁はこのモールに入る顧客は 壁を活性化するにはそれから或る距離内に立つだけでよいようにする。この情報 壁は、その前に立っている人の位置と高さに、そのモールの全体の地図を表示す る。多数の情報アイコンがこの地図の周辺に展示され、顧客はポインティングに より選択できる。アイコンをポインティングすることにより、この情報壁は、或 る商店、便所、その他のような情報の各種の断片を表示する。情報壁はまた広告 形態を支援するであろう。例えば、地図上の商店をポインティングすることによ り、顧客はこの商店により提供される製品およびサービスを述べる短いビデオ片 を見せられるでろう。この情報壁はまた利用者が壁に沿って歩くと表示がそれに 従うことを可能にして、顧客が行きたい場所に到着できるように正しい方向を指 摘する。 2.電気通信応用 本発明の好適な実施例はまた電気通信応用にも使用できるであろう。現在、帯 域問題がビデオによる消費者通信を妨げている。本発明により、利用者は実際の 環境ではなく共用の仮想現実世界を介して通信できる。利用者のシルエットから のビデオのみが伝送されればよく、仮想現実環境において示され、ここで本発明 の好適な実施例は利用者のシルエットを抽出する。この手法は利用者に(本発明 はそれらを決定できるので、正確な位置と姿態において)コンピュータにより発 生された身体を示し頭部付近のビデオのみを伝送することにより一層簡易化され るであろう。 複数利用者のテレビ会議もまた本発明により支援されるであろう。現在、利用 者はテレビ会議の利用者から利用者へとカメラをパンしたりズームする必要があ る。本発明は、商用テレビ会議の一部として使用できる可能性があり、そこでは カメラはテレビ会議の出席者の身振りにより制御される。例えば、カメラを出席 者に向けることによりカメラはその出席者に焦点を合わせ、あなたが手を挙げれ ばカメラをあなたに向け、あなたに焦点を合わせる、などが行われる。 3.身振りベースの遠隔制御 本発明に好適な実施例は、また現在遠隔制御ユニットにより供給されている機 能を置き換えて、統合家庭内娯楽・通信システムのインフラストラクチャの一部 として使用できる。例えば、利用者の室内の位置および身体の姿勢と身振りは全 て本発明によりアクセスできる。CDプレーヤをポインティングすればテレビジョ ン上にCDプレーヤの制御を表示でき、このテレビジョン上のメニューをポインテ ィングすることにより、それらのものを選択できる。 もし1台以上のテレビジョン(またはディスプレ)が部屋にあれば利用者の位 置が何れのテレビジョンを使用するかを決定できるであろう。もし1人以上の利 用者が存在すれば、本発明は異なる利用者により発出される別々の制御を可能に するかまたは異なる制御に対する権利の階層を構築することも考えられる。 更に、従来からのリモートコントローラは本発明と共に使用でき、そこでは本 発明は遠隔制御の機能を単純化し、例えば4個のボタンのみを持つことになるで あろう。本発明によって、利用者はCDプレーヤにリモートコントローラをポイン ティングする(または、それの近くに立つ)、それによりこのリモートコントロ ーラはCDプレーヤのリモートコントローラになる。他の方法として、利用者がテ レビジョンの前に座るとリモートコントローラはチャネル切換器として機能する であろう。最後に、リモートコントローラは権限の階層を確立するのに使用され 、そこでは本発明の好適な実施例ではリモートコントローラを手に持っている使 用者のみに応答するであろう。 4.家庭での運動と娯楽応用 本発明の好適な実施例は、家庭での運動用CDROMプログラムを支援するように 使用され、そこでは利用者は自分自身の有名なトレイナーを買うことができるで あろう。本発明は、利用者の部屋における位置を家庭での運動プログラムに与え るので、トレイナーは常に利用者の方向を眺めるであろう。本発明は、また運動 の中間で利用者が運動を停止する時を決定でき、それによりトレイナーは他の運 動実施法を勧めることができる。トレイナーは利用者が運動をしている方法を批 評して、有用な情報を提供することも可能である。 家庭での運動への応用の他の別の特徴は、利用者のビデオ入力をトレイナーの グラフィックに発生された映像とを組み合わせ、両方をテレビジョン上に表示す ることであろう。そのような特徴は、利用者に自分自身の行動を見る利点を与え 、且つトレイナーに利用者のビデオ映像の部分を指摘したりまたは触れることを 可能にして、例えばあなたの脚をもっと高く挙げなさいというような注意を発す ることを可能とする。「バーチャル」ジョギングのような他の運動への応用、仮 想現実においてダンスを学ぶような教育への応用、および相互動作のゲームのよ うな娯楽への応用は、また本発明の好適な実施例と共に使用できるでろう。 本発明のカメラ・ベースの身振り入力を使用する3次元映像を構築するための システムおよび方法において、ならびに本発明の範囲および精神から離れること なくこのシステムを構築するに当たり、各種の改良および変形が作成できること は当業者に明らかであろう。一例として、このシステムおよび方法は、映像と利 用者の3次元構築を要求し且つ利用者と3次元映像間に相互動作を要求する他の 応用プログラムと共に使用することができる。更に、図4に示されるCDリーダ84 およびリモートコントローラ86は、図3に示すシステムと共に使用できるであろ う。最後に、システム利用者からの音声認識制御および表示スクリーンへの音響 効果を供給するために、音響機能が好適な実施例に組み込まれるであろう。 本発明の他の実施例は、ここに公開した本発明の仕様書および実行を考慮すれ ば当業者には明らかであろう。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09B 9/00 G09B 9/00 Z 【要約の続き】 3次元対象物の見掛け上の動きを許容する。

Claims (1)

  1. 【特許請求の範囲】 1.システム利用者のカメラ・ベースの身振り入力を使用して仮想現実環境を通 しての3次元航行を認めるシステムにおいて、 コンピュータが読取り可能な記憶手段; 上記システム利用者の身振りおよびシステム利用者を取り巻く相互動作区域 を示すビデオ信号を発生するためのビデオ信号発生手段; 上記システム利用者の前に配置され、ビデオ映像を表示するためのビデオ映 像表示手段;ならびに コンピュータが読取り可能な記憶手段による、上記システム利用者の身体お よび主要身体部分の3次元位置を決定するための、そこにおいてビデオ信号処 理手段は上記システム利用者の身体および主要身体部分の3次元位置に基づき システム利用者および相互動作区域の3次元映像をビデオ映像表示手段上に構 築し、このビデオ映像表示手段は仮想現実環境内に3次元のグラフィック対象 物を表示し、且つシステム利用者が仮想現実環境内を通して動くように見える ようにシステム利用者による動きは上記ビデオ映像表示手段上に表示されると ころの3次元対象物の見掛け上の動きを許容するものである映像信号を処理す るためのビデオ信号処理手段; を有することを特徴とするシステム利用者のカメラ・ベースの身振り入力を使 用する仮想現実環境を通して3次元航行を認めるシステム。 2.請求項1に記載のシステム利用者のカメラ・ベースの身振り入力を使用して 仮想現実環境を通しての3次元航行を認めるシステムにおいて、 上記システム利用者が前進することを該システムが検出する時に、該システ ム利用者が上記の仮想現実環境内を通して前進するように見えるように、上記 ビデオ信号処理手段は上記ビデオ映像表示手段上に3次元のグラフィック対象 物を動かせ;且つ 上記システム利用者が左または右へ歩を進める時に、該システム利用者が上 記の仮想現実環境内を通して左または右へ動くように見えるように、上記ビデ オ信号処理手段は上記ビデオ映像表示手段上に3次元のグラフィック対象物を 動かせる; ことを特徴とするシステム利用者のカメラ・ベースの身振り入力を使用する仮 想現実環境を通して3次元航行を認めるシステム。 3.請求項2に記載のシステムにおいて、 上記システム利用者が第1歩を後退することを該システムが検出する時に、 上記ビデオ信号処理手段は該ビデオ映像表示手段上の3次元のグラフィック対 象物の動きを停止させ;且つ 上記システム利用者が第2歩を後退することを該システムが検出する時に、 該システム利用者が上記の仮想現実環境内を通して後方へ動くように見えるよ うに、上記ビデオ信号処理手段は上記ビデオ映像表示手段上に3次元のグラフ ィック対象物を動かせる; ことを特徴とするシステム利用者のカメラ・ベースの身振り入力を使用する仮 想現実環境を通して3次元航行を認めるシステム。 4.請求項1に記載のシステム利用者のカメラ・ベースの身振り入力を使用して 仮想現実環境を通しての3次元航行を認めるシステムにおいて: 上記システム利用者が第1の手を挙げる時に、該システム利用者が上記の仮 想現実環境内を通して第l方向へ回転するように見えるように、上記ビデオ信 号処理手段は上記ビデオ映像表示手段上で3次元のグラフィック対象物を第1 方向へ回転させ;且つ上記システム利用者が第1の手を下げる時に回転が停止 する; ことを特徴とするシステム利用者のカメラ・ベースの身振り入力を使用する仮 想現実環境を通して3次元航行を認めるシステム。 5.請求項1に記載のシステム利用者のカメラ・ベースの身振り入力を使用して 仮想現実環境を通しての3次元航行を認めるシステムにおいて、 上記システム利用者が腰を曲げる時に、該システム利用者の前にある3次元 のグラフィック対象物がこのシステム利用者によって見えるように上記ビデオ 信号処理手段は上記ビデオ映像表示手段上で3次元のグラフィック対象物を回 転させることを特徴とするシステム利用者のカメラ・ベースの身振り入力を使 用する仮想現実環境を通して3次元航行を認めるシステム。 6.コンピュータ読取り可能記憶装置およびこのコンピュータ読取り可能記憶装 置に蓄積されるプログラムを使用するマイクロプロセッサに接続されたビデオ 映像表示装置を持つコンピュータ・システムの利用者のカメラ・ベースの身振 り入力を使用して仮想現実環境を通しての3次元航行を認める方法において、 この方法は: システム利用者の身振りおよび該システム利用者を取り巻く相互動作区域を 示すビデオ信号を発生するための階程; 上記システム利用者の身体および主要身体部分の3次元位置を決定するため にマイクロプロセッサにおいてビデオ信号を処理する階程; 上記システム利用者の身体および主要身体部分の3次元位置に基づき該シス テム利用者および相互動作区域の3次元映像を構築するためにマイクロプロセ ッサを使用する階程;および そこにおいては上記システム利用者が仮想現実環境内を通して動くように見 えるように該システム利用者による動きは上記ビデオ映像表示手段上に表示さ れる3次元対象物の見掛けの動きを許容するところの、仮想現実環境内の3次 元のグラフィック対象物をビデオ映像表示装置上に表示するためにマイクロプ ロセッサを使用する階程; を有することを特徴とするシステム利用者のカメラ・ベースの身振り入力を使 用する仮想現実環境を通して3次元航行を認める方法。 7.請求項6に記載のコンピュータ・システムの利用者のカメラ・ベースの身振 り入力を使用して仮想現実環境を通しての3次元航行を認める方法において、 この方法は: 上記システム利用者が前進する時に、該システム利用者が上記の仮想現実環 境内を通して前進するように見えるように、上記ビデオ信号処理手段は上記ビ デオ映像表示手段上に3次元のグラフィック対象物を動かせ;且つ 上記システム利用者が左または右へ歩を進める時に、該システム利用者が上 記の仮想現実環境内を通して左または右へ動くように見えるように、上記ビデ オ信号処理手段は上記ビデオ映像表示手段上に3次元のグラフィック対象物を 動かせる; ことを特徴とするシステム利用者のカメラ・ベースの身振り入力を使用する仮 想現実環境を通して3次元航行を認める方法。 8.請求項7に記載の方法において、 上記システム利用者が第1歩を後退する時に、上記ビデオ信号処理手段は上 記ビデオ映像表示手段上の3次元のグラフィック対象物の動きを停止させ;且 つ 上記システム利用者が第2歩を後退する時に、システム利用者が上記の仮想 現実環境内を通して後方へ動くように見えるように、該ビデオ信号処理手段は 該ビデオ映像表示手段上に3次元のグラフィック対象物を動かせる; ことを特徴とするシステム利用者のカメラ・ベースの身振り入力を使用する仮 想現実環境を通して3次元航行を認める方法。 9.請求項6に記載のシステム利用者のカメラ・ベースの身振り入力を使用して 仮想現実環境を通しての3次元航行を認めるシステムにおいて、 上記システム利用者が第1の手を挙げる時に、該システム利用者が上記の仮 想現実環境内を通して第1方向へ回転するように見えるように、上記ビデオ信 号処理手段は上記ビデオ映像表示手段上で3次元のグラフィック対象物を上記 の第1方向へ回転させ;且つ該システム利用者が第1の手を下げる時に時計方 向の回転が停止する; ことを特徴とするシステム利用者のカメラ・ベースの身振り入力を使用する仮 想現実環境を通して3次元航行を認める方法。 10.請求項6ないし9のうちのいずれか1項に記載の方法をコンピュータ・シス テム上で実行するためのプログラムを有するコンピュータが読取り可能な記憶 装置。
JP53468399A 1997-12-23 1998-12-07 カメラ・ベースの身振り入力を使用の仮想現実環境を通じての3次元航行を認めるためのシステムおよび方法 Pending JP2001517344A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/996,678 US6181343B1 (en) 1997-12-23 1997-12-23 System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US08/996,678 1997-12-23
PCT/IB1998/001965 WO1999034327A2 (en) 1997-12-23 1998-12-07 System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs

Publications (1)

Publication Number Publication Date
JP2001517344A true JP2001517344A (ja) 2001-10-02

Family

ID=25543182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53468399A Pending JP2001517344A (ja) 1997-12-23 1998-12-07 カメラ・ベースの身振り入力を使用の仮想現実環境を通じての3次元航行を認めるためのシステムおよび方法

Country Status (5)

Country Link
US (1) US6181343B1 (ja)
EP (1) EP0976106A2 (ja)
JP (1) JP2001517344A (ja)
KR (1) KR20000075608A (ja)
WO (1) WO1999034327A2 (ja)

Families Citing this family (429)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US6765566B1 (en) * 1998-12-22 2004-07-20 Che-Chih Tsao Method and apparatus for displaying volumetric 3D images
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6677938B1 (en) * 1999-08-04 2004-01-13 Trimble Navigation, Ltd. Generating positional reality using RTK integrated with scanning lasers
US20010030668A1 (en) * 2000-01-10 2001-10-18 Gamze Erten Method and system for interacting with a display
GB0012275D0 (en) * 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
FI20001429A (fi) * 2000-06-15 2001-12-16 Nokia Corp Vaihtoehdon valitseminen
US20020071277A1 (en) * 2000-08-12 2002-06-13 Starner Thad E. System and method for capturing an image
EP1311803B8 (de) * 2000-08-24 2008-05-07 VDO Automotive AG Verfahren und Navigationsgerät zum Abfragen von Zielinformation und zum Navigieren in einer Kartenansicht
JP3760755B2 (ja) * 2000-10-11 2006-03-29 日産自動車株式会社 音声入力装置
US6728582B1 (en) * 2000-12-15 2004-04-27 Cognex Corporation System and method for determining the position of an object in three dimensions using a machine vision system with two cameras
US7925703B2 (en) * 2000-12-26 2011-04-12 Numedeon, Inc. Graphical interactive interface for immersive online communities
FR2819920B1 (fr) * 2001-01-22 2003-04-04 France Telecom Procede et dispositif d'animation d'avatar pour assurer la communication dans un environnement virtuel collaboratif non-immersif
US6704447B2 (en) * 2001-02-21 2004-03-09 Justsystem Corporation Method and apparatus for using illumination from a display for computer vision based user interfaces and biometric authentication
US7197459B1 (en) 2001-03-19 2007-03-27 Amazon Technologies, Inc. Hybrid machine/human computing arrangement
US6498970B2 (en) 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
US7007236B2 (en) * 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20030227453A1 (en) * 2002-04-09 2003-12-11 Klaus-Peter Beier Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
EP1567988A1 (en) * 2002-10-15 2005-08-31 University Of Southern California Augmented virtual environments
US20040100484A1 (en) * 2002-11-25 2004-05-27 Barrett Peter T. Three-dimensional television viewing environment
US7511710B2 (en) 2002-11-25 2009-03-31 Microsoft Corporation Three-dimensional program guide
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
ES2231035B1 (es) * 2003-10-30 2006-07-01 Frontera Azul Systems, S.L. Sistema y procedimiento de comunicacion basada en realidad virtual.
US7554545B2 (en) * 2003-11-04 2009-06-30 Ssd Company Limited Drawing apparatus operable to display a motion path of an operation article
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US20060053097A1 (en) * 2004-04-01 2006-03-09 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US20060122983A1 (en) * 2004-12-03 2006-06-08 King Martin T Locating electronic instances of documents based on rendered instances, document fragment digest generation, and digest based document fragment determination
US20060041605A1 (en) * 2004-04-01 2006-02-23 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US7812860B2 (en) * 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US20060041484A1 (en) * 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20050255434A1 (en) * 2004-02-27 2005-11-17 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7990556B2 (en) * 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060098900A1 (en) * 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US20070300142A1 (en) * 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20080313172A1 (en) * 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US8081849B2 (en) * 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US8713418B2 (en) * 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8874504B2 (en) * 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
CA2578653A1 (en) 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7945469B2 (en) * 2004-11-16 2011-05-17 Amazon Technologies, Inc. Providing an electronic marketplace to facilitate human performance of programmatically submitted tasks
US8170897B1 (en) 2004-11-16 2012-05-01 Amazon Technologies, Inc. Automated validation of results of human performance of tasks
US7885844B1 (en) 2004-11-16 2011-02-08 Amazon Technologies, Inc. Automatically generating task recommendations for human task performers
US7881957B1 (en) 2004-11-16 2011-02-01 Amazon Technologies, Inc. Identifying tasks for task performers based on task subscriptions
US20060106774A1 (en) * 2004-11-16 2006-05-18 Cohen Peter D Using qualifications of users to facilitate user performance of tasks
US8005697B1 (en) 2004-11-16 2011-08-23 Amazon Technologies, Inc. Performing automated price determination for tasks to be performed
US8046250B1 (en) 2004-11-16 2011-10-25 Amazon Technologies, Inc. Facilitating performance by task performers of language-specific tasks
US7773074B2 (en) * 2005-06-28 2010-08-10 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging three dimensional navigation device and methods
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7612786B2 (en) * 2006-02-10 2009-11-03 Microsoft Corporation Variable orientation input mode
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
US8024211B1 (en) 2006-03-31 2011-09-20 Amazon Technologies, Inc. Automatically generating assessments of qualification relevance and qualification issuer credibility
US8139059B2 (en) * 2006-03-31 2012-03-20 Microsoft Corporation Object illumination in a virtual environment
US20070284429A1 (en) * 2006-06-13 2007-12-13 Microsoft Corporation Computer component recognition and setup
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
US8001613B2 (en) * 2006-06-23 2011-08-16 Microsoft Corporation Security using physical objects
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US7899694B1 (en) 2006-06-30 2011-03-01 Amazon Technologies, Inc. Generating solutions to problems via interactions with human responders
EP2584494A3 (en) 2006-08-03 2015-02-11 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
EP2067119A2 (en) 2006-09-08 2009-06-10 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
EP2067102A2 (en) * 2006-09-15 2009-06-10 Exbiblio B.V. Capture and display of annotations in paper and electronic documents
US9697486B2 (en) * 2006-09-29 2017-07-04 Amazon Technologies, Inc. Facilitating performance of tasks via distribution using third-party sites
US7945470B1 (en) 2006-09-29 2011-05-17 Amazon Technologies, Inc. Facilitating performance of submitted tasks by mobile task performers
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
US8793756B2 (en) * 2006-12-20 2014-07-29 Dst Technologies, Inc. Secure processing of secure information in a non-secure environment
US7801332B2 (en) * 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US7877706B2 (en) * 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US20110145068A1 (en) * 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US20090119604A1 (en) * 2007-11-06 2009-05-07 Microsoft Corporation Virtual office devices
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US9026483B1 (en) 2007-11-19 2015-05-05 Amazon Technologies, Inc. Automatic prediction of aspects of human task performance
US8121888B1 (en) 2007-12-14 2012-02-21 Amazon Technologies, Inc. Facilitating improvement of results of human performance of tasks
US20090166684A1 (en) * 2007-12-26 2009-07-02 3Dv Systems Ltd. Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk
US10438152B1 (en) 2008-01-25 2019-10-08 Amazon Technologies, Inc. Managing performance of human review of media data
US8113991B2 (en) * 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
US8219432B1 (en) 2008-06-10 2012-07-10 Amazon Technologies, Inc. Automatically controlling availability of tasks for performance by human users
US8385557B2 (en) * 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8577084B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8588465B2 (en) * 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8682028B2 (en) * 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8577085B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
CN102317977A (zh) * 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
WO2010096193A2 (en) * 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8660303B2 (en) * 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
GB2470072B (en) * 2009-05-08 2014-01-01 Sony Comp Entertainment Europe Entertainment device,system and method
EP2430614B1 (de) * 2009-05-11 2013-09-18 Universität zu Lübeck Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8330134B2 (en) * 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) * 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) * 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8458010B1 (en) 2009-10-13 2013-06-04 Amazon Technologies, Inc. Monitoring and enforcing price parity
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9081799B2 (en) * 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) * 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) * 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8422769B2 (en) * 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8514269B2 (en) * 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US9901828B2 (en) 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US8791949B1 (en) * 2010-04-06 2014-07-29 The Pnc Financial Services Group, Inc. Investment management marketing tool
US8780115B1 (en) * 2010-04-06 2014-07-15 The Pnc Financial Services Group, Inc. Investment management marketing tool
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
FR2960986A1 (fr) * 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
US8966400B2 (en) * 2010-06-07 2015-02-24 Empire Technology Development Llc User movement interpretation in computer generated reality
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9262015B2 (en) * 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
DE102010040699A1 (de) * 2010-09-14 2012-03-15 Otto-Von-Guericke-Universität Magdeburg Medizinische Fakultät Einrichtung zur Bestimmung der Antizipationsfähigkeit von Athleten im Sport
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
JP2012181704A (ja) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US8923686B2 (en) 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8657683B2 (en) 2011-05-31 2014-02-25 Microsoft Corporation Action selection gesturing
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8740702B2 (en) 2011-05-31 2014-06-03 Microsoft Corporation Action trigger gesturing
US8845431B2 (en) 2011-05-31 2014-09-30 Microsoft Corporation Shape trace gesturing
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
US8961315B1 (en) 2011-06-28 2015-02-24 Amazon Technologies, Inc. Providing tasks to users during electronic game play
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9939888B2 (en) * 2011-09-15 2018-04-10 Microsoft Technology Licensing Llc Correlating movement information received from different sources
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
CN102426480A (zh) * 2011-11-03 2012-04-25 康佳集团股份有限公司 一种人机交互系统及其实时手势跟踪处理方法
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
WO2013119221A1 (en) * 2012-02-08 2013-08-15 Intel Corporation Augmented reality creation using a real scene
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
KR101850179B1 (ko) 2012-05-08 2018-04-18 노키아 테크놀로지스 오와이 일상 디바이스들을 통해 몰입적 상호작용을 제공하기 위한 방법 및 장치
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US8532675B1 (en) 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US10175750B1 (en) * 2012-09-21 2019-01-08 Amazon Technologies, Inc. Projected workspace
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9985943B1 (en) 2013-12-18 2018-05-29 Amazon Technologies, Inc. Automated agent detection using multiple factors
US10438225B1 (en) 2013-12-18 2019-10-08 Amazon Technologies, Inc. Game-based automated agent detection
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9684369B2 (en) 2014-04-08 2017-06-20 Eon Reality, Inc. Interactive virtual reality systems and methods
US9542011B2 (en) 2014-04-08 2017-01-10 Eon Reality, Inc. Interactive virtual reality systems and methods
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
CN113050802A (zh) * 2014-12-18 2021-06-29 脸谱科技有限责任公司 用于在虚拟现实环境中导航的方法、系统及设备
US10725297B2 (en) * 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US10726625B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US20190121515A1 (en) * 2015-10-15 2019-04-25 Sony Corporation Information processing device and information processing method
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10277836B2 (en) * 2016-03-07 2019-04-30 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
KR20170116437A (ko) * 2016-04-11 2017-10-19 전자부품연구원 스키 시뮬레이터에서 사용자 자세 인식 장치 및 그 방법
US10249084B2 (en) 2016-06-10 2019-04-02 Microsoft Technology Licensing, Llc Tap event location with a selection apparatus
US10115237B2 (en) * 2016-09-28 2018-10-30 Redzone Robotics, Inc. Virtual reality display of pipe inspection data
US10937240B2 (en) 2018-01-04 2021-03-02 Intel Corporation Augmented reality bindings of physical objects and virtual objects
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN111167115A (zh) * 2018-11-09 2020-05-19 致伸科技股份有限公司 交互式游戏系统
CA3028220C (en) * 2018-12-20 2020-08-18 Cae Inc. Dynamically adjusting image characteristics in real-time
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality
CN115840507B (zh) * 2022-12-20 2024-05-24 北京帮威客科技有限公司 一种基于3d图像控制的大屏设备交互方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
JP2534617B2 (ja) 1993-07-23 1996-09-18 株式会社エイ・ティ・アール通信システム研究所 人物像の実時間認識合成方法
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5872575A (en) * 1996-02-14 1999-02-16 Digital Media Interactive Method and system for the creation of and navigation through a multidimensional space using encoded digital video

Also Published As

Publication number Publication date
US6181343B1 (en) 2001-01-30
WO1999034327A3 (en) 1999-09-10
EP0976106A2 (en) 2000-02-02
WO1999034327A2 (en) 1999-07-08
KR20000075608A (ko) 2000-12-26

Similar Documents

Publication Publication Date Title
US6181343B1 (en) System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
Starner et al. The perceptive workbench: Computer-vision-based gesture tracking, object tracking, and 3D reconstruction for augmented desks
US8081822B1 (en) System and method for sensing a feature of an object in an interactive video display
US9244533B2 (en) Camera navigation for presentations
US20170352188A1 (en) Support Based 3D Navigation
Leibe et al. Toward spontaneous interaction with the perceptive workbench
EP0961965A2 (en) Method and system for gesture based option selection
Rosenblum Virtual and augmented reality 2020
CN111930223A (zh) 用于观看计算机生成的环境并与其互动的可移动显示器
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
CN116310152A (zh) 基于unity平台的步进式虚拟场景搭建、漫游方法及虚拟场景
McMenemy et al. A hitchhiker's guide to virtual reality
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
JP3341734B2 (ja) 映像表示装置
US20220405996A1 (en) Program, information processing apparatus, and information processing method
Pinhanez Creating ubiquitous interactive games using everywhere displays projectors
JPH10214344A (ja) インタラクティブ表示装置
Sparacino et al. Browsing 3-D spaces with 3-D vision: body-driven navigation through the Internet city
Paelke et al. Vision-based interaction-a first glance at playing MR games in the real-world around us
Gu et al. Analysis of the Treadmill Utilization for the Development of a Virtual Reality Walking Interface
Unberath et al. Augment Yourself: Mixed Reality Self-Augmentation Using Optical See-through Head-mounted Displays and Physical Mirrors
Naaz et al. A Novel Distributed Multimodality Interaction Framework for Augmented Reality Objects Using Internet of Things
Vosinakis Mid-air interaction vs smartphone control for first-person navigation on large displays: A comparative study
WO2016057997A1 (en) Support based 3d navigation