JP2002213947A - ターゲット位置を測定するシステム及びその方法 - Google Patents
ターゲット位置を測定するシステム及びその方法Info
- Publication number
- JP2002213947A JP2002213947A JP2001247516A JP2001247516A JP2002213947A JP 2002213947 A JP2002213947 A JP 2002213947A JP 2001247516 A JP2001247516 A JP 2001247516A JP 2001247516 A JP2001247516 A JP 2001247516A JP 2002213947 A JP2002213947 A JP 2002213947A
- Authority
- JP
- Japan
- Prior art keywords
- target
- light
- light sources
- measuring
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Position Input By Displaying (AREA)
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
に、部屋若しくは小領域におけるターゲットの投射面に
対する位置を測定する、システムを提供する。 【解決手段】 このシステムは、複数の光源と、少なく
とも2つの面を有しており光源がこの2つの面のうちの
1つの面を照射することができるように方向付けされて
いる投射面(15)と、光源と投射面の1つの面との間であ
り且つ投射面から離れたところに全体として位置するタ
ーゲットと、投射面のターゲットと反対側に位置してお
り光源のそれぞれによって投射面上に投じられたターゲ
ットからの影(25,30)を検出するように構成されている
画像化デバイス(35)とを備える。
Description
の追跡及びジェスチャーの認識に関する。特に、本発明
は、投射スクリーン上に投射された画像を変化させるた
めに、部屋若しくは小領域におけるターゲットの投射ス
クリーンに対する位置を測定する、システム及び方法に
関する。本発明によれば、例えば、ターゲット位置によ
り制御されて、ポインタ又はハイライト領域が提供され
る。
トにおいて用いられる場合、「ターゲット」という語
は、オブジェクト若しくは人(これらの語については、
すぐ次に定義する)、又は、オブジェクト若しくは人の
一部を指す。「オブジェクト」という語は、無生物を指
す。「人」という語は、人間を指す。
しては、わずかに異なる2つの2次元画像に基づいた3
次元画像である、立体(両眼視)画像による方法があ
る。例えば、コックス(Cox)に対して発行された米国特
許第5,383,013号(以下、「コックス」とい
う)には、情景の立体映像(両眼視像)の左右の画像に
おいて対応する特徴を測定する方法が開示されている。
まず、情景の左右の画像において対応するオブジェクト
間のずれ(視差)を測定する。このずれを、1組のカメ
ラの既知の離間距離と共に用いることによって、ターゲ
ットがこの1組のカメラから離れている距離を測定す
る。コックスに開示されているこの方法の1つの欠点
は、2台のカメラを用いなくてはならないという点であ
り、これは、コストを著しく増大させると共に、システ
ムを複雑化する。特に、このコックスは、ずれを測定す
るために画像特徴を相互相関させなくてはならないの
で、計算処理の負荷が大きくなる。
(Parker)らに対して発行された米国特許第5,465,
144号(以下、「パーカー」という)に開示されてい
る。このパーカーには、カメラで人を追跡する方法が開
示されている。人は赤外線ビーコンを装着し、この赤外
線ビーコンを追跡する。人が能動デバイスを装着する必
要があるという欠点に加えて、このシステムでは、人が
カメラの方に向いていないと問題が生じるであろう。
000年12月に出願された、レイベ(Leibe)らによ
る、「知覚ワークベンチ:半浸漬式仮想環境における自
発的で自然な対話に向けて」(“The Perceptive Workbe
nch: Towards Spontaneous andNatural Interaction in
Semi-Immersive Virtual Environments”)という発明
の名称の特許出願(以下、「レイベ」という)に記載さ
れており、これは、www.cc.gatech.edu/ccg/projects/p
erceptive/perceptive_cga/perceptive_cga.htmlにおい
て見ることができる。このレイベには、複数の近赤外光
源を机の下に配置するシステムが開示されている。全て
の可視光を遮るフィルタを取り付けたカメラも、机の下
に配置する。この机の下側を、近赤外光源によって照射
する。机の表面付近にあるもの全てがこの光を反射する
ため、これらのものをディスプレイ表面の下にあるカメ
ラによって観察することができる。輝度の閾値処理と背
景差分とを組み合わせて用いることによって、カメラ画
像の関係領域を抽出及び解析する。レイベに開示されて
いるこの方法の1つの欠点は、机の表面付近にあるター
ゲット位置しか測定できないという点である。
するシステム及び方法も開示されている。机の表面を照
射する光源を、机の上側に配置する。赤外線フィルタを
取り付けたカメラを、やはり机の下側に配置する。人が
机の前に立って、机の上で腕を動かすと、机の表面上に
影が投じられる。カメラは、光源から発せられた近赤外
光のうちの、人の腕によって遮られた領域を除く全ての
部分を観察する。次に、このレイベでは、輝度の閾値処
理と背景差分とを用いることにより、カメラによって記
録された画像において人の腕を背景と区別する。レイベ
に開示されているこの方法の1つの欠点は、腕の影は常
に画像境界に接すると仮定される点である。ゆえに、腕
の影が画像境界に接している領域の中央が腕のおよその
起点と見なされ、肩から最も離れている点が指先と見な
される。このレイベは、人の腕部分のみを追跡する必要
がある状況に限定される。
スクリーン上に投射された画像を変化させるために、部
屋若しくは小領域におけるターゲットの投射スクリーン
に対する位置を測定する、システム及び方法を提供する
ことにある。
赤外線技術を用いることによって、部屋若しくは小領域
におけるターゲット位置を測定する、ロバストなシステ
ム及び方法が提供される。このシステムでは、投射面を
照射するために、2つの光源が配置されている。ターゲ
ットは、光源と投射面との間に位置する。ターゲットを
照らしている光源はそれぞれ、投射面上に1つの影を投
じる。投射面の後ろに配置された画像化デバイスは、こ
れらの影を検出する。
外光源であり、画像化デバイスは、赤外光に対しては感
応するが、可視光に対しては感応しない。本実施の形態
におけるこれらの光源は、交互のフレームに投射面を照
射することにより、互いに区別される。各光源によって
1つ以上のフレームに照射が行われるように、周期は調
整されてもよい。或いは、これらの光源は、交互の作動
以外に、輝度や偏光によって区別されてもよい。
られる異なる影の大きさと位置とから推測することがで
きる。ターゲット位置を測定する方法の一例としては、
ターゲットが投射面から離れている距離を測定する方法
がある。ターゲット位置を測定する方法の別の例として
は、ターゲットの高さを測定する方法がある。ターゲッ
トが人である場合には、ターゲット位置を測定する方法
の別の例として、人の頭部の中心又は人の先端部の位置
を測定する方法があり、後者の先端部の位置とは、例え
ば、人の指先がスクリーンから離れている距離である。
射面上に映るものを変化させることができる。例えば、
人の指の位置を用いることによって、カーソル又はポイ
ンタを動かしたり、ハイライトを与えるべき領域を指示
したりすることができる。人の指がスクリーンから離れ
ている距離を用いることによって、マウスによるボタン
クリックと同様の機能を行ってもよい。
置を測定するシステムであって、複数の光源と、少なく
とも2つの面を有しており、前記光源が該2つの面のう
ちの1つの面を照射することができるように方向付けさ
れている投射面と、前記光源と前記投射面の前記1つの
面との間であり且つ前記投射面から離れたところに、全
体として位置するターゲットと、前記投射面の前記ター
ゲットと反対側に位置しており、前記光源のそれぞれに
よって前記投射面上に投じられた前記ターゲットからの
影を検出するように構成されている画像化デバイスとを
備える。
様において、1つ以上の前記光源が赤外光源であり、前
記画像化デバイスが赤外光には感応するが可視光には感
応しない。
様において、前記画像化デバイスがビデオカメラであ
る。
様において、前記ビデオカメラがレンズを備えており、
前記システムが、前記ビデオカメラの該レンズ上に位置
した可視光を遮るためのフィルタをさらに備える。
様において、偏光フィルタが前記光源上に配置されてい
る。
置を測定する方法であって、照射時に各光源によってタ
ーゲットが1つの影を半透明スクリーン上に投じるよう
に、複数の該光源を用いて該半透明スクリーンの前にあ
る該ターゲットを照射するステップと、赤外光には感応
するが可視光には感応しないビデオカメラを用いて、前
記光源のそれぞれによって投じられると共に前記半透明
スクリーンの前記ターゲットと反対側に映る前記ターゲ
ットの影を、それぞれが複数のピクセルから構成される
一連の画像として記録するステップと、前記画像におけ
る影を表すピクセルの全てに対してある値を付与し、前
記画像における影以外のものを表すピクセルの全てに対
して前記値とは異なる値を付与するステップと、前記影
の大きさ及び位置から前記ターゲットの位置を測定する
ステップとを有する。
様において、いかなる時でも1つ以上の前記光源のうち
の1つのみが光を供給する。
様において、いかなる時でも複数の前記光源のうちの1
つのみが照射されるように、前記光源が特定の切換え速
度で交互に照射されると共に、前記画像が特定のフレー
ム速度で記録される。
様において、前記切換え速度が前記フレーム速度と同期
される。
態様において、前記光源が赤外光源である。
の態様において、前記画像化デバイスが、赤外光には感
応するが可視光には感応しないビデオカメラである。
態様において、複数の前記光源のうちの1つによって発
せられる光の輝度が、複数の前記光源のうちの別の1つ
によって発せられる光の輝度と異なる。
態様において、複数の前記光源のうちの1つによって発
せられる光が、複数の前記光源のうちの別の1つによっ
て発せられる光と異なるように偏光される。
態様において、前記ターゲットの位置を測定するステッ
プが、前記ターゲットと前記半透明スクリーンとの間の
距離の測定を含む。
態様において、前記ターゲットが人の体の一部であり、
前記ターゲットの位置を測定するステップが、該人の頭
頂部の位置の測定を含む。
態様において、前記ターゲットが人の体の一部であり、
前記ターゲットの位置を測定するステップが、該人の1
箇所以上の先端部の位置の測定を含む。
の態様において、前記ターゲットの位置を測定するステ
ップが、前記人の1箇所以上の先端部と前記半透明スク
リーンとの間の距離の測定を含む。
態様において、さらに、前記ターゲットの位置を用いる
ことによって前記半透明スクリーン上に映るものを変化
させるステップを有する。
図面の助けによって説明する。
このシステムでは、安価な赤外線技術を用いることによ
って、部屋若しくは小領域におけるターゲット位置をロ
バストに検出する。このシステムは、2つの赤外光源5
及び10を備え、これらの光源は、基準線の距離だけ離
間されており、半透明スクリーン15を照射するように
配置されている。ターゲット20は、光源5及び10と
スクリーン15との間に位置する。図1〜図3に示す本
発明の実施の形態では、このターゲット20は人であ
る。ディスプレイ95(例えば、コンピュータのディス
プレイ)は、スクリーン15上に投射される。人20
は、例えば、聴衆に向けてプレゼンテーションを行いな
がら、このディスプレイ95と対話することができる。
リーン15上に2つの異なる影を投じるであろう。光源
5によって投じられた影25が、図1に示されている。
また、光源10によって投じられた影30が、図2に示
されている。さらに、影25及び影30の両方が、図3
に示されている。スクリーン15の後ろに配置されたビ
デオカメラ35は、これらの影を画像化する。このビデ
オカメラ35は、赤外光に対しては感応するが、可視光
に対しては感応しない。これは、例えば、このビデオカ
メラ35のレンズ45上に、可視光を遮るためのフィル
タ40をかぶせることによって、達成される。その他の
種類の画像化デバイスも、本発明に応じた使用に適して
いる。図1〜図3では、人20は、半透明スクリーン1
5の前に立っており、光源5及び10によって照射され
ている。その他の種類の投射面も、本発明に応じて用い
ることができる。
ン付近にあるときのみスクリーン上に影を投じるよう
に、天井に配置することもできる。各光源から投じられ
る影は、オブジェクトがスクリーンから離れている距離
に相対する量だけ、オフセットされるであろう。この変
位(オフセット)を用いることによって、単純な三角法
の考えに基づき、オブジェクトがスクリーンから離れて
いる距離を求めることができる。ターゲットが人である
場合、その位置は、会話式キャラクタインタフェース、
浸漬式オーディオ、自動カメラ制御、バーチャルリアリ
ティなど、多数の用途に有用である。
ゲット位置を測定するステップを行うことができるよう
に、これらの光源を互いに区別しなければならない。光
源5及び10は、周期、輝度、偏光、又はその他の手段
によって区別することができる。
0を区別する方法である。これは、いかなる時でも1つ
の光源のみがスクリーン15を照射する、ということを
意味する。光源5及び10は、特定の速度(以下、「切
換え速度」という)で交互に照射される。この切換え速
度をビデオフレーム速度と同期させることによって、各
光源は1つおきのビデオフレームを照射する。多くのビ
デオキャプチャカードは、このために用いることのでき
る同期出力を有している。
続したフレームが各光源によって照射されるように、ビ
デオフレーム速度よりも遅い速度で切り換えることもで
きる。連続フレーム間におけるピクセル差は、光源が変
わるときに検出可能に大きくなるであろう。このことか
ら、このシステムは、光源の変化周期を概算し、位相ロ
ックループのように周期的にそのピクセル差を修正する
ことができる。この方法によると、ハードウェアにおけ
る光源を同期させなくてもよいという利点の代わりに、
ソフトウェアが複雑になる。別のアプローチとしては、
光源が交互に照射されなくてもよいように光源上に偏光
フィルタを用いること、及び、画像を解析するためにL
CDシャッタ又はその他の偏光変化方法を用いることが
ある。
の目的でスクリーン15の後ろに配置されている。この
ビデオカメラは、スクリーン15の人20と反対側に映
るものを、一連の画像として取得する。1つの実施の形
態におけるビデオカメラ35は、赤外光に対しては感応
するが、可視光に対しては感応しない。この好適な実施
の形態では1台のビデオカメラを用いているが、本発明
に応じて何台の画像化デバイスを用いることもできるで
あろう。
カメラ画像座標とスクリーン影座標とのマッピング機能
を、赤外光源を用いることなく、普通に見ることができ
る。これは、ビデオカメラ35からあらゆる赤外線フィ
ルタを取り外し、光源5及び10を用いて可視域におい
て照射することにより、行われる。次に、このカメラ3
5は、表示された影像を、スクリーン15上の後方散乱
から観察する。
マッピングされるかを測定するために、較正画像がスク
リーン15上に投射される。例えば、カメラ画像上に1
つの点を置くことができ、その座標を検出することがで
きる。実際には、格子のような規則画像を用いれば、一
度に多数の点を較正することができる。この格子を広げ
ることによって全てのピクセルをマッピングすることも
できるし、また、補間によって中間ピクセルを測定する
こともできる。その結果が、カメラ画像座標を絶対スク
リーン座標にマッピングさせる2次元のルックアップテ
ーブルであり、このルックアップテーブルは、レンズの
歪み、又は、ビデオカメラ35の投射軸からの不可避的
オフセットというようなその他のいずれの収差も補うで
あろう。
ント化 全てのシルエットピクセルが0となり且つその他全ての
ピクセルが1となるように閾値処理を行うことによっ
て、スクリーン画像において1つ以上のターゲットを識
別することができる。図4(a)は、全ての可視光を遮る
フィルタ40をレンズ45にかぶせたビデオカメラによ
って記録した、影像を示している。次に、この画像は、
閾値処理される。即ち、全てのシルエットピクセルに値
0が付与されると共に、全ての照射ピクセルに値1が付
与される。図4(b)は、図4(a)の影像の閾値処理後の
状態を示している。カメラ35によって記録された一連
の画像における各画像に対して、閾値処理が行われる。
画像におけるターゲット境界のセグメント化は、この好
適な実施の形態では、画像を閾値処理することによって
達成されるが、本発明に応じて、いくつの技法を用いる
こともできるであろう。
推測することができる。図1〜図3に関し、ターゲット
位置を測定する方法の一例としては、人20がスクリー
ン15から離れている距離を測定する方法がある。各光
源から投じられる影は、人がスクリーンから離れている
距離に相対する量だけオフセットされるので、この方法
は、2つの影における対応する点と点との位置ずれを測
定することにより行われる。例えば、影の最初の空間モ
ーメントは、影を投じているターゲットの質量中心、即
ち重心に相当する。図1では、影25における人20の
重心は、ほぼ点70に位置する。同様に、図2では、影
30における人20の重心は、ほぼ点75に位置する。
この点70と点75との変位を求めることによってずれ
を十分に概算することができ、ターゲットの重心間の距
離を求めることがずれ平均を十分に概算することとな
る。次に、直接的ヒューリスティックスを用いることに
よって、ユーザ位置を概算することができる。
が、ターゲット位置を測定するのに必要とされる。X軸
上にシルエット画像を投射し、平均又は最初の中央モー
メントを求めることによって、人のX軸上における位置
を正確に測定することができる。多くの場合、この測定
は正確であるので、2つのずれた画像のX座標を差し引
くことにより、ずれを十分に概算することができるであ
ろう。
しては、人20の身長を測定する方法がある。この方法
は、ある時間間隔で特定の光源により投じられる影のY
軸方向最大の伸びを、メディアンフィルタリングにより
除くことによって、行われる。長時間頭上に手を伸ばす
ことは不快であるため、通常は頭が高点となるので、こ
の方法によれば人20の身長がロバストに概算される。
メディアンフィルタは、例えば高い位置を指摘するとい
うような、先端部(手)が頭よりも高くなり得る一時的
な事象を取り除くであろう。この身長から数インチを引
くことによって、頭部の中心を適正に概算することがで
きる。この概算値は、頭部のごく近辺の画像を調べて、
卵形の頭部形状や首の凸状というような外形の特徴を検
出することによって、正確な値にすることができる。
出すには、再度簡単なヒューリスティックスを行えば十
分である。影重心から最大距離にある影境界点を調べれ
ば、伸ばした腕又は手というような先端部が識別される
であろう。重心から一定距離よりも離れた位置にある最
端点を調べれば、指摘している指先又はユーザが手に持
っている指摘具の位置が識別されるであろう。ある時間
にわたる指先の位置及び軌道を用いることによって、指
摘具を制御したり、カメラを指示領域にズームインさせ
たりすることができる。
部からの距離を測定することができる。例えば、図5に
関しては、伸ばした手80がスクリーン15から離れて
いる距離を測定することができる。この測定は、(i)
光源5により投じられた影における伸ばした手80に対
応する点(図5の点90)と、(ii)光源10により投
じられた影における伸ばした手80に対応する点(図5
の点85)との、ずれを測定することにより達成され
る。
によって、極値を用いて行われる異なるジェスチャーを
区別することができる。例えば、手のような又は指のよ
うなテンプレートの照合を行うことによって、振ってい
る手と指摘している指とを区別することができる。ま
た、重心即ち頭からの手の変位を検出することによって
も、振りを指摘と区別することができる。複数フレーム
から得られるデータを用いることによって測定すること
のできる動作特性もまた、ジェスチャーを区別するのに
役立つ。先端部はある最大適正速度よりも遅い速度で動
く、と仮定することができる。
画像において人を追跡するのに用いることができるであ
ろうが、内容をビデオから直接切り離そうとするシステ
ムとは対照的に、影を区別する本発明のシステムと共に
用いると、よりロバストとなるであろう。これは、ビデ
オ画像におけるオブジェクト境界の確実なセグメント化
が、一般的には未解決の問題であるからである。非オブ
ジェクトの動作、あいまいな色若しくはテクスチャ、又
は、変化する背景画像は、大抵の人追跡システムを混乱
させるであろう。しかし、これらの問題は、本発明によ
る方法及びシステムを完全に用いることによって回避さ
れる。
るものの制御 ユーザの手の位置が検出された後、画像座標からディス
プレイスクリーン座標にマッピングすると、先端部のス
クリーン位置が得られる。画像に相関する手又は指の位
置が測定されると、ユーザは、大きなタッチスクリーン
を用いるかのように、カーソル又はスクリーンポインタ
を制御することができるようになる。一例としては、ス
クリーン15上の所望の位置を指摘する若しくは指示す
ることによって、コンピュータのディスプレイ95上に
あるカーソルの上記所望の位置への移動を制御するよう
に、設定することができるであろう。
ン15に十分近づいたときに、マウスによる「ボタンダ
ウン」コマンドと同等のものを、恐らく人への可聴フィ
ードバックと同時に、コンピュータ95に出すことがで
きるであろう。ずれがかなりの大きさになるほど、手が
スクリーン15から離れているときには、平均法を用い
ると共に、恐らく光源5及び10の非対称的配置を調整
するために重み付けを行うことにより、手の位置が測定
される。ユーザの手がスクリーンに十分、例えば数cm
に近づくと(これは、ずれにより測定される)、マウス
による「ボタンダウン」コマンドがコンピュータに出さ
れる。これは、長距離のプレゼンテーションにおいて非
常に有用であろう。例えば、電子会議において、ビデオ
情報を送る必要なく、投射画像上の指示位置に遠隔地の
移動カーソルでハイライトを与えることができるであろ
う。
出して、異なる操作に用いることができる。例えば、こ
ぶしが「グラフィックのオブジェクトをつかむ」ことを
意味し、指摘している指が「グラフィックのオブジェク
トを引き出す」ことを意味してもよい。2つ以上の先端
部を検出することによって、ジェスチャーインタフェー
スを豊富にすることもできる。例えば、2つの伸ばした
手のうち、一方の手をスクリーンに近づけ、もう一方の
手をさらに遠くへ離すことによって、3次元映像を回転
させることができるであろう。この方法において、ユー
ザは、スクリーン上に表示された現実の又は仮想のオブ
ジェクトを制御したり、これらのオブジェクトと対話し
たりすることができる。
の認識と、スクリーンからの距離の測定とが組み合わさ
れて、ロバストなジェスチャー認識システムの基礎を形
成している。プレゼンテーション中にジェスチャーによ
って指示される領域は、さらなる有益な情報源としての
機能も果たすことができる。例えば、電子会議におい
て、全てのビデオ情報を送る必要なく、投射された画像
上の指示位置に遠隔地の移動カーソルでハイライトを与
えることができる。この情報は、記録して、さらなる索
引付け情報源として、又は聴衆に対して表示する拡大版
として、用いることもできるであろう。プレゼンターに
より指摘されたテキスト又はグラフィックスは、まとめ
においてハイライトを与えたり、抽出して索引として機
能させたりすることができる。
リーンインタフェースを用いることによって、ユーザの
頭や胴で既に塞がれてしまった領域にはユーザが「タッ
チ」できないという欠点をもたらす。プレゼンターは聴
衆(ゆえに赤外線カメラ)が見ることのできる領域のみ
を通常は指示するであろうから、この欠点はユーザに対
して負担にはならない。さらに、タッチスクリーンは、
2つ以上の点に接触することは滅多にできないし、距離
又はジェスチャーを概算することもできない。
ト照合又は隠れマルコフモデルなどのより高度な解析法
を、通常のジェスチャー認識及びユーザ対話に用いるこ
とができる。ジェスチャー及び姿勢の認識は、アバター
若しくは擬人化キャラクタを用いるインタフェースの重
要な部分である。例えば、ユーザの頭の位置を認知する
ことによって、キャラクタの目をユーザと合わせること
ができる。3次元浸漬式オーディオは、適切な音響信号
を生成して周囲音の感覚をもたらすために、ユーザの頭
の位置を必要とする。また3次元ビデオ環境やバーチャ
ルリアリティも、位置情報を必然的に使用する。ユーザ
位置に依って、仮想の又は現実の情景の異なる映像を投
射スクリーン上に表示することができ、これによって、
ユーザは、まるでスクリーンが透明な窓であるかのよう
に、歩き回ったり、映像変化を見たりすることができ
る。
キーイング」、つまり、あるビデオ画像の一部を別の画
像と置き換える操作を単純化する。カラーキーイング
は、コンピュータ画像上に気象予報士の画像を重ね合わ
せるのに用いられる技法である。従来的には、カラーキ
ーイングは、一様で鮮明な色の背景に対して対象をビデ
オ撮影し、次に、その一様な背景色のピクセルを背景画
像と置き換えることにより行われる。対象(者)が着る
ことのできる色が一般的には制限される上、対象(者)
は一般的には見えない画像と対話しなければならない。
本発明の実施の形態は、赤外光源がカメラ付近に位置し
ている場合には、見える影と人がスクリーン上を覆って
いる領域とが正確に一致するので、対象に関する事柄を
かなり単純化する。
が、これは単に、当業者に本発明の作製及び使用方法を
教示しているにすぎない。変更を加えた多くの改造物
が、本発明の範囲内に当てはまるであろう。従って、本
発明の範囲は、上記の特許請求の範囲により定義され
る。
ズにかぶせたビデオカメラによって記録した影像を示す
図であり、(b)は、(a)の影像の閾値処理後の状態
を示す図である。
Claims (18)
- 【請求項1】 複数の光源と、 少なくとも2つの面を有しており、前記光源が該2つの
面のうちの1つの面を照射することができるように方向
付けされている投射面と、 前記光源と前記投射面の前記1つの面との間であり且つ
前記投射面から離れたところに、全体として位置するタ
ーゲットと、 前記投射面の前記ターゲットと反対側に位置しており、
前記光源のそれぞれによって前記投射面上に投じられた
前記ターゲットからの影を検出するように構成されてい
る画像化デバイスと、 を備えるターゲット位置を測定するシステム。 - 【請求項2】 1つ以上の前記光源が赤外光源であり、
前記画像化デバイスが赤外光には感応するが可視光には
感応しない、請求項1に記載のシステム。 - 【請求項3】 前記画像化デバイスがビデオカメラであ
る、請求項2に記載のシステム。 - 【請求項4】 前記ビデオカメラがレンズを備えてお
り、前記システムが、前記ビデオカメラの該レンズ上に
位置した可視光を遮るためのフィルタをさらに備える、
請求項3に記載のシステム。 - 【請求項5】 偏光フィルタが前記光源上に配置され
た、請求項4に記載のシステム。 - 【請求項6】 照射時に各光源によってターゲットが1
つの影を半透明スクリーン上に投じるように、複数の該
光源を用いて該半透明スクリーンの前にある該ターゲッ
トを照射するステップと、 赤外光には感応するが可視光には感応しないビデオカメ
ラを用いて、前記光源のそれぞれによって投じられると
共に前記半透明スクリーンの前記ターゲットと反対側に
映る前記ターゲットの影を、それぞれが複数のピクセル
から構成される一連の画像として記録するステップと、 前記画像における影を表すピクセルの全てに対してある
値を付与し、前記画像における影以外のものを表すピク
セルの全てに対して前記値とは異なる値を付与するステ
ップと、 前記影の大きさ及び位置から前記ターゲットの位置を測
定するステップと、 を有するターゲット位置を測定する方法。 - 【請求項7】 いかなる時でも1つ以上の前記光源のう
ちの1つのみが光を供給する、請求項6に記載の方法。 - 【請求項8】 いかなる時でも複数の前記光源のうちの
1つのみが照射されるように、前記光源が特定の切換え
速度で交互に照射されると共に、前記画像が特定のフレ
ーム速度で記録される、請求項7に記載の方法。 - 【請求項9】 前記切換え速度が前記フレーム速度と同
期される、請求項8に記載の方法。 - 【請求項10】 前記光源が赤外光源である、請求項8
に記載の方法。 - 【請求項11】 前記画像化デバイスが、赤外光には感
応するが可視光には感応しないビデオカメラである、請
求項10に記載の方法。 - 【請求項12】 複数の前記光源のうちの1つによって
発せられる光の輝度が、複数の前記光源のうちの別の1
つによって発せられる光の輝度と異なる、請求項6に記
載の方法。 - 【請求項13】 複数の前記光源のうちの1つによって
発せられる光が、複数の前記光源のうちの別の1つによ
って発せられる光と異なるように偏光される、請求項6
に記載の方法。 - 【請求項14】 前記ターゲットの位置を測定するステ
ップが、前記ターゲットと前記半透明スクリーンとの間
の距離の測定を含む、請求項6に記載の方法。 - 【請求項15】 前記ターゲットが人の体の一部であ
り、前記ターゲットの位置を測定するステップが、該人
の頭頂部の位置の測定を含む、請求項6に記載の方法。 - 【請求項16】 前記ターゲットが人の体の一部であ
り、前記ターゲットの位置を測定するステップが、該人
の1箇所以上の先端部の位置の測定を含む、請求項6に
記載の方法。 - 【請求項17】 前記ターゲットの位置を測定するステ
ップが、前記人の1箇所以上の先端部と前記半透明スク
リーンとの間の距離の測定を含む、請求項16に記載の
方法。 - 【請求項18】 さらに、前記ターゲットの位置を用い
ることによって前記半透明スクリーン上に映るものを変
化させるステップを有する、請求項6に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US764837 | 1996-12-12 | ||
US09/764,837 US6775014B2 (en) | 2001-01-17 | 2001-01-17 | System and method for determining the location of a target in a room or small area |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002213947A true JP2002213947A (ja) | 2002-07-31 |
Family
ID=25071934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001247516A Pending JP2002213947A (ja) | 2001-01-17 | 2001-08-17 | ターゲット位置を測定するシステム及びその方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6775014B2 (ja) |
JP (1) | JP2002213947A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009250772A (ja) * | 2008-04-04 | 2009-10-29 | Sony Corp | 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法 |
JP2010210646A (ja) * | 2010-06-30 | 2010-09-24 | Sony Corp | 物体判断システム、物体判断方法およびプログラム |
WO2014010251A1 (en) | 2012-07-13 | 2014-01-16 | Panasonic Corporation | Hand and object tracking in three-dimensional space |
JP2017021861A (ja) * | 2016-11-01 | 2017-01-26 | 日立マクセル株式会社 | プロジェクタ及びヘッドマウント型表示装置 |
WO2017060993A1 (ja) * | 2015-10-07 | 2017-04-13 | 日立マクセル株式会社 | 映像表示装置およびこれに用いる操作検出方法 |
WO2019188046A1 (ja) * | 2018-03-26 | 2019-10-03 | 富士フイルム株式会社 | 投影システム、投影制御装置、投影制御方法、投影制御プログラム |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
US7209883B2 (en) * | 2002-05-09 | 2007-04-24 | Intel Corporation | Factorial hidden markov model for audiovisual speech recognition |
US20030212552A1 (en) * | 2002-05-09 | 2003-11-13 | Liang Lu Hong | Face recognition procedure useful for audiovisual speech recognition |
US7165029B2 (en) | 2002-05-09 | 2007-01-16 | Intel Corporation | Coupled hidden Markov model for audiovisual speech recognition |
US7171043B2 (en) | 2002-10-11 | 2007-01-30 | Intel Corporation | Image recognition using hidden markov models and coupled hidden markov models |
DE10250705A1 (de) * | 2002-10-31 | 2004-05-13 | Bayerische Motoren Werke Ag | Verfahren und Vorrichtung zur Schattenkompensation in digitalen Bildern |
US7472063B2 (en) * | 2002-12-19 | 2008-12-30 | Intel Corporation | Audio-visual feature fusion and support vector machine useful for continuous speech recognition |
US7203368B2 (en) * | 2003-01-06 | 2007-04-10 | Intel Corporation | Embedded bayesian network for pattern recognition |
US6796656B1 (en) * | 2003-06-14 | 2004-09-28 | Imatte, Inc. | Generating a matte signal from a retro reflective component of a front projection screen |
US8046701B2 (en) * | 2003-08-07 | 2011-10-25 | Fuji Xerox Co., Ltd. | Peer to peer gesture based modular presentation system |
US7366323B1 (en) * | 2004-02-19 | 2008-04-29 | Research Foundation Of State University Of New York | Hierarchical static shadow detection method |
US20050239525A1 (en) * | 2004-04-21 | 2005-10-27 | Aruze Corp. | Gaming machine |
US8487910B2 (en) * | 2005-05-02 | 2013-07-16 | Smart Technologies Ulc | Large scale touch system and methods for interacting with same |
US20070018989A1 (en) * | 2005-07-20 | 2007-01-25 | Playmotion, Llc | Sensory integration therapy system and associated method of use |
US7742068B2 (en) * | 2005-09-14 | 2010-06-22 | Sorenson Communications, Inc. | Method and system for auto configuration in a video phone system |
US7746985B2 (en) * | 2005-09-14 | 2010-06-29 | Sorenson Communications, Inc. | Method, system and device for relay call transfer service |
US7746984B2 (en) * | 2005-09-14 | 2010-06-29 | Sorenson Communications, Inc. | Method and system for call initiation in a video relay service |
US7769141B2 (en) * | 2005-09-23 | 2010-08-03 | Sorenson Communications, Inc. | Method and system for visual spatial caller identification |
CN100437145C (zh) * | 2005-12-19 | 2008-11-26 | 北京威亚视讯科技有限公司 | 位置姿态跟踪系统 |
US8350957B2 (en) | 2006-05-09 | 2013-01-08 | Technion Research And Development Foundation Ltd. | Imaging systems and methods for recovering object visibility |
US9104270B2 (en) * | 2006-05-22 | 2015-08-11 | Thomson Licensing | Video system having a touch screen |
US7984995B2 (en) * | 2006-05-24 | 2011-07-26 | Smart Technologies Ulc | Method and apparatus for inhibiting a subject's eyes from being exposed to projected light |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
JP5023587B2 (ja) * | 2006-07-18 | 2012-09-12 | 富士ゼロックス株式会社 | 画像表示装置及び画像表示方法 |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP5559691B2 (ja) | 2007-09-24 | 2014-07-23 | クアルコム,インコーポレイテッド | 音声及びビデオ通信のための機能向上したインタフェース |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8007110B2 (en) * | 2007-12-28 | 2011-08-30 | Motorola Mobility, Inc. | Projector system employing depth perception to detect speaker position and gestures |
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
WO2009117161A2 (en) * | 2008-03-21 | 2009-09-24 | Variation Reduction Solutions, Inc. | External system for robotic accuracy enhancement |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
CN102132239B (zh) * | 2008-08-26 | 2015-11-25 | 多点触控有限公司 | 交互式显示屏 |
US20100064213A1 (en) * | 2008-09-10 | 2010-03-11 | Zhou Ye | Operation device for a graphical user interface |
US8704822B2 (en) | 2008-12-17 | 2014-04-22 | Microsoft Corporation | Volumetric display system enabling user interaction |
US20110050903A1 (en) * | 2009-04-08 | 2011-03-03 | Topcon Positioning Systems, Inc. | Method for determining position and orientation of vehicle trailers |
US8798316B2 (en) | 2009-05-14 | 2014-08-05 | Koninklijke Philips N.V. | Method and system for controlling lighting |
JP5553546B2 (ja) * | 2009-07-07 | 2014-07-16 | キヤノン株式会社 | 画像投影装置、及びその制御方法 |
KR20110046941A (ko) * | 2009-10-29 | 2011-05-06 | 삼성전자주식회사 | 프로젝터를 구비한 이동 단말 및 그 제어 방법 |
KR100977558B1 (ko) * | 2009-12-22 | 2010-08-23 | 전자부품연구원 | 적외선 스크린 방식의 공간 터치 장치 |
US8491135B2 (en) * | 2010-01-04 | 2013-07-23 | Microvision, Inc. | Interactive projection with gesture recognition |
US20110164191A1 (en) * | 2010-01-04 | 2011-07-07 | Microvision, Inc. | Interactive Projection Method, Apparatus and System |
JP5825561B2 (ja) * | 2010-01-29 | 2015-12-02 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | インタラクティブな照明制御システム及び方法 |
KR101640456B1 (ko) * | 2010-03-15 | 2016-07-19 | 삼성전자주식회사 | 디스플레이 패널의 각 픽셀들의 개구부를 통해 촬영하는 촬영 장치 및 방법 |
WO2011116199A1 (en) * | 2010-03-17 | 2011-09-22 | Jose Cordero | Method and system for light-based intervention |
US8502816B2 (en) | 2010-12-02 | 2013-08-06 | Microsoft Corporation | Tabletop display providing multiple views to users |
CN103918252B (zh) * | 2011-11-04 | 2017-06-06 | 英派尔科技开发有限公司 | 用于图像的ir信号捕获 |
JP6037900B2 (ja) * | 2013-03-11 | 2016-12-07 | 日立マクセル株式会社 | 操作検出装置及び操作検出方法 |
US9696185B2 (en) * | 2015-01-15 | 2017-07-04 | Csm Centre Suisse D'electronique Et De Microtechnique Sa—Recherche Et Développement | 6D positioning system using a shadow sensor |
US20190012789A1 (en) * | 2015-07-21 | 2019-01-10 | Heptagon Micro Optics Pte. Ltd. | Generating a disparity map based on stereo images of a scene |
CN107941208A (zh) * | 2017-10-09 | 2018-04-20 | 深圳市虚拟现实科技有限公司 | 虚拟现实空间定位方法及系统 |
US10129395B1 (en) | 2017-10-26 | 2018-11-13 | Sorenson Ip Holdings Llc | Systems and related methods for visual indication of callee ID information for an incoming communication request in a hearing-impaired environment |
DE102021134446A1 (de) | 2021-12-23 | 2023-06-29 | Endress+Hauser Group Services Ag | Stereoskopische Messanordnung zum Ermitteln einer Positionsinformation eines Ereignisorts in einem Überwachungsraum von einem Bezugspunkt und Verfahren zum Ermitteln einer Positionsinformation eines Ereignisorts in einem Überwachungsraum |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4468694A (en) * | 1980-12-30 | 1984-08-28 | International Business Machines Corporation | Apparatus and method for remote displaying and sensing of information using shadow parallax |
US5045843B1 (en) | 1988-12-06 | 1996-07-16 | Selectech Ltd | Optical pointing device |
US5023709A (en) * | 1989-11-06 | 1991-06-11 | Aoi Studio Kabushiki Kaisha | Automatic follow-up lighting system |
US5268734A (en) | 1990-05-31 | 1993-12-07 | Parkervision, Inc. | Remote tracking system for moving picture cameras and method |
US5239373A (en) | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
US5383013A (en) | 1992-09-18 | 1995-01-17 | Nec Research Institute, Inc. | Stereoscopic computer vision system |
WO1994017636A1 (en) | 1993-01-29 | 1994-08-04 | Bell Communications Research, Inc. | Automatic tracking camera control system |
JPH07261920A (ja) | 1994-03-17 | 1995-10-13 | Wacom Co Ltd | 光学式位置検出装置および光学式座標入力装置 |
JP3794180B2 (ja) * | 1997-11-11 | 2006-07-05 | セイコーエプソン株式会社 | 座標入力システム及び座標入力装置 |
DE19845030A1 (de) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6341016B1 (en) * | 1999-08-06 | 2002-01-22 | Michael Malione | Method and apparatus for measuring three-dimensional shape of object |
-
2001
- 2001-01-17 US US09/764,837 patent/US6775014B2/en not_active Expired - Lifetime
- 2001-08-17 JP JP2001247516A patent/JP2002213947A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009250772A (ja) * | 2008-04-04 | 2009-10-29 | Sony Corp | 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法 |
US8897499B2 (en) | 2008-04-04 | 2014-11-25 | Sony Corporation | Position detection system, position detection method, program, object determination system and object determination method |
JP2010210646A (ja) * | 2010-06-30 | 2010-09-24 | Sony Corp | 物体判断システム、物体判断方法およびプログラム |
WO2014010251A1 (en) | 2012-07-13 | 2014-01-16 | Panasonic Corporation | Hand and object tracking in three-dimensional space |
US9720511B2 (en) | 2012-07-13 | 2017-08-01 | Panasonic Intellectual Property Management Co., Ltd. | Hand and object tracking in three-dimensional space |
WO2017060993A1 (ja) * | 2015-10-07 | 2017-04-13 | 日立マクセル株式会社 | 映像表示装置およびこれに用いる操作検出方法 |
JPWO2017060993A1 (ja) * | 2015-10-07 | 2018-07-05 | マクセル株式会社 | 映像表示装置およびこれに用いる操作検出方法 |
US10459577B2 (en) | 2015-10-07 | 2019-10-29 | Maxell, Ltd. | Video display device and manipulation detection method used therefor |
JP2017021861A (ja) * | 2016-11-01 | 2017-01-26 | 日立マクセル株式会社 | プロジェクタ及びヘッドマウント型表示装置 |
WO2019188046A1 (ja) * | 2018-03-26 | 2019-10-03 | 富士フイルム株式会社 | 投影システム、投影制御装置、投影制御方法、投影制御プログラム |
JPWO2019188046A1 (ja) * | 2018-03-26 | 2021-02-12 | 富士フイルム株式会社 | 投影システム、投影制御装置、投影制御方法、投影制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20020093666A1 (en) | 2002-07-18 |
US6775014B2 (en) | 2004-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002213947A (ja) | ターゲット位置を測定するシステム及びその方法 | |
US10642371B2 (en) | Sessionless pointing user interface | |
CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
Molyneaux et al. | Interactive environment-aware handheld projectors for pervasive computing spaces | |
US9122311B2 (en) | Visual feedback for tactile and non-tactile user interfaces | |
US6947029B2 (en) | Handwritten data input device and method, and authenticating device and method | |
JP5205187B2 (ja) | 入力システム及び入力方法 | |
JP4768196B2 (ja) | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 | |
US20170140552A1 (en) | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same | |
US20110234481A1 (en) | Enhancing presentations using depth sensing cameras | |
US20110292036A1 (en) | Depth sensor with application interface | |
JP3579218B2 (ja) | 情報表示装置及び情報収集装置 | |
JP6723814B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN108022264B (zh) | 相机位姿确定方法及设备 | |
JPH0844490A (ja) | インターフェイス装置 | |
WO2004042548A1 (ja) | 運動検出装置 | |
CN104364733A (zh) | 注视位置检测装置、注视位置检测方法和注视位置检测程序 | |
JP2005056059A (ja) | 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法 | |
Tsuji et al. | Touch sensing for a projected screen using slope disparity gating | |
KR20090040839A (ko) | 증강현실 컴퓨터 장치 | |
JP6950644B2 (ja) | 注意対象推定装置及び注意対象推定方法 | |
GB2345538A (en) | Optical tracker | |
KR20190036864A (ko) | 가상현실 전망용 망원경, 이를 이용한 전망용 가상현실 구동 방법 및 매체에 기록된 어플리케이션 | |
JP5068711B2 (ja) | 物体形状認識システム及び物体形状認識方法 | |
Nakazato et al. | A localization system using invisible retro-reflective markers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060829 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070417 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070608 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070911 |