JP2002213947A - ターゲット位置を測定するシステム及びその方法 - Google Patents

ターゲット位置を測定するシステム及びその方法

Info

Publication number
JP2002213947A
JP2002213947A JP2001247516A JP2001247516A JP2002213947A JP 2002213947 A JP2002213947 A JP 2002213947A JP 2001247516 A JP2001247516 A JP 2001247516A JP 2001247516 A JP2001247516 A JP 2001247516A JP 2002213947 A JP2002213947 A JP 2002213947A
Authority
JP
Japan
Prior art keywords
target
light
light sources
measuring
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001247516A
Other languages
English (en)
Inventor
T Foote Jonathan
ティー.フート ジョナサン
Don Kimber
キンバー ドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2002213947A publication Critical patent/JP2002213947A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】 投射面上に投射された画像を変化させるため
に、部屋若しくは小領域におけるターゲットの投射面に
対する位置を測定する、システムを提供する。 【解決手段】 このシステムは、複数の光源と、少なく
とも2つの面を有しており光源がこの2つの面のうちの
1つの面を照射することができるように方向付けされて
いる投射面(15)と、光源と投射面の1つの面との間であ
り且つ投射面から離れたところに全体として位置するタ
ーゲットと、投射面のターゲットと反対側に位置してお
り光源のそれぞれによって投射面上に投じられたターゲ
ットからの影(25,30)を検出するように構成されている
画像化デバイス(35)とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、広く、ターゲット
の追跡及びジェスチャーの認識に関する。特に、本発明
は、投射スクリーン上に投射された画像を変化させるた
めに、部屋若しくは小領域におけるターゲットの投射ス
クリーンに対する位置を測定する、システム及び方法に
関する。本発明によれば、例えば、ターゲット位置によ
り制御されて、ポインタ又はハイライト領域が提供され
る。
【0002】用語の定義 本発明及び本発明に関する従来技術を論じるコンテキス
トにおいて用いられる場合、「ターゲット」という語
は、オブジェクト若しくは人(これらの語については、
すぐ次に定義する)、又は、オブジェクト若しくは人の
一部を指す。「オブジェクト」という語は、無生物を指
す。「人」という語は、人間を指す。
【0003】
【従来の技術】ターゲット位置を測定する1つの方法と
しては、わずかに異なる2つの2次元画像に基づいた3
次元画像である、立体(両眼視)画像による方法があ
る。例えば、コックス(Cox)に対して発行された米国特
許第5,383,013号(以下、「コックス」とい
う)には、情景の立体映像(両眼視像)の左右の画像に
おいて対応する特徴を測定する方法が開示されている。
まず、情景の左右の画像において対応するオブジェクト
間のずれ(視差)を測定する。このずれを、1組のカメ
ラの既知の離間距離と共に用いることによって、ターゲ
ットがこの1組のカメラから離れている距離を測定す
る。コックスに開示されているこの方法の1つの欠点
は、2台のカメラを用いなくてはならないという点であ
り、これは、コストを著しく増大させると共に、システ
ムを複雑化する。特に、このコックスは、ずれを測定す
るために画像特徴を相互相関させなくてはならないの
で、計算処理の負荷が大きくなる。
【0004】人の位置を測定する別の方法が、パーカー
(Parker)らに対して発行された米国特許第5,465,
144号(以下、「パーカー」という)に開示されてい
る。このパーカーには、カメラで人を追跡する方法が開
示されている。人は赤外線ビーコンを装着し、この赤外
線ビーコンを追跡する。人が能動デバイスを装着する必
要があるという欠点に加えて、このシステムでは、人が
カメラの方に向いていないと問題が生じるであろう。
【0005】ターゲット位置を測定する別の方法が、2
000年12月に出願された、レイベ(Leibe)らによ
る、「知覚ワークベンチ:半浸漬式仮想環境における自
発的で自然な対話に向けて」(“The Perceptive Workbe
nch: Towards Spontaneous andNatural Interaction in
Semi-Immersive Virtual Environments”)という発明
の名称の特許出願(以下、「レイベ」という)に記載さ
れており、これは、www.cc.gatech.edu/ccg/projects/p
erceptive/perceptive_cga/perceptive_cga.htmlにおい
て見ることができる。このレイベには、複数の近赤外光
源を机の下に配置するシステムが開示されている。全て
の可視光を遮るフィルタを取り付けたカメラも、机の下
に配置する。この机の下側を、近赤外光源によって照射
する。机の表面付近にあるもの全てがこの光を反射する
ため、これらのものをディスプレイ表面の下にあるカメ
ラによって観察することができる。輝度の閾値処理と背
景差分とを組み合わせて用いることによって、カメラ画
像の関係領域を抽出及び解析する。レイベに開示されて
いるこの方法の1つの欠点は、机の表面付近にあるター
ゲット位置しか測定できないという点である。
【0006】このレイベには、人の腕部分の位置を測定
するシステム及び方法も開示されている。机の表面を照
射する光源を、机の上側に配置する。赤外線フィルタを
取り付けたカメラを、やはり机の下側に配置する。人が
机の前に立って、机の上で腕を動かすと、机の表面上に
影が投じられる。カメラは、光源から発せられた近赤外
光のうちの、人の腕によって遮られた領域を除く全ての
部分を観察する。次に、このレイベでは、輝度の閾値処
理と背景差分とを用いることにより、カメラによって記
録された画像において人の腕を背景と区別する。レイベ
に開示されているこの方法の1つの欠点は、腕の影は常
に画像境界に接すると仮定される点である。ゆえに、腕
の影が画像境界に接している領域の中央が腕のおよその
起点と見なされ、肩から最も離れている点が指先と見な
される。このレイベは、人の腕部分のみを追跡する必要
がある状況に限定される。
【0007】
【発明が解決しようとする課題】本発明の目的は、投射
スクリーン上に投射された画像を変化させるために、部
屋若しくは小領域におけるターゲットの投射スクリーン
に対する位置を測定する、システム及び方法を提供する
ことにある。
【0008】
【課題を解決するための手段】本発明によれば、安価な
赤外線技術を用いることによって、部屋若しくは小領域
におけるターゲット位置を測定する、ロバストなシステ
ム及び方法が提供される。このシステムでは、投射面を
照射するために、2つの光源が配置されている。ターゲ
ットは、光源と投射面との間に位置する。ターゲットを
照らしている光源はそれぞれ、投射面上に1つの影を投
じる。投射面の後ろに配置された画像化デバイスは、こ
れらの影を検出する。
【0009】本発明の1つの実施の形態では、光源は赤
外光源であり、画像化デバイスは、赤外光に対しては感
応するが、可視光に対しては感応しない。本実施の形態
におけるこれらの光源は、交互のフレームに投射面を照
射することにより、互いに区別される。各光源によって
1つ以上のフレームに照射が行われるように、周期は調
整されてもよい。或いは、これらの光源は、交互の作動
以外に、輝度や偏光によって区別されてもよい。
【0010】ターゲット位置は、個々の光源により投じ
られる異なる影の大きさと位置とから推測することがで
きる。ターゲット位置を測定する方法の一例としては、
ターゲットが投射面から離れている距離を測定する方法
がある。ターゲット位置を測定する方法の別の例として
は、ターゲットの高さを測定する方法がある。ターゲッ
トが人である場合には、ターゲット位置を測定する方法
の別の例として、人の頭部の中心又は人の先端部の位置
を測定する方法があり、後者の先端部の位置とは、例え
ば、人の指先がスクリーンから離れている距離である。
【0011】ターゲット位置を用いることによって、投
射面上に映るものを変化させることができる。例えば、
人の指の位置を用いることによって、カーソル又はポイ
ンタを動かしたり、ハイライトを与えるべき領域を指示
したりすることができる。人の指がスクリーンから離れ
ている距離を用いることによって、マウスによるボタン
クリックと同様の機能を行ってもよい。
【0012】本発明の請求項1の態様は、ターゲット位
置を測定するシステムであって、複数の光源と、少なく
とも2つの面を有しており、前記光源が該2つの面のう
ちの1つの面を照射することができるように方向付けさ
れている投射面と、前記光源と前記投射面の前記1つの
面との間であり且つ前記投射面から離れたところに、全
体として位置するターゲットと、前記投射面の前記ター
ゲットと反対側に位置しており、前記光源のそれぞれに
よって前記投射面上に投じられた前記ターゲットからの
影を検出するように構成されている画像化デバイスとを
備える。
【0013】本発明の請求項2の態様は、請求項1の態
様において、1つ以上の前記光源が赤外光源であり、前
記画像化デバイスが赤外光には感応するが可視光には感
応しない。
【0014】本発明の請求項3の態様は、請求項2の態
様において、前記画像化デバイスがビデオカメラであ
る。
【0015】本発明の請求項4の態様は、請求項3の態
様において、前記ビデオカメラがレンズを備えており、
前記システムが、前記ビデオカメラの該レンズ上に位置
した可視光を遮るためのフィルタをさらに備える。
【0016】本発明の請求項5の態様は、請求項4の態
様において、偏光フィルタが前記光源上に配置されてい
る。
【0017】本発明の請求項6の態様は、ターゲット位
置を測定する方法であって、照射時に各光源によってタ
ーゲットが1つの影を半透明スクリーン上に投じるよう
に、複数の該光源を用いて該半透明スクリーンの前にあ
る該ターゲットを照射するステップと、赤外光には感応
するが可視光には感応しないビデオカメラを用いて、前
記光源のそれぞれによって投じられると共に前記半透明
スクリーンの前記ターゲットと反対側に映る前記ターゲ
ットの影を、それぞれが複数のピクセルから構成される
一連の画像として記録するステップと、前記画像におけ
る影を表すピクセルの全てに対してある値を付与し、前
記画像における影以外のものを表すピクセルの全てに対
して前記値とは異なる値を付与するステップと、前記影
の大きさ及び位置から前記ターゲットの位置を測定する
ステップとを有する。
【0018】本発明の請求項7の態様は、請求項6の態
様において、いかなる時でも1つ以上の前記光源のうち
の1つのみが光を供給する。
【0019】本発明の請求項8の態様は、請求項7の態
様において、いかなる時でも複数の前記光源のうちの1
つのみが照射されるように、前記光源が特定の切換え速
度で交互に照射されると共に、前記画像が特定のフレー
ム速度で記録される。
【0020】本発明の請求項9の態様は、請求項8の態
様において、前記切換え速度が前記フレーム速度と同期
される。
【0021】本発明の請求項10の態様は、請求項8の
態様において、前記光源が赤外光源である。
【0022】本発明の請求項11の態様は、請求項10
の態様において、前記画像化デバイスが、赤外光には感
応するが可視光には感応しないビデオカメラである。
【0023】本発明の請求項12の態様は、請求項6の
態様において、複数の前記光源のうちの1つによって発
せられる光の輝度が、複数の前記光源のうちの別の1つ
によって発せられる光の輝度と異なる。
【0024】本発明の請求項13の態様は、請求項6の
態様において、複数の前記光源のうちの1つによって発
せられる光が、複数の前記光源のうちの別の1つによっ
て発せられる光と異なるように偏光される。
【0025】本発明の請求項14の態様は、請求項6の
態様において、前記ターゲットの位置を測定するステッ
プが、前記ターゲットと前記半透明スクリーンとの間の
距離の測定を含む。
【0026】本発明の請求項15の態様は、請求項6の
態様において、前記ターゲットが人の体の一部であり、
前記ターゲットの位置を測定するステップが、該人の頭
頂部の位置の測定を含む。
【0027】本発明の請求項16の態様は、請求項6の
態様において、前記ターゲットが人の体の一部であり、
前記ターゲットの位置を測定するステップが、該人の1
箇所以上の先端部の位置の測定を含む。
【0028】本発明の請求項17の態様は、請求項16
の態様において、前記ターゲットの位置を測定するステ
ップが、前記人の1箇所以上の先端部と前記半透明スク
リーンとの間の距離の測定を含む。
【0029】本発明の請求項18の態様は、請求項6の
態様において、さらに、前記ターゲットの位置を用いる
ことによって前記半透明スクリーン上に映るものを変化
させるステップを有する。
【0030】
【発明の実施の形態】本発明のさらなる詳細を、添付の
図面の助けによって説明する。
【0031】A.システム概観 図1〜図3は、本発明によるシステムの上面図である。
このシステムでは、安価な赤外線技術を用いることによ
って、部屋若しくは小領域におけるターゲット位置をロ
バストに検出する。このシステムは、2つの赤外光源5
及び10を備え、これらの光源は、基準線の距離だけ離
間されており、半透明スクリーン15を照射するように
配置されている。ターゲット20は、光源5及び10と
スクリーン15との間に位置する。図1〜図3に示す本
発明の実施の形態では、このターゲット20は人であ
る。ディスプレイ95(例えば、コンピュータのディス
プレイ)は、スクリーン15上に投射される。人20
は、例えば、聴衆に向けてプレゼンテーションを行いな
がら、このディスプレイ95と対話することができる。
【0032】人20を照射する光源5及び10は、スク
リーン15上に2つの異なる影を投じるであろう。光源
5によって投じられた影25が、図1に示されている。
また、光源10によって投じられた影30が、図2に示
されている。さらに、影25及び影30の両方が、図3
に示されている。スクリーン15の後ろに配置されたビ
デオカメラ35は、これらの影を画像化する。このビデ
オカメラ35は、赤外光に対しては感応するが、可視光
に対しては感応しない。これは、例えば、このビデオカ
メラ35のレンズ45上に、可視光を遮るためのフィル
タ40をかぶせることによって、達成される。その他の
種類の画像化デバイスも、本発明に応じた使用に適して
いる。図1〜図3では、人20は、半透明スクリーン1
5の前に立っており、光源5及び10によって照射され
ている。その他の種類の投射面も、本発明に応じて用い
ることができる。
【0033】光源5及び10は、ターゲットがスクリー
ン付近にあるときのみスクリーン上に影を投じるよう
に、天井に配置することもできる。各光源から投じられ
る影は、オブジェクトがスクリーンから離れている距離
に相対する量だけ、オフセットされるであろう。この変
位(オフセット)を用いることによって、単純な三角法
の考えに基づき、オブジェクトがスクリーンから離れて
いる距離を求めることができる。ターゲットが人である
場合、その位置は、会話式キャラクタインタフェース、
浸漬式オーディオ、自動カメラ制御、バーチャルリアリ
ティなど、多数の用途に有用である。
【0034】B.光源の区別 本発明に応じて複数の光源が用いられる場合には、ター
ゲット位置を測定するステップを行うことができるよう
に、これらの光源を互いに区別しなければならない。光
源5及び10は、周期、輝度、偏光、又はその他の手段
によって区別することができる。
【0035】1つの方法は、周期によって光源5及び1
0を区別する方法である。これは、いかなる時でも1つ
の光源のみがスクリーン15を照射する、ということを
意味する。光源5及び10は、特定の速度(以下、「切
換え速度」という)で交互に照射される。この切換え速
度をビデオフレーム速度と同期させることによって、各
光源は1つおきのビデオフレームを照射する。多くのビ
デオキャプチャカードは、このために用いることのでき
る同期出力を有している。
【0036】或いは、光源5及び10は、いくつかの連
続したフレームが各光源によって照射されるように、ビ
デオフレーム速度よりも遅い速度で切り換えることもで
きる。連続フレーム間におけるピクセル差は、光源が変
わるときに検出可能に大きくなるであろう。このことか
ら、このシステムは、光源の変化周期を概算し、位相ロ
ックループのように周期的にそのピクセル差を修正する
ことができる。この方法によると、ハードウェアにおけ
る光源を同期させなくてもよいという利点の代わりに、
ソフトウェアが複雑になる。別のアプローチとしては、
光源が交互に照射されなくてもよいように光源上に偏光
フィルタを用いること、及び、画像を解析するためにL
CDシャッタ又はその他の偏光変化方法を用いることが
ある。
【0037】C.投射面の画像化 図1〜図3を参照すると、ビデオカメラ35が、画像化
の目的でスクリーン15の後ろに配置されている。この
ビデオカメラは、スクリーン15の人20と反対側に映
るものを、一連の画像として取得する。1つの実施の形
態におけるビデオカメラ35は、赤外光に対しては感応
するが、可視光に対しては感応しない。この好適な実施
の形態では1台のビデオカメラを用いているが、本発明
に応じて何台の画像化デバイスを用いることもできるで
あろう。
【0038】このシステムのさらなる実施の形態では、
カメラ画像座標とスクリーン影座標とのマッピング機能
を、赤外光源を用いることなく、普通に見ることができ
る。これは、ビデオカメラ35からあらゆる赤外線フィ
ルタを取り外し、光源5及び10を用いて可視域におい
て照射することにより、行われる。次に、このカメラ3
5は、表示された影像を、スクリーン15上の後方散乱
から観察する。
【0039】どのようなスクリーン座標がカメラ座標に
マッピングされるかを測定するために、較正画像がスク
リーン15上に投射される。例えば、カメラ画像上に1
つの点を置くことができ、その座標を検出することがで
きる。実際には、格子のような規則画像を用いれば、一
度に多数の点を較正することができる。この格子を広げ
ることによって全てのピクセルをマッピングすることも
できるし、また、補間によって中間ピクセルを測定する
こともできる。その結果が、カメラ画像座標を絶対スク
リーン座標にマッピングさせる2次元のルックアップテ
ーブルであり、このルックアップテーブルは、レンズの
歪み、又は、ビデオカメラ35の投射軸からの不可避的
オフセットというようなその他のいずれの収差も補うで
あろう。
【0040】D.画像におけるターゲット境界のセグメ
ント化 全てのシルエットピクセルが0となり且つその他全ての
ピクセルが1となるように閾値処理を行うことによっ
て、スクリーン画像において1つ以上のターゲットを識
別することができる。図4(a)は、全ての可視光を遮る
フィルタ40をレンズ45にかぶせたビデオカメラによ
って記録した、影像を示している。次に、この画像は、
閾値処理される。即ち、全てのシルエットピクセルに値
0が付与されると共に、全ての照射ピクセルに値1が付
与される。図4(b)は、図4(a)の影像の閾値処理後の
状態を示している。カメラ35によって記録された一連
の画像における各画像に対して、閾値処理が行われる。
画像におけるターゲット境界のセグメント化は、この好
適な実施の形態では、画像を閾値処理することによって
達成されるが、本発明に応じて、いくつの技法を用いる
こともできるであろう。
【0041】E.ターゲット位置の測定 人20の位置は、影25及び30の大きさと位置とから
推測することができる。図1〜図3に関し、ターゲット
位置を測定する方法の一例としては、人20がスクリー
ン15から離れている距離を測定する方法がある。各光
源から投じられる影は、人がスクリーンから離れている
距離に相対する量だけオフセットされるので、この方法
は、2つの影における対応する点と点との位置ずれを測
定することにより行われる。例えば、影の最初の空間モ
ーメントは、影を投じているターゲットの質量中心、即
ち重心に相当する。図1では、影25における人20の
重心は、ほぼ点70に位置する。同様に、図2では、影
30における人20の重心は、ほぼ点75に位置する。
この点70と点75との変位を求めることによってずれ
を十分に概算することができ、ターゲットの重心間の距
離を求めることがずれ平均を十分に概算することとな
る。次に、直接的ヒューリスティックスを用いることに
よって、ユーザ位置を概算することができる。
【0042】多くの場合において、1次元的概算のみ
が、ターゲット位置を測定するのに必要とされる。X軸
上にシルエット画像を投射し、平均又は最初の中央モー
メントを求めることによって、人のX軸上における位置
を正確に測定することができる。多くの場合、この測定
は正確であるので、2つのずれた画像のX座標を差し引
くことにより、ずれを十分に概算することができるであ
ろう。
【0043】ターゲット位置を測定する方法の別の例と
しては、人20の身長を測定する方法がある。この方法
は、ある時間間隔で特定の光源により投じられる影のY
軸方向最大の伸びを、メディアンフィルタリングにより
除くことによって、行われる。長時間頭上に手を伸ばす
ことは不快であるため、通常は頭が高点となるので、こ
の方法によれば人20の身長がロバストに概算される。
メディアンフィルタは、例えば高い位置を指摘するとい
うような、先端部(手)が頭よりも高くなり得る一時的
な事象を取り除くであろう。この身長から数インチを引
くことによって、頭部の中心を適正に概算することがで
きる。この概算値は、頭部のごく近辺の画像を調べて、
卵形の頭部形状や首の凸状というような外形の特徴を検
出することによって、正確な値にすることができる。
【0044】伸ばした腕又は手というような先端部を見
出すには、再度簡単なヒューリスティックスを行えば十
分である。影重心から最大距離にある影境界点を調べれ
ば、伸ばした腕又は手というような先端部が識別される
であろう。重心から一定距離よりも離れた位置にある最
端点を調べれば、指摘している指先又はユーザが手に持
っている指摘具の位置が識別されるであろう。ある時間
にわたる指先の位置及び軌道を用いることによって、指
摘具を制御したり、カメラを指示領域にズームインさせ
たりすることができる。
【0045】極値を識別することによって、さらに先端
部からの距離を測定することができる。例えば、図5に
関しては、伸ばした手80がスクリーン15から離れて
いる距離を測定することができる。この測定は、(i)
光源5により投じられた影における伸ばした手80に対
応する点(図5の点90)と、(ii)光源10により投
じられた影における伸ばした手80に対応する点(図5
の点85)との、ずれを測定することにより達成され
る。
【0046】さらにヒューリスティックスを用いること
によって、極値を用いて行われる異なるジェスチャーを
区別することができる。例えば、手のような又は指のよ
うなテンプレートの照合を行うことによって、振ってい
る手と指摘している指とを区別することができる。ま
た、重心即ち頭からの手の変位を検出することによって
も、振りを指摘と区別することができる。複数フレーム
から得られるデータを用いることによって測定すること
のできる動作特性もまた、ジェスチャーを区別するのに
役立つ。先端部はある最大適正速度よりも遅い速度で動
く、と仮定することができる。
【0047】これらの方法のほとんどは、従来のビデオ
画像において人を追跡するのに用いることができるであ
ろうが、内容をビデオから直接切り離そうとするシステ
ムとは対照的に、影を区別する本発明のシステムと共に
用いると、よりロバストとなるであろう。これは、ビデ
オ画像におけるオブジェクト境界の確実なセグメント化
が、一般的には未解決の問題であるからである。非オブ
ジェクトの動作、あいまいな色若しくはテクスチャ、又
は、変化する背景画像は、大抵の人追跡システムを混乱
させるであろう。しかし、これらの問題は、本発明によ
る方法及びシステムを完全に用いることによって回避さ
れる。
【0048】F.極値を用いることによる投射面上に映
るものの制御 ユーザの手の位置が検出された後、画像座標からディス
プレイスクリーン座標にマッピングすると、先端部のス
クリーン位置が得られる。画像に相関する手又は指の位
置が測定されると、ユーザは、大きなタッチスクリーン
を用いるかのように、カーソル又はスクリーンポインタ
を制御することができるようになる。一例としては、ス
クリーン15上の所望の位置を指摘する若しくは指示す
ることによって、コンピュータのディスプレイ95上に
あるカーソルの上記所望の位置への移動を制御するよう
に、設定することができるであろう。
【0049】1つの実施の形態では、人の手がスクリー
ン15に十分近づいたときに、マウスによる「ボタンダ
ウン」コマンドと同等のものを、恐らく人への可聴フィ
ードバックと同時に、コンピュータ95に出すことがで
きるであろう。ずれがかなりの大きさになるほど、手が
スクリーン15から離れているときには、平均法を用い
ると共に、恐らく光源5及び10の非対称的配置を調整
するために重み付けを行うことにより、手の位置が測定
される。ユーザの手がスクリーンに十分、例えば数cm
に近づくと(これは、ずれにより測定される)、マウス
による「ボタンダウン」コマンドがコンピュータに出さ
れる。これは、長距離のプレゼンテーションにおいて非
常に有用であろう。例えば、電子会議において、ビデオ
情報を送る必要なく、投射画像上の指示位置に遠隔地の
移動カーソルでハイライトを与えることができるであろ
う。
【0050】別の実施の形態では、異なる手の形状を検
出して、異なる操作に用いることができる。例えば、こ
ぶしが「グラフィックのオブジェクトをつかむ」ことを
意味し、指摘している指が「グラフィックのオブジェク
トを引き出す」ことを意味してもよい。2つ以上の先端
部を検出することによって、ジェスチャーインタフェー
スを豊富にすることもできる。例えば、2つの伸ばした
手のうち、一方の手をスクリーンに近づけ、もう一方の
手をさらに遠くへ離すことによって、3次元映像を回転
させることができるであろう。この方法において、ユー
ザは、スクリーン上に表示された現実の又は仮想のオブ
ジェクトを制御したり、これらのオブジェクトと対話し
たりすることができる。
【0051】指摘及び非指摘というようなジェスチャー
の認識と、スクリーンからの距離の測定とが組み合わさ
れて、ロバストなジェスチャー認識システムの基礎を形
成している。プレゼンテーション中にジェスチャーによ
って指示される領域は、さらなる有益な情報源としての
機能も果たすことができる。例えば、電子会議におい
て、全てのビデオ情報を送る必要なく、投射された画像
上の指示位置に遠隔地の移動カーソルでハイライトを与
えることができる。この情報は、記録して、さらなる索
引付け情報源として、又は聴衆に対して表示する拡大版
として、用いることもできるであろう。プレゼンターに
より指摘されたテキスト又はグラフィックスは、まとめ
においてハイライトを与えたり、抽出して索引として機
能させたりすることができる。
【0052】本発明によるこのシステムは、タッチスク
リーンインタフェースを用いることによって、ユーザの
頭や胴で既に塞がれてしまった領域にはユーザが「タッ
チ」できないという欠点をもたらす。プレゼンターは聴
衆(ゆえに赤外線カメラ)が見ることのできる領域のみ
を通常は指示するであろうから、この欠点はユーザに対
して負担にはならない。さらに、タッチスクリーンは、
2つ以上の点に接触することは滅多にできないし、距離
又はジェスチャーを概算することもできない。
【0053】本発明の別の実施の形態では、テンプレー
ト照合又は隠れマルコフモデルなどのより高度な解析法
を、通常のジェスチャー認識及びユーザ対話に用いるこ
とができる。ジェスチャー及び姿勢の認識は、アバター
若しくは擬人化キャラクタを用いるインタフェースの重
要な部分である。例えば、ユーザの頭の位置を認知する
ことによって、キャラクタの目をユーザと合わせること
ができる。3次元浸漬式オーディオは、適切な音響信号
を生成して周囲音の感覚をもたらすために、ユーザの頭
の位置を必要とする。また3次元ビデオ環境やバーチャ
ルリアリティも、位置情報を必然的に使用する。ユーザ
位置に依って、仮想の又は現実の情景の異なる映像を投
射スクリーン上に表示することができ、これによって、
ユーザは、まるでスクリーンが透明な窓であるかのよう
に、歩き回ったり、映像変化を見たりすることができ
る。
【0054】本発明のさらなる実施の形態は、「カラー
キーイング」、つまり、あるビデオ画像の一部を別の画
像と置き換える操作を単純化する。カラーキーイング
は、コンピュータ画像上に気象予報士の画像を重ね合わ
せるのに用いられる技法である。従来的には、カラーキ
ーイングは、一様で鮮明な色の背景に対して対象をビデ
オ撮影し、次に、その一様な背景色のピクセルを背景画
像と置き換えることにより行われる。対象(者)が着る
ことのできる色が一般的には制限される上、対象(者)
は一般的には見えない画像と対話しなければならない。
本発明の実施の形態は、赤外光源がカメラ付近に位置し
ている場合には、見える影と人がスクリーン上を覆って
いる領域とが正確に一致するので、対象に関する事柄を
かなり単純化する。
【0055】本発明を上記のように詳細に説明してきた
が、これは単に、当業者に本発明の作製及び使用方法を
教示しているにすぎない。変更を加えた多くの改造物
が、本発明の範囲内に当てはまるであろう。従って、本
発明の範囲は、上記の特許請求の範囲により定義され
る。
【図面の簡単な説明】
【図1】本発明によるシステムの上面図である。
【図2】本発明によるシステムの上面図である。
【図3】本発明によるシステムの上面図である。
【図4】(a)は、全ての可視光を遮るフィルタをレン
ズにかぶせたビデオカメラによって記録した影像を示す
図であり、(b)は、(a)の影像の閾値処理後の状態
を示す図である。
【図5】本発明によるシステムの上面図である。
【符号の説明】
5、10 光源 15 スクリーン 20 ターゲット(人) 25、30 影 35 ビデオカメラ 40 フィルタ 45 レンズ 80 手 95 コンピュータ(ディスプレイ)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 150 G06T 7/00 150 5L096 7/60 150 7/60 150B H04N 7/18 H04N 7/18 C (72)発明者 ドン キンバー アメリカ合衆国 94304 カリフォルニア 州 パロ アルト ヒルビュー アベニュ ー 3400 ビルディング 4 エフエック ス パロ アルト ラボラトリー インコ ーポレイテッド内 Fターム(参考) 2F065 AA02 CC16 FF04 FF61 GG21 HH14 JJ03 JJ14 JJ19 JJ26 LL21 LL26 LL30 LL53 NN08 QQ08 QQ42 2F112 AD05 CA01 DA02 DA32 5B047 AA07 BB06 BC05 BC12 BC14 BC23 CA01 CB22 DC09 5B057 BA02 BA08 BA15 CA08 CA12 CA16 CB06 CB12 CB16 5C054 AA01 AA04 FE09 HA05 5L096 AA06 CA04 EA43 FA06 FA66 FA69 GA51

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 複数の光源と、 少なくとも2つの面を有しており、前記光源が該2つの
    面のうちの1つの面を照射することができるように方向
    付けされている投射面と、 前記光源と前記投射面の前記1つの面との間であり且つ
    前記投射面から離れたところに、全体として位置するタ
    ーゲットと、 前記投射面の前記ターゲットと反対側に位置しており、
    前記光源のそれぞれによって前記投射面上に投じられた
    前記ターゲットからの影を検出するように構成されてい
    る画像化デバイスと、 を備えるターゲット位置を測定するシステム。
  2. 【請求項2】 1つ以上の前記光源が赤外光源であり、
    前記画像化デバイスが赤外光には感応するが可視光には
    感応しない、請求項1に記載のシステム。
  3. 【請求項3】 前記画像化デバイスがビデオカメラであ
    る、請求項2に記載のシステム。
  4. 【請求項4】 前記ビデオカメラがレンズを備えてお
    り、前記システムが、前記ビデオカメラの該レンズ上に
    位置した可視光を遮るためのフィルタをさらに備える、
    請求項3に記載のシステム。
  5. 【請求項5】 偏光フィルタが前記光源上に配置され
    た、請求項4に記載のシステム。
  6. 【請求項6】 照射時に各光源によってターゲットが1
    つの影を半透明スクリーン上に投じるように、複数の該
    光源を用いて該半透明スクリーンの前にある該ターゲッ
    トを照射するステップと、 赤外光には感応するが可視光には感応しないビデオカメ
    ラを用いて、前記光源のそれぞれによって投じられると
    共に前記半透明スクリーンの前記ターゲットと反対側に
    映る前記ターゲットの影を、それぞれが複数のピクセル
    から構成される一連の画像として記録するステップと、 前記画像における影を表すピクセルの全てに対してある
    値を付与し、前記画像における影以外のものを表すピク
    セルの全てに対して前記値とは異なる値を付与するステ
    ップと、 前記影の大きさ及び位置から前記ターゲットの位置を測
    定するステップと、 を有するターゲット位置を測定する方法。
  7. 【請求項7】 いかなる時でも1つ以上の前記光源のう
    ちの1つのみが光を供給する、請求項6に記載の方法。
  8. 【請求項8】 いかなる時でも複数の前記光源のうちの
    1つのみが照射されるように、前記光源が特定の切換え
    速度で交互に照射されると共に、前記画像が特定のフレ
    ーム速度で記録される、請求項7に記載の方法。
  9. 【請求項9】 前記切換え速度が前記フレーム速度と同
    期される、請求項8に記載の方法。
  10. 【請求項10】 前記光源が赤外光源である、請求項8
    に記載の方法。
  11. 【請求項11】 前記画像化デバイスが、赤外光には感
    応するが可視光には感応しないビデオカメラである、請
    求項10に記載の方法。
  12. 【請求項12】 複数の前記光源のうちの1つによって
    発せられる光の輝度が、複数の前記光源のうちの別の1
    つによって発せられる光の輝度と異なる、請求項6に記
    載の方法。
  13. 【請求項13】 複数の前記光源のうちの1つによって
    発せられる光が、複数の前記光源のうちの別の1つによ
    って発せられる光と異なるように偏光される、請求項6
    に記載の方法。
  14. 【請求項14】 前記ターゲットの位置を測定するステ
    ップが、前記ターゲットと前記半透明スクリーンとの間
    の距離の測定を含む、請求項6に記載の方法。
  15. 【請求項15】 前記ターゲットが人の体の一部であ
    り、前記ターゲットの位置を測定するステップが、該人
    の頭頂部の位置の測定を含む、請求項6に記載の方法。
  16. 【請求項16】 前記ターゲットが人の体の一部であ
    り、前記ターゲットの位置を測定するステップが、該人
    の1箇所以上の先端部の位置の測定を含む、請求項6に
    記載の方法。
  17. 【請求項17】 前記ターゲットの位置を測定するステ
    ップが、前記人の1箇所以上の先端部と前記半透明スク
    リーンとの間の距離の測定を含む、請求項16に記載の
    方法。
  18. 【請求項18】 さらに、前記ターゲットの位置を用い
    ることによって前記半透明スクリーン上に映るものを変
    化させるステップを有する、請求項6に記載の方法。
JP2001247516A 2001-01-17 2001-08-17 ターゲット位置を測定するシステム及びその方法 Pending JP2002213947A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US764837 1996-12-12
US09/764,837 US6775014B2 (en) 2001-01-17 2001-01-17 System and method for determining the location of a target in a room or small area

Publications (1)

Publication Number Publication Date
JP2002213947A true JP2002213947A (ja) 2002-07-31

Family

ID=25071934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001247516A Pending JP2002213947A (ja) 2001-01-17 2001-08-17 ターゲット位置を測定するシステム及びその方法

Country Status (2)

Country Link
US (1) US6775014B2 (ja)
JP (1) JP2002213947A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
JP2010210646A (ja) * 2010-06-30 2010-09-24 Sony Corp 物体判断システム、物体判断方法およびプログラム
WO2014010251A1 (en) 2012-07-13 2014-01-16 Panasonic Corporation Hand and object tracking in three-dimensional space
JP2017021861A (ja) * 2016-11-01 2017-01-26 日立マクセル株式会社 プロジェクタ及びヘッドマウント型表示装置
WO2017060993A1 (ja) * 2015-10-07 2017-04-13 日立マクセル株式会社 映像表示装置およびこれに用いる操作検出方法
WO2019188046A1 (ja) * 2018-03-26 2019-10-03 富士フイルム株式会社 投影システム、投影制御装置、投影制御方法、投影制御プログラム

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US7209883B2 (en) * 2002-05-09 2007-04-24 Intel Corporation Factorial hidden markov model for audiovisual speech recognition
US20030212552A1 (en) * 2002-05-09 2003-11-13 Liang Lu Hong Face recognition procedure useful for audiovisual speech recognition
US7165029B2 (en) 2002-05-09 2007-01-16 Intel Corporation Coupled hidden Markov model for audiovisual speech recognition
US7171043B2 (en) 2002-10-11 2007-01-30 Intel Corporation Image recognition using hidden markov models and coupled hidden markov models
DE10250705A1 (de) * 2002-10-31 2004-05-13 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Schattenkompensation in digitalen Bildern
US7472063B2 (en) * 2002-12-19 2008-12-30 Intel Corporation Audio-visual feature fusion and support vector machine useful for continuous speech recognition
US7203368B2 (en) * 2003-01-06 2007-04-10 Intel Corporation Embedded bayesian network for pattern recognition
US6796656B1 (en) * 2003-06-14 2004-09-28 Imatte, Inc. Generating a matte signal from a retro reflective component of a front projection screen
US8046701B2 (en) * 2003-08-07 2011-10-25 Fuji Xerox Co., Ltd. Peer to peer gesture based modular presentation system
US7366323B1 (en) * 2004-02-19 2008-04-29 Research Foundation Of State University Of New York Hierarchical static shadow detection method
US20050239525A1 (en) * 2004-04-21 2005-10-27 Aruze Corp. Gaming machine
US8487910B2 (en) * 2005-05-02 2013-07-16 Smart Technologies Ulc Large scale touch system and methods for interacting with same
US20070018989A1 (en) * 2005-07-20 2007-01-25 Playmotion, Llc Sensory integration therapy system and associated method of use
US7742068B2 (en) * 2005-09-14 2010-06-22 Sorenson Communications, Inc. Method and system for auto configuration in a video phone system
US7746985B2 (en) * 2005-09-14 2010-06-29 Sorenson Communications, Inc. Method, system and device for relay call transfer service
US7746984B2 (en) * 2005-09-14 2010-06-29 Sorenson Communications, Inc. Method and system for call initiation in a video relay service
US7769141B2 (en) * 2005-09-23 2010-08-03 Sorenson Communications, Inc. Method and system for visual spatial caller identification
CN100437145C (zh) * 2005-12-19 2008-11-26 北京威亚视讯科技有限公司 位置姿态跟踪系统
US8350957B2 (en) 2006-05-09 2013-01-08 Technion Research And Development Foundation Ltd. Imaging systems and methods for recovering object visibility
US9104270B2 (en) * 2006-05-22 2015-08-11 Thomson Licensing Video system having a touch screen
US7984995B2 (en) * 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP5023587B2 (ja) * 2006-07-18 2012-09-12 富士ゼロックス株式会社 画像表示装置及び画像表示方法
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5559691B2 (ja) 2007-09-24 2014-07-23 クアルコム,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8007110B2 (en) * 2007-12-28 2011-08-30 Motorola Mobility, Inc. Projector system employing depth perception to detect speaker position and gestures
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
WO2009117161A2 (en) * 2008-03-21 2009-09-24 Variation Reduction Solutions, Inc. External system for robotic accuracy enhancement
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
CN102132239B (zh) * 2008-08-26 2015-11-25 多点触控有限公司 交互式显示屏
US20100064213A1 (en) * 2008-09-10 2010-03-11 Zhou Ye Operation device for a graphical user interface
US8704822B2 (en) 2008-12-17 2014-04-22 Microsoft Corporation Volumetric display system enabling user interaction
US20110050903A1 (en) * 2009-04-08 2011-03-03 Topcon Positioning Systems, Inc. Method for determining position and orientation of vehicle trailers
US8798316B2 (en) 2009-05-14 2014-08-05 Koninklijke Philips N.V. Method and system for controlling lighting
JP5553546B2 (ja) * 2009-07-07 2014-07-16 キヤノン株式会社 画像投影装置、及びその制御方法
KR20110046941A (ko) * 2009-10-29 2011-05-06 삼성전자주식회사 프로젝터를 구비한 이동 단말 및 그 제어 방법
KR100977558B1 (ko) * 2009-12-22 2010-08-23 전자부품연구원 적외선 스크린 방식의 공간 터치 장치
US8491135B2 (en) * 2010-01-04 2013-07-23 Microvision, Inc. Interactive projection with gesture recognition
US20110164191A1 (en) * 2010-01-04 2011-07-07 Microvision, Inc. Interactive Projection Method, Apparatus and System
JP5825561B2 (ja) * 2010-01-29 2015-12-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. インタラクティブな照明制御システム及び方法
KR101640456B1 (ko) * 2010-03-15 2016-07-19 삼성전자주식회사 디스플레이 패널의 각 픽셀들의 개구부를 통해 촬영하는 촬영 장치 및 방법
WO2011116199A1 (en) * 2010-03-17 2011-09-22 Jose Cordero Method and system for light-based intervention
US8502816B2 (en) 2010-12-02 2013-08-06 Microsoft Corporation Tabletop display providing multiple views to users
CN103918252B (zh) * 2011-11-04 2017-06-06 英派尔科技开发有限公司 用于图像的ir信号捕获
JP6037900B2 (ja) * 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置及び操作検出方法
US9696185B2 (en) * 2015-01-15 2017-07-04 Csm Centre Suisse D'electronique Et De Microtechnique Sa—Recherche Et Développement 6D positioning system using a shadow sensor
US20190012789A1 (en) * 2015-07-21 2019-01-10 Heptagon Micro Optics Pte. Ltd. Generating a disparity map based on stereo images of a scene
CN107941208A (zh) * 2017-10-09 2018-04-20 深圳市虚拟现实科技有限公司 虚拟现实空间定位方法及系统
US10129395B1 (en) 2017-10-26 2018-11-13 Sorenson Ip Holdings Llc Systems and related methods for visual indication of callee ID information for an incoming communication request in a hearing-impaired environment
DE102021134446A1 (de) 2021-12-23 2023-06-29 Endress+Hauser Group Services Ag Stereoskopische Messanordnung zum Ermitteln einer Positionsinformation eines Ereignisorts in einem Überwachungsraum von einem Bezugspunkt und Verfahren zum Ermitteln einer Positionsinformation eines Ereignisorts in einem Überwachungsraum

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4468694A (en) * 1980-12-30 1984-08-28 International Business Machines Corporation Apparatus and method for remote displaying and sensing of information using shadow parallax
US5045843B1 (en) 1988-12-06 1996-07-16 Selectech Ltd Optical pointing device
US5023709A (en) * 1989-11-06 1991-06-11 Aoi Studio Kabushiki Kaisha Automatic follow-up lighting system
US5268734A (en) 1990-05-31 1993-12-07 Parkervision, Inc. Remote tracking system for moving picture cameras and method
US5239373A (en) 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
US5383013A (en) 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
JPH07261920A (ja) 1994-03-17 1995-10-13 Wacom Co Ltd 光学式位置検出装置および光学式座標入力装置
JP3794180B2 (ja) * 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
DE19845030A1 (de) * 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6341016B1 (en) * 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
US8897499B2 (en) 2008-04-04 2014-11-25 Sony Corporation Position detection system, position detection method, program, object determination system and object determination method
JP2010210646A (ja) * 2010-06-30 2010-09-24 Sony Corp 物体判断システム、物体判断方法およびプログラム
WO2014010251A1 (en) 2012-07-13 2014-01-16 Panasonic Corporation Hand and object tracking in three-dimensional space
US9720511B2 (en) 2012-07-13 2017-08-01 Panasonic Intellectual Property Management Co., Ltd. Hand and object tracking in three-dimensional space
WO2017060993A1 (ja) * 2015-10-07 2017-04-13 日立マクセル株式会社 映像表示装置およびこれに用いる操作検出方法
JPWO2017060993A1 (ja) * 2015-10-07 2018-07-05 マクセル株式会社 映像表示装置およびこれに用いる操作検出方法
US10459577B2 (en) 2015-10-07 2019-10-29 Maxell, Ltd. Video display device and manipulation detection method used therefor
JP2017021861A (ja) * 2016-11-01 2017-01-26 日立マクセル株式会社 プロジェクタ及びヘッドマウント型表示装置
WO2019188046A1 (ja) * 2018-03-26 2019-10-03 富士フイルム株式会社 投影システム、投影制御装置、投影制御方法、投影制御プログラム
JPWO2019188046A1 (ja) * 2018-03-26 2021-02-12 富士フイルム株式会社 投影システム、投影制御装置、投影制御方法、投影制御プログラム

Also Published As

Publication number Publication date
US20020093666A1 (en) 2002-07-18
US6775014B2 (en) 2004-08-10

Similar Documents

Publication Publication Date Title
JP2002213947A (ja) ターゲット位置を測定するシステム及びその方法
US10642371B2 (en) Sessionless pointing user interface
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
Molyneaux et al. Interactive environment-aware handheld projectors for pervasive computing spaces
US9122311B2 (en) Visual feedback for tactile and non-tactile user interfaces
US6947029B2 (en) Handwritten data input device and method, and authenticating device and method
JP5205187B2 (ja) 入力システム及び入力方法
JP4768196B2 (ja) 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
US20170140552A1 (en) Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
US20110292036A1 (en) Depth sensor with application interface
JP3579218B2 (ja) 情報表示装置及び情報収集装置
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
CN108022264B (zh) 相机位姿确定方法及设备
JPH0844490A (ja) インターフェイス装置
WO2004042548A1 (ja) 運動検出装置
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
JP2005056059A (ja) 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
Tsuji et al. Touch sensing for a projected screen using slope disparity gating
KR20090040839A (ko) 증강현실 컴퓨터 장치
JP6950644B2 (ja) 注意対象推定装置及び注意対象推定方法
GB2345538A (en) Optical tracker
KR20190036864A (ko) 가상현실 전망용 망원경, 이를 이용한 전망용 가상현실 구동 방법 및 매체에 기록된 어플리케이션
JP5068711B2 (ja) 物体形状認識システム及び物体形状認識方法
Nakazato et al. A localization system using invisible retro-reflective markers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060829

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070911