JP2004535610A - カメラビュー内の制御可能なディスプレイの前にある物体の位置の決定のための前景および背景画像データのロバストな分離のためのシステムおよび方法 - Google Patents
カメラビュー内の制御可能なディスプレイの前にある物体の位置の決定のための前景および背景画像データのロバストな分離のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2004535610A JP2004535610A JP2002561687A JP2002561687A JP2004535610A JP 2004535610 A JP2004535610 A JP 2004535610A JP 2002561687 A JP2002561687 A JP 2002561687A JP 2002561687 A JP2002561687 A JP 2002561687A JP 2004535610 A JP2004535610 A JP 2004535610A
- Authority
- JP
- Japan
- Prior art keywords
- display area
- image
- capture
- data
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Abstract
システム(50〜53および60〜63)を較正して、表示エリアと、画像取り込み装置の取り込みエリアにおける取り込み表示エリアとの間の座標位置マッピング関数および輝度マッピング関数を得ることによって実施される、ユーザ対話式コンピュータ制御表示エリアの前に位置する物体の位置を決定するシステムおよび方法である。一旦較正されると、表示エリア(21)画像データをマッピング関数を用いて変換して予想取り込み表示エリアデータを得、表示エリア画像(22)を取り込んで実際の取り込み表示エリアデータを得、また予想データおよび実際のデータ(23)を比較して取り込みエリア内の表示エリアの前の物体の位置を決定することによって、リアルタイムシステム操作中に物体の位置が決定され得る。
Description
【技術分野】
【0001】
本発明は、コンピュータ制御可能な表示システムに関し、特に、ユーザと、コンピュータ制御される画像表示または投影画像との対話に関する。
【背景技術】
【0002】
コンピュータ制御投影システムは、一般に、画像データを生成するためのコンピュータシステムおよびその画像データを投影スクリーンに投影するためのプロジェクタを有する。通常、コンピュータ制御投影システムは、プレゼンタが、コンピュータシステムを用いて作成されたプレゼンテーションをより大きなスクリーンに投影し、一人より多くのビューアがそのプレゼンテーションを容易に見ることができるようにするために用いられる。大抵の場合、プレゼンタは、投影画像上の注目すべきエリアを当該プレゼンタの指、レーザポインタ、または、他のポインティング装置または器具で指すことによって投影画像と対話する。
【0003】
このタイプのシステムにおける問題は、ユーザが投影画像を任意に変更したい場合に、マウス、キーボードまたはリモートデバイスなどの入力装置を用いてコンピュータシステムと対話しなければならないことである。例えば、装置は、大抵の場合、赤外線信号を介してコンピュータシステムを遠隔制御し、プレゼンテーションにおける次のスライドを表示するためにプレゼンタによって用いられる。しかし、これは、プレゼンテーションのビューアの注意をそらす可能性がある。なぜなら、プレゼンタは、ビューアおよび投影されたプレゼンテーションともはや対話せず、その代わりに、コンピュータシステムと対話しているからである。大抵の場合、この対話は、プレゼンテーションにおいて著しい中断を引き起こし得る。
【0004】
従って、コンピュータのみとの対話という問題を克服するために開発された上記のシステムの変形形態によって、プレゼンタは、投影画像と直接対話することができ、従って視聴者とより良好に対話することができる。このシステムでは、コンピュータは、画像プロジェクタで投影スクリーンに投影される画像データ(例えば、プレゼンテーションスライド)を生成する。システムはまた、投影画像を取り込むためにデジタルカメラなどのデジタル画像取り込み装置を有する。取り込まれた投影画像データは、コンピューティングシステムに再び送信され、スクリーンの前の任意の物体(例えばポインティング装置)の位置を決定するために用いられる。次に、コンピュータシステムは、ポインティング装置の決定された位置に応じて制御され得る。例えば、本願の譲受人に譲渡された米国特許第5,138,304号では、光ビームは、スクリーンに投影され、カメラで検出される。光ビームの位置を決定するために、投影画像の取り込まれた画像データおよび元の画像データは比較される。次に、コンピュータは、ポインタ位置にビデオ画像内のカーソルを位置決めするか、ポインタ位置に応答して投影画像を変更するようになされる。
【0005】
ユーザ対話式コンピュータ制御表示または投影システムを実施するために、まず、カメラの取り込みエリア内のスクリーンの位置(すなわち、画像が表示されるエリア)を決定するために較正が行われなければならない。スクリーンの位置が決定されると、この情報は、表示エリア内であるが、表示画像の一部ではない取り込みエリア内の物体(例えば、表示エリアの前にある物体)を識別するために用いられ得る。例えば、システムは、表示エリアの前にあるポインタまたは指および表示エリア内のその位置を識別することができる。物体が表示エリアの前のどこにあるかが分かることを利用して、表示エリア内のその位置に応じてシステムを物体に応答させることができる。
【0006】
米国特許第5,940,139号に記載された1つの既知の技法では、映像の前景および背景は、前景を可視光で照明し、背景を赤外線と可視光との組み合わせで照明し、2つの異なるカメラを用いて信号を得、前景から背景を抽出することによって分離される。米国特許第5,345,308号に記載された他の既知の技法では、人工物体は、ビデオカメラに設けられた偏光子を用いることによってビデオ信号内で区別される。人工物体は、偏光され得る光を反射する垂直面および水平面の両方を有するのに対して、背景は、偏光成分を有さない。このように、人工物体は、ビデオ信号からフィルタリングされる。これらの技法は、さらなる照明方法、異なるタイプのカメラまたはフィルタリングハードウェアを必要とする点で厄介であり、従って、スライドプレゼンテーションの用途における物体の正確な位置決定またはリアルタイム操作に適していない。
【0007】
米国特許第5,835,078号に記載されたさらに他の既知の技法では、赤外線ポインタは、大きなスクリーン表示デバイス上に投影され、赤外線ポインタの識別および位置が決定される。専用の赤外線ポインティング装置は、各装置に特有の周波数を発する。所与のポインタの識別および位置は、赤外線カメラを用いてその周波数を検出することによって検出される。次に、ポインタの識別および位置を用いて、コンピュータシステムが、大きなスクリーンディスプレイ上の赤外線ポインタが位置する点に所与のポインタに対応するマークを表示するようにする。この技法では、表示スクリーン上に投影される物体の位置は識別されるが、赤外線ポインタおよび赤外線カメラを含む専用の機器を用いる必要がある。さらに、この技法は、表示画像上の赤外線を検出する簡単なプロセスに依存する。これに対して、表示画像の前景にある物理的物体の分離には、物体の背景に対応する画像データからの、物体に対応する画像データの実際の分離(すなわち、前景画像と背景画像の分離)が必要である。
【0008】
本発明は、ユーザ対話式コンピュータ制御表示システムにおける画像取り込み装置の取り込みエリア内の表示エリアの前景および背景画像データを分離する技法である。
【発明の開示】
【0009】
ユーザ対話式コンピュータ制御表示エリアの前に位置する物体の位置を決定するシステムおよび方法は、表示エリア内に画像を表示するためのコンピュータシステムと、導出された座標位置マッピング関数および導出された輝度マッピング関数を用いて表示画像データを予想取り込み表示エリアデータに変換するための手段と、画像取り込みエリア内の画像を取り込み、取り込みエリア内の表示エリアの所定の位置に対応する取り込み表示エリアデータを含む取り込みデータを得るための画像取り込み装置と、取り込み表示エリアデータの各座標位置において予想取り込み表示エリアデータを取り込み表示エリアデータと比較するための手段とを備え、一致しない比較された画像データは、表示エリアの前にある物体の画素位置に対応する。
【0010】
コンピュータ制御表示エリアを含むシステムの他の実施形態では、システムは、それぞれが較正物体を含む複数の較正画像を表示エリア内に表示し、それぞれが複数の較正画像の1つを含む複数の画像を取り込みエリア内で取り込み、表示エリア内の較正物体の座標位置と、各取り込み画像に対する取り込みエリアにおける較正物体の座標位置との間のマッピングを決定し、複数の取り込み画像の位置マッピングから座標位置マッピング関数を導出することによって較正される。
【0011】
他の実施形態では、システムはさらに、異なる表示輝度値を有する少なくとも2つの輝度較正物体を表示エリア内に表示し、取り込みエリア内の輝度較正物体を取り込み、表示輝度値に対応する取り込み輝度値を得て、表示輝度値を取り込み輝度値にマッピングし、表示輝度値と取り込み輝度値との間のマッピングから輝度マッピング関数を導出することによって較正される。
【0012】
発明の詳細な説明
画像データ10Aを生成するためのコンピューティングシステム10と、画像データ10Aに対応する画像10Bを表示エリア12に表示するためのグラフィカルインターフェース11とを備えたユーザ対話式コンピュータ制御画像表示システムのブロック図が図1に示される。グラフィカルインターフェースは、コンピューティングシステムの一部であるか、またはコンピューティングシステムの外部にある別個の要素であり得ることを理解されたい。システムはさらに、表示画像10Bを取り込むための関連する画像取り込みエリア13Aを有する画像取り込み装置13を有する。取り込み画像はまた、表示エリア10Bの外側にある物体または領域の画像10Cを含む。取り込み画像はまた、表示エリア12の前にある画像取り込みエリア13A内に位置する物体10Dを含み得る。非表示エリア画像は、表示エリアへと延在する物体を含む、画像データ10Aに応答して表示エリア内に表示されるもの以外のものを含む。取り込み画像は、デジタル画像データ13Bに変換され、物体ロケータ14に送信される。物体ロケータ14は、画像データ変換器15および画像データ比較ユニット16を有する。画像データ変換器15は、導出された座標位置関数および輝度マッピング関数15Bを用いて、コンピューティングシステムによって生成される表示エリア画像データ10Aを予想取り込み表示エリア画像データ15Aに変換する。予想画像データ15Aは、取り込み画像データ13Bおよび所定の表示エリア位置情報13Cと共に、画像データ比較ユニット16に結合される。画像データ比較ユニット16は、予想取り込み表示エリア画像データ15Aを、所定の表示エリア位置内の表示エリアに対応する、取り込み画像データ13Bの一部分と比較する。一致しない比較されたデータは、物体が位置する取り込み表示エリア画像データ13B内の画素位置に対応する。物体位置情報16Aは、コンピューティングシステム10に送信され、ユーザ対話式コンピュータ制御表示システムにおいて用いられることができる。
【0013】
本実施形態では、コンピューティングシステム10は、少なくとも、中央処理装置(CPU)と、デジタルデータ(例えば、画像データ)を格納するためのメモリとを有し、少なくとも3つのレベルのグレイスケール画像を生成する能力を有する。表示エリアは、グラフィカルインターフェースによって駆動されるコンピュータモニタであり得るか、または投影スクリーンもしくは投影エリア(例えば、壁)上のエリアであり得る。画像が投影を用いて表示される場合、システムは、グラフィカルインターフェースから提供される画像データに応答する画像プロジェクタ(図1に示されない)を含む。
【0014】
一実施形態では、画像取り込み装置は、少なくとも既知の時間遅延内に表示エリア12に表示されるすべての画像10Bを取り込むように構成されたデジタルスチルまたはビデオカメラあるいはデジタルビデオカメラである。画像が、カメラの取り込みエリア内でセンサに到達する光の強度を検出するセンサのアレイを用いてデジタルカメラによって取り込まれることは、デジタル画像取り込みの分野において既知である。次に、光強度信号は、取り込まれた画像に対応するデジタル画像データに変換される。従って、取り込まれた画像データ13Bは、取り込まれた画像に対応するデジタル画像データである。他の実施形態では、画像取り込み装置は、アナログスチルまたはビデオカメラであり、取り込まれたアナログ画像データは、取り込みデジタル画像データ13Bに変換される。
【0015】
一実施形態では、画像10Bは、コンピュータにより生成されたユーザのスライドプレゼンテーションにおける複数のスライドに対応する。
【0016】
表示画像当たり、表示画像データの予想取り込み画像データへの1回の変換が必要であることに留意されたい。しかし、表示画像の前に位置する非静的物体の移動および位置を検出するために、表示画像当たり2回以上の比較を実施することが可能である。例えば、単一画像が表示されるが、それは、画像取り込み装置13によって連続して取り込まれ、新しく取り込まれた各画像は、画像データ比較ユニット16によって、予想取り込み画像データと比較され、異なる時間間隔で物体の位置を決定することができる。
【0017】
物体ロケータ14の機能のすべてまたは一部は、コンピューティングシステムによって実施され得ることを理解されたい。この結果、物体ロケータ14はコンピューティングシステムの外部に示されるが、物体ロケータ14のすべてまたは一部は、コンピューティングシステム内で実施され得る。
【0018】
物体ロケータは、ソフトウェア実施態様、ハードウェア実施態様、またはソフトウェアおよびハードウェア実施態様の任意の組み合わせにおいて実施され得ることをさらに理解されたい。
【0019】
表示エリア12の前に位置する物体の位置を決定するための方法の第1の実施形態を、図2Aに示す。画像は、表示エリア内に表示される(ブロック20)。画像は、図1に示されるシステムのリアルタイム使用中に表示されるユーザのスライドプレゼンテーションの複数の画像の現在の1つの画像に対応し得る。図2Aに示される方法は、スライドプレゼンテーションの複数の画像(すなわち、スライド)のそれぞれに対して実施され、表示エリアの前の物体の位置決定はプレゼンテーション中にリアルタイムで実施され得ることに留意されたい。
【0020】
表示エリア内に画像を表示するためにコンピューティングシステムによって用いられる対応する画像データ10A(図1)は、予想取り込み表示エリアデータに変換される(ブロック21)。画像データは、導出された座標位置マッピング関数および導出された輝度マッピング関数を用いて変換される。図2Bは、予想取り込み表示エリア画像データへの表示エリア画像データの変換を例示する。表示エリア画像25は、画像を投影または表示するためのコンピューティングシステムによって生成される画像データ10Aに対応する。画像データ10Aは、導出された座標位置マッピング関数および輝度マッピング関数を用いて変換され、予想取り込み表示エリア画像26に対応するデータを生成する。
【0021】
表示画像を、画像取り込み装置の取り込みエリア内で取り込み、取り込みエリア画像データを得る(ブロック22)。図2Cは、表示エリアデータ28および非表示エリア画像データ29を含む取り込み画像データ27を示す。表示エリアデータは、表示エリア内の表示画像の前に位置する少なくとも1つの物体30の一部を含む。この結果、表示エリアデータは、物体の一部に対応する画像データを含む。
【0022】
取り込みエリア内の表示エリアの位置は事前決定される。この事前決定は、ユーザ対話式コンピュータ制御表示システムのリアルタイム使用の前に、システムの較正中に実施され得る。一実施形態では、表示エリアの位置の事前決定は、本明細書において参照により援用する米国特許出願第09/774,452号に開示されるシステムおよび方法に従って実施される。具体的には、この方法によると、表示エリアの位置は、複数の取り込み較正画像に対応する画像データから建設的および破壊的フィードバックデータを引き出すことによって決定される。取り込みエリア内の表示エリアの位置を決定する他の方法を用いて、本発明に従って表示スクリーンの前にある物体の位置を決定するシステムおよび方法を実施し得ることを理解されたい。取り込みエリア内の表示スクリーンの位置の事前決定により、取り込み画像データ27からの取り込み表示エリアデータ31の分離/識別が可能になる(図2C)。特に図2Cに示されるように、取り込みエリア内の表示エリアの位置の事前決定により、表示画像データ28Aおよび表示エリアの前にある物体の一部分に対応するデータ28Bを共に含む表示エリアデータのみの分離/識別が可能になる。
【0023】
予想取り込み表示エリアデータ26は、マッピングされた画素値を比較することによって、識別された取り込み表示エリアデータ31と比較される(ブロック23、図2D)。一致しない画素値は、表示エリアの前の物体の位置を示す(ブロック24)。図2Dに示されるように、物体28Bは、一致しない画素データを表し、それによって、表示エリアの前にある物体を示す。
【0024】
表示画像当たり、予想取り込み画像データへの表示画像データの1回だけの変換(ブロック21)が最低限必要であるが、表示画像の前に位置する非静的物体の移動および位置を検出するために、表示画像当たり2回以上の比較(ブロック23)が実施され得ることを理解されたい。例えば、単一画像が表示されるが、これは、連続して取り込まれ(ブロック22)、予測取り込み画像データと比較され(ブロック23)、画像が表示されている間に異なる時間間隔で物体の位置を決定する。
【0025】
図3および図4は、図2Aに示されるユーザ対話式コンピュータ制御表示システムの前にある物体の位置を決定する方法を例示する画像を示す。特に、図3は、表示エリア34および表示エリア34の前に位置する物体35(すなわち、手)を含む画像を有する取り込みエリア33を示す。図4は、ディスプレイの前の手の位置を決定するために図2Aに示される方法を用いて得られるデータを示す。この例では、図2Aの方法は、取り込み画像データをさらに変更し、手の座標位置40における画素値(すなわち、輝度値)を1つの輝度値(例えば、白)に設定し、物体が検出されない座標位置41の画素値を異なる輝度値(例えば、黒)に設定することによって、取り込みエリア内の表示エリアの前の手の位置を示す。
【0026】
図2Aに示される方法によると、取り込み表示エリアデータは、予想取り込み表示エリアデータ(予想データ(ExpectedData))を取り込み表示エリアデータ(実際のデータ(ActualData))から減算することによって予想される表示エリアデータと比較され、差の値を得ることができる。
【0027】
【数1】
ここで、(ui,vi)は、取り込み表示エリア内の座標位置である。次に、差の値δ(ui,vi)は、閾値cthreshと比較される。ここで、cthreshは、照明条件、表示される画像、およびカメラ品質によって決定される定数である。差の値が閾値よりも大きい場合(すなわち、δ(ui,vi)>cthresh)、物体は、その座標点に存在する。換言すると、所定の表示エリア位置におけるコンピュータの輝度予想値に合致しないディスプレイ上の点は、カメラとディスプレイとの間の視線内に物体を有する。
【0028】
図5Aは、ユーザ対話式コンピュータ制御表示エリアの前に位置する物体の位置を決定するためのシステムを較正する方法を示す。較正は、まず、複数の座標較正画像を表示することによって成し遂げられる(ブロック50)。図5Bは、較正物体54を含む座標較正画像55の例を示す。較正画像は、較正物体が各較正画像内の異なる位置に位置するという特徴を有する。物体は、形状が円形である必要はなく、他の形状をとって本願の方法を実施することができることに留意されたい。
【0029】
複数の較正画像は、各取り込み画像が較正物体の1つを含むように取り込みエリア内で順次取り込まれる(ブロック51)。各取り込み画像に対して、表示エリア較正物体の座標位置が取り込みエリア内の表示エリアの所定の位置内の較正物体の座標位置にマッピングされる(ブロック52)。表示エリア較正物体の座標位置は、画像データ10A(図1)から既知であり、取り込みエリア内の較正物体の座標位置は、取り込みデータ13Bから既知であることに留意されたい。
【0030】
図5Cに示されるように、表示された表示較正画像55は、x−y座標系を有するものとして観察され、取り込み画像58は、u−v座標系を有するものとして観察されることができ、それによって、較正物体54のx−y座標位置は、取り込み物体54’のu−v座標位置にマッピングされることが可能となる。
【0031】
取り込みエリアにおける表示エリア57に対応する画像データは、取り込みエリア内の表示エリアの位置を事前決定することによって識別される。上記のように、表示エリア位置の事前決定は、米国特許出願第09/774,452号に開示されるシステムおよび方法に従って実施され得るが、他の方法を用いることもできる。取り込みエリア内の表示スクリーンの位置の事前決定により、取り込み表示エリアデータの識別、この結果、表示された表示較正物体54のx−y座標位置の、所定表示エリア内の取り込み較正物体54’のu−v座標位置へのマッピングが可能になる。
【0032】
較正物体位置の個々のマッピングにより、2つの座標系間の関数の導出が可能になる(ブロック53)。
【0033】
【数2】
【0034】
一実施形態では、位置マッピング関数を導出するために、透視変換関数(式3および式4)が用いられる。
【0035】
【数3】
【0036】
【数4】
【0037】
式3および式4の変数aijは、各較正物体に対して個々の位置マッピングを決定することによって導出される。簡単な移動マッピング関数またはアフィンマッピング関数などの他の変換関数が用いられ得ることに留意されたい。
【0038】
例えば、表示エリア内で表示される較正画像内の所定の較正物体については、対応するx,y座標は、コンピュータシステムによって生成される画像データ10Aから既知である。さらに、取り込み較正画像内の同じ較正物体のu,v座標もまた、取り込みエリア内の表示エリアの所定の位置に対応する取り込み画像データ13Bの一部分から既知である。既知のx,y,u,v座標値は、所定の較正物体に対して、式3および式4に代入される。複数の較正画像内の較正物体のそれぞれは、同じようにマッピングされ、xおよびy較正マッピング式(式3および式4)が得られる。
【0039】
次に、各較正物体の位置マッピングを用いて、座標位置関数(式3および式4)を導出する。具体的には、較正マッピング式は、同時に解かれ、変換関数式3および式4の係数a11〜a33が求められる。一旦求められると、係数は、式3および式4に代入され、それによって表示エリア内の所定のx、y座標位置に対して、対応するu−v座標位置が決定され得る。u−v座標からx,y座標への逆マッピング関数もまた、係数a11〜a33から導出され得ることに留意されたい。
【0040】
二次元変換関数(例えば、式3および式4)の場合、9個の係数(例えば、a11〜a33)が求められる必要があるため、少なくとも9個の式が必要である。較正画像当たり2つのマッピング式があるため、その関数を解くために少なくとも5つの較正画像が必要である。さらに多くの較正物体を用いてもよく、また、この過剰制約された問題(すなわち、係数を解くために必要なよりも多くの較正物体)が、LSQ(すなわち、最小二乗法)当てはめを用いてロバストに近似され得ることに留意されたい。
【0041】
図5Aに示される方法は、輝度マッピング関数を求めるための図6に示される較正方法をさらに含み得る。較正は、互いに異なる輝度値を有する少なくとも2つの輝度較正物体を表示することによって成し遂げられる(ブロック60)。少なくとも2つの輝度較正物体は、別個の画像または同じ画像で表示され得る。少なくとも2つの物体は、1つの画像または複数の画像内の同じ位置または異なる位置に表示され得る。輝度較正物体は、色またはグレイスケール画像物体であり得る。表示された表示輝度較正物体の表示輝度値は、コンピューティングシステム10によって生成される画像データ10Aから既知である(図1)。取り込まれた物体が表示輝度値に対応する関連の取り込み輝度値を有する取り込みデータ13Bを得るために、少なくとも2つの較正物体が取り込まれる(ブロック61)。表示輝度値は、取り込み輝度値にマッピングされる(ブロック62)。輝度マッピング関数は、少なくとも2つの輝度マッピングから導出される(ブロック63)。導出された座標位置マッピング関数は、表示エリアと、取り込まれた表示エリアとの間の対応する画素位置を識別し、対応する位置における画素間の輝度マッピングを可能にするために用いられることに留意されたい。
【0042】
一実施形態では、輝度マッピング関数は、補間を用いて求められる。例えば、表示輝度値と取り込み輝度値との間のマッピングを想定すると、表示値および対応するマッピングされた取り込み値の範囲は、線形補間を用いて求められ得る。次に、取り込み輝度値および補間取り込み輝度値は、ルックアップテーブルに格納され、表示輝度値がテーブルにアクセスすると、対応のマッピングされた取り込み輝度値を得ることができるようになっている。マッピングが線形補間に限定されず、他のより高次すなわち非線形補間方法が用いられ得ることに留意されたい。
【0043】
このように、輝度および座標位置マッピング関数は、式1におけるExpectedData(ui,vi)を計算するために求められる。次に、ExpectedData(ui,vi)とActualData(ui,vi)との間の絶対差(すなわち、δ(ui,vi))を求めて、取り込みデータの表示エリアにおける物体の位置を決定する。
【0044】
ユーザ対話式コンピュータ制御表示システムにおける画像取り込み装置の取り込みエリア内の表示エリアの前にある物体の位置を決定するための数学的に複雑でない解決法を提供するシステムおよび方法について記載した。具体的には、画像がフレーム毎の単位で表示され、簡単な一連の操作が連続して実施され、表示画像の前の物体の位置を決定するシステムについて記載した。
【0045】
上記の説明では、本発明を完全に理解してもらうために、較正画像タイプおよび透視変換関数などの多くの具体的な詳細を提示した。しかし、当業者には、これらの具体的な詳細は、本発明を実施するために用いられる必要はないことが明らかであろう。その他、本発明を不必要に不明瞭にするのを避けるため、既知の画像処理技法については記載していない。
【0046】
さらに、本発明の要素を特定の実施形態に関連して記載したが、本発明は、様々な他の方法で実施され得ることが理解される。この結果、例示として図示され記載された特定の実施形態は、限定するものとして見なされることを決して意図しないことが理解されるであろう。これらの実施形態の詳細を参照することは、本発明の本質と見なされる特徴のみを記載する特許請求項を限定することを意図するものではない。
【図面の簡単な説明】
【0047】
【図1】本発明によるユーザ対話式コンピュータ制御表示システムにおける表示エリアの前にある物体の位置を決定するためのシステムの第1の実施形態のブロック図である。
【図2A】本発明によるユーザ対話式コンピュータ制御表示システムにおける取り込みエリア内の表示エリアの前にある物体の位置を決定するための方法の第1の実施形態を例示する図である。
【図2B】予想取り込み表示エリア画像データへの表示エリア画像データの変換を例示する図である。
【図2C】所定の表示エリア位置情報を用いた、取り込み表示エリア画像データの識別を例示する図である。
【図2D】予想取り込み表示エリア画像データと取り込み表示エリア画像データとの比較を例示する図である。
【図3】表示エリアおよび表示エリアの前に位置する手の画像を含む取り込みエリアを示す図である。
【図4】本発明による図2Aに例示される方法を実施することによって得られる図3に例示される取り込みエリア内の手の位置を示す画像データを示す図である。
【図5A】本発明による座標位置関数を導出する方法を例示する図である。
【図5B】較正物体を含む較正画像を例示する図である。
【図5C】取り込み表示画像の座標システムへの、表示画像座標システム内の較正物体の座標位置のマッピングを例示する図である。
【図6】本発明による輝度マッピング関数を導出する方法を示す図である。
【符号の説明】
【0048】
10:コンピューティングシステム
10B:表示画像
10C:外側にある物体または領域の画像
10D:物体
11:グラフィカルインターフェース
12:表示エリア
13:画像取り込み装置
13A:画像取り込みエリア
14物体ロケータ
15:画像データ変換器
16:画像データ比較ユニット
【0001】
本発明は、コンピュータ制御可能な表示システムに関し、特に、ユーザと、コンピュータ制御される画像表示または投影画像との対話に関する。
【背景技術】
【0002】
コンピュータ制御投影システムは、一般に、画像データを生成するためのコンピュータシステムおよびその画像データを投影スクリーンに投影するためのプロジェクタを有する。通常、コンピュータ制御投影システムは、プレゼンタが、コンピュータシステムを用いて作成されたプレゼンテーションをより大きなスクリーンに投影し、一人より多くのビューアがそのプレゼンテーションを容易に見ることができるようにするために用いられる。大抵の場合、プレゼンタは、投影画像上の注目すべきエリアを当該プレゼンタの指、レーザポインタ、または、他のポインティング装置または器具で指すことによって投影画像と対話する。
【0003】
このタイプのシステムにおける問題は、ユーザが投影画像を任意に変更したい場合に、マウス、キーボードまたはリモートデバイスなどの入力装置を用いてコンピュータシステムと対話しなければならないことである。例えば、装置は、大抵の場合、赤外線信号を介してコンピュータシステムを遠隔制御し、プレゼンテーションにおける次のスライドを表示するためにプレゼンタによって用いられる。しかし、これは、プレゼンテーションのビューアの注意をそらす可能性がある。なぜなら、プレゼンタは、ビューアおよび投影されたプレゼンテーションともはや対話せず、その代わりに、コンピュータシステムと対話しているからである。大抵の場合、この対話は、プレゼンテーションにおいて著しい中断を引き起こし得る。
【0004】
従って、コンピュータのみとの対話という問題を克服するために開発された上記のシステムの変形形態によって、プレゼンタは、投影画像と直接対話することができ、従って視聴者とより良好に対話することができる。このシステムでは、コンピュータは、画像プロジェクタで投影スクリーンに投影される画像データ(例えば、プレゼンテーションスライド)を生成する。システムはまた、投影画像を取り込むためにデジタルカメラなどのデジタル画像取り込み装置を有する。取り込まれた投影画像データは、コンピューティングシステムに再び送信され、スクリーンの前の任意の物体(例えばポインティング装置)の位置を決定するために用いられる。次に、コンピュータシステムは、ポインティング装置の決定された位置に応じて制御され得る。例えば、本願の譲受人に譲渡された米国特許第5,138,304号では、光ビームは、スクリーンに投影され、カメラで検出される。光ビームの位置を決定するために、投影画像の取り込まれた画像データおよび元の画像データは比較される。次に、コンピュータは、ポインタ位置にビデオ画像内のカーソルを位置決めするか、ポインタ位置に応答して投影画像を変更するようになされる。
【0005】
ユーザ対話式コンピュータ制御表示または投影システムを実施するために、まず、カメラの取り込みエリア内のスクリーンの位置(すなわち、画像が表示されるエリア)を決定するために較正が行われなければならない。スクリーンの位置が決定されると、この情報は、表示エリア内であるが、表示画像の一部ではない取り込みエリア内の物体(例えば、表示エリアの前にある物体)を識別するために用いられ得る。例えば、システムは、表示エリアの前にあるポインタまたは指および表示エリア内のその位置を識別することができる。物体が表示エリアの前のどこにあるかが分かることを利用して、表示エリア内のその位置に応じてシステムを物体に応答させることができる。
【0006】
米国特許第5,940,139号に記載された1つの既知の技法では、映像の前景および背景は、前景を可視光で照明し、背景を赤外線と可視光との組み合わせで照明し、2つの異なるカメラを用いて信号を得、前景から背景を抽出することによって分離される。米国特許第5,345,308号に記載された他の既知の技法では、人工物体は、ビデオカメラに設けられた偏光子を用いることによってビデオ信号内で区別される。人工物体は、偏光され得る光を反射する垂直面および水平面の両方を有するのに対して、背景は、偏光成分を有さない。このように、人工物体は、ビデオ信号からフィルタリングされる。これらの技法は、さらなる照明方法、異なるタイプのカメラまたはフィルタリングハードウェアを必要とする点で厄介であり、従って、スライドプレゼンテーションの用途における物体の正確な位置決定またはリアルタイム操作に適していない。
【0007】
米国特許第5,835,078号に記載されたさらに他の既知の技法では、赤外線ポインタは、大きなスクリーン表示デバイス上に投影され、赤外線ポインタの識別および位置が決定される。専用の赤外線ポインティング装置は、各装置に特有の周波数を発する。所与のポインタの識別および位置は、赤外線カメラを用いてその周波数を検出することによって検出される。次に、ポインタの識別および位置を用いて、コンピュータシステムが、大きなスクリーンディスプレイ上の赤外線ポインタが位置する点に所与のポインタに対応するマークを表示するようにする。この技法では、表示スクリーン上に投影される物体の位置は識別されるが、赤外線ポインタおよび赤外線カメラを含む専用の機器を用いる必要がある。さらに、この技法は、表示画像上の赤外線を検出する簡単なプロセスに依存する。これに対して、表示画像の前景にある物理的物体の分離には、物体の背景に対応する画像データからの、物体に対応する画像データの実際の分離(すなわち、前景画像と背景画像の分離)が必要である。
【0008】
本発明は、ユーザ対話式コンピュータ制御表示システムにおける画像取り込み装置の取り込みエリア内の表示エリアの前景および背景画像データを分離する技法である。
【発明の開示】
【0009】
ユーザ対話式コンピュータ制御表示エリアの前に位置する物体の位置を決定するシステムおよび方法は、表示エリア内に画像を表示するためのコンピュータシステムと、導出された座標位置マッピング関数および導出された輝度マッピング関数を用いて表示画像データを予想取り込み表示エリアデータに変換するための手段と、画像取り込みエリア内の画像を取り込み、取り込みエリア内の表示エリアの所定の位置に対応する取り込み表示エリアデータを含む取り込みデータを得るための画像取り込み装置と、取り込み表示エリアデータの各座標位置において予想取り込み表示エリアデータを取り込み表示エリアデータと比較するための手段とを備え、一致しない比較された画像データは、表示エリアの前にある物体の画素位置に対応する。
【0010】
コンピュータ制御表示エリアを含むシステムの他の実施形態では、システムは、それぞれが較正物体を含む複数の較正画像を表示エリア内に表示し、それぞれが複数の較正画像の1つを含む複数の画像を取り込みエリア内で取り込み、表示エリア内の較正物体の座標位置と、各取り込み画像に対する取り込みエリアにおける較正物体の座標位置との間のマッピングを決定し、複数の取り込み画像の位置マッピングから座標位置マッピング関数を導出することによって較正される。
【0011】
他の実施形態では、システムはさらに、異なる表示輝度値を有する少なくとも2つの輝度較正物体を表示エリア内に表示し、取り込みエリア内の輝度較正物体を取り込み、表示輝度値に対応する取り込み輝度値を得て、表示輝度値を取り込み輝度値にマッピングし、表示輝度値と取り込み輝度値との間のマッピングから輝度マッピング関数を導出することによって較正される。
【0012】
発明の詳細な説明
画像データ10Aを生成するためのコンピューティングシステム10と、画像データ10Aに対応する画像10Bを表示エリア12に表示するためのグラフィカルインターフェース11とを備えたユーザ対話式コンピュータ制御画像表示システムのブロック図が図1に示される。グラフィカルインターフェースは、コンピューティングシステムの一部であるか、またはコンピューティングシステムの外部にある別個の要素であり得ることを理解されたい。システムはさらに、表示画像10Bを取り込むための関連する画像取り込みエリア13Aを有する画像取り込み装置13を有する。取り込み画像はまた、表示エリア10Bの外側にある物体または領域の画像10Cを含む。取り込み画像はまた、表示エリア12の前にある画像取り込みエリア13A内に位置する物体10Dを含み得る。非表示エリア画像は、表示エリアへと延在する物体を含む、画像データ10Aに応答して表示エリア内に表示されるもの以外のものを含む。取り込み画像は、デジタル画像データ13Bに変換され、物体ロケータ14に送信される。物体ロケータ14は、画像データ変換器15および画像データ比較ユニット16を有する。画像データ変換器15は、導出された座標位置関数および輝度マッピング関数15Bを用いて、コンピューティングシステムによって生成される表示エリア画像データ10Aを予想取り込み表示エリア画像データ15Aに変換する。予想画像データ15Aは、取り込み画像データ13Bおよび所定の表示エリア位置情報13Cと共に、画像データ比較ユニット16に結合される。画像データ比較ユニット16は、予想取り込み表示エリア画像データ15Aを、所定の表示エリア位置内の表示エリアに対応する、取り込み画像データ13Bの一部分と比較する。一致しない比較されたデータは、物体が位置する取り込み表示エリア画像データ13B内の画素位置に対応する。物体位置情報16Aは、コンピューティングシステム10に送信され、ユーザ対話式コンピュータ制御表示システムにおいて用いられることができる。
【0013】
本実施形態では、コンピューティングシステム10は、少なくとも、中央処理装置(CPU)と、デジタルデータ(例えば、画像データ)を格納するためのメモリとを有し、少なくとも3つのレベルのグレイスケール画像を生成する能力を有する。表示エリアは、グラフィカルインターフェースによって駆動されるコンピュータモニタであり得るか、または投影スクリーンもしくは投影エリア(例えば、壁)上のエリアであり得る。画像が投影を用いて表示される場合、システムは、グラフィカルインターフェースから提供される画像データに応答する画像プロジェクタ(図1に示されない)を含む。
【0014】
一実施形態では、画像取り込み装置は、少なくとも既知の時間遅延内に表示エリア12に表示されるすべての画像10Bを取り込むように構成されたデジタルスチルまたはビデオカメラあるいはデジタルビデオカメラである。画像が、カメラの取り込みエリア内でセンサに到達する光の強度を検出するセンサのアレイを用いてデジタルカメラによって取り込まれることは、デジタル画像取り込みの分野において既知である。次に、光強度信号は、取り込まれた画像に対応するデジタル画像データに変換される。従って、取り込まれた画像データ13Bは、取り込まれた画像に対応するデジタル画像データである。他の実施形態では、画像取り込み装置は、アナログスチルまたはビデオカメラであり、取り込まれたアナログ画像データは、取り込みデジタル画像データ13Bに変換される。
【0015】
一実施形態では、画像10Bは、コンピュータにより生成されたユーザのスライドプレゼンテーションにおける複数のスライドに対応する。
【0016】
表示画像当たり、表示画像データの予想取り込み画像データへの1回の変換が必要であることに留意されたい。しかし、表示画像の前に位置する非静的物体の移動および位置を検出するために、表示画像当たり2回以上の比較を実施することが可能である。例えば、単一画像が表示されるが、それは、画像取り込み装置13によって連続して取り込まれ、新しく取り込まれた各画像は、画像データ比較ユニット16によって、予想取り込み画像データと比較され、異なる時間間隔で物体の位置を決定することができる。
【0017】
物体ロケータ14の機能のすべてまたは一部は、コンピューティングシステムによって実施され得ることを理解されたい。この結果、物体ロケータ14はコンピューティングシステムの外部に示されるが、物体ロケータ14のすべてまたは一部は、コンピューティングシステム内で実施され得る。
【0018】
物体ロケータは、ソフトウェア実施態様、ハードウェア実施態様、またはソフトウェアおよびハードウェア実施態様の任意の組み合わせにおいて実施され得ることをさらに理解されたい。
【0019】
表示エリア12の前に位置する物体の位置を決定するための方法の第1の実施形態を、図2Aに示す。画像は、表示エリア内に表示される(ブロック20)。画像は、図1に示されるシステムのリアルタイム使用中に表示されるユーザのスライドプレゼンテーションの複数の画像の現在の1つの画像に対応し得る。図2Aに示される方法は、スライドプレゼンテーションの複数の画像(すなわち、スライド)のそれぞれに対して実施され、表示エリアの前の物体の位置決定はプレゼンテーション中にリアルタイムで実施され得ることに留意されたい。
【0020】
表示エリア内に画像を表示するためにコンピューティングシステムによって用いられる対応する画像データ10A(図1)は、予想取り込み表示エリアデータに変換される(ブロック21)。画像データは、導出された座標位置マッピング関数および導出された輝度マッピング関数を用いて変換される。図2Bは、予想取り込み表示エリア画像データへの表示エリア画像データの変換を例示する。表示エリア画像25は、画像を投影または表示するためのコンピューティングシステムによって生成される画像データ10Aに対応する。画像データ10Aは、導出された座標位置マッピング関数および輝度マッピング関数を用いて変換され、予想取り込み表示エリア画像26に対応するデータを生成する。
【0021】
表示画像を、画像取り込み装置の取り込みエリア内で取り込み、取り込みエリア画像データを得る(ブロック22)。図2Cは、表示エリアデータ28および非表示エリア画像データ29を含む取り込み画像データ27を示す。表示エリアデータは、表示エリア内の表示画像の前に位置する少なくとも1つの物体30の一部を含む。この結果、表示エリアデータは、物体の一部に対応する画像データを含む。
【0022】
取り込みエリア内の表示エリアの位置は事前決定される。この事前決定は、ユーザ対話式コンピュータ制御表示システムのリアルタイム使用の前に、システムの較正中に実施され得る。一実施形態では、表示エリアの位置の事前決定は、本明細書において参照により援用する米国特許出願第09/774,452号に開示されるシステムおよび方法に従って実施される。具体的には、この方法によると、表示エリアの位置は、複数の取り込み較正画像に対応する画像データから建設的および破壊的フィードバックデータを引き出すことによって決定される。取り込みエリア内の表示エリアの位置を決定する他の方法を用いて、本発明に従って表示スクリーンの前にある物体の位置を決定するシステムおよび方法を実施し得ることを理解されたい。取り込みエリア内の表示スクリーンの位置の事前決定により、取り込み画像データ27からの取り込み表示エリアデータ31の分離/識別が可能になる(図2C)。特に図2Cに示されるように、取り込みエリア内の表示エリアの位置の事前決定により、表示画像データ28Aおよび表示エリアの前にある物体の一部分に対応するデータ28Bを共に含む表示エリアデータのみの分離/識別が可能になる。
【0023】
予想取り込み表示エリアデータ26は、マッピングされた画素値を比較することによって、識別された取り込み表示エリアデータ31と比較される(ブロック23、図2D)。一致しない画素値は、表示エリアの前の物体の位置を示す(ブロック24)。図2Dに示されるように、物体28Bは、一致しない画素データを表し、それによって、表示エリアの前にある物体を示す。
【0024】
表示画像当たり、予想取り込み画像データへの表示画像データの1回だけの変換(ブロック21)が最低限必要であるが、表示画像の前に位置する非静的物体の移動および位置を検出するために、表示画像当たり2回以上の比較(ブロック23)が実施され得ることを理解されたい。例えば、単一画像が表示されるが、これは、連続して取り込まれ(ブロック22)、予測取り込み画像データと比較され(ブロック23)、画像が表示されている間に異なる時間間隔で物体の位置を決定する。
【0025】
図3および図4は、図2Aに示されるユーザ対話式コンピュータ制御表示システムの前にある物体の位置を決定する方法を例示する画像を示す。特に、図3は、表示エリア34および表示エリア34の前に位置する物体35(すなわち、手)を含む画像を有する取り込みエリア33を示す。図4は、ディスプレイの前の手の位置を決定するために図2Aに示される方法を用いて得られるデータを示す。この例では、図2Aの方法は、取り込み画像データをさらに変更し、手の座標位置40における画素値(すなわち、輝度値)を1つの輝度値(例えば、白)に設定し、物体が検出されない座標位置41の画素値を異なる輝度値(例えば、黒)に設定することによって、取り込みエリア内の表示エリアの前の手の位置を示す。
【0026】
図2Aに示される方法によると、取り込み表示エリアデータは、予想取り込み表示エリアデータ(予想データ(ExpectedData))を取り込み表示エリアデータ(実際のデータ(ActualData))から減算することによって予想される表示エリアデータと比較され、差の値を得ることができる。
【0027】
【数1】
ここで、(ui,vi)は、取り込み表示エリア内の座標位置である。次に、差の値δ(ui,vi)は、閾値cthreshと比較される。ここで、cthreshは、照明条件、表示される画像、およびカメラ品質によって決定される定数である。差の値が閾値よりも大きい場合(すなわち、δ(ui,vi)>cthresh)、物体は、その座標点に存在する。換言すると、所定の表示エリア位置におけるコンピュータの輝度予想値に合致しないディスプレイ上の点は、カメラとディスプレイとの間の視線内に物体を有する。
【0028】
図5Aは、ユーザ対話式コンピュータ制御表示エリアの前に位置する物体の位置を決定するためのシステムを較正する方法を示す。較正は、まず、複数の座標較正画像を表示することによって成し遂げられる(ブロック50)。図5Bは、較正物体54を含む座標較正画像55の例を示す。較正画像は、較正物体が各較正画像内の異なる位置に位置するという特徴を有する。物体は、形状が円形である必要はなく、他の形状をとって本願の方法を実施することができることに留意されたい。
【0029】
複数の較正画像は、各取り込み画像が較正物体の1つを含むように取り込みエリア内で順次取り込まれる(ブロック51)。各取り込み画像に対して、表示エリア較正物体の座標位置が取り込みエリア内の表示エリアの所定の位置内の較正物体の座標位置にマッピングされる(ブロック52)。表示エリア較正物体の座標位置は、画像データ10A(図1)から既知であり、取り込みエリア内の較正物体の座標位置は、取り込みデータ13Bから既知であることに留意されたい。
【0030】
図5Cに示されるように、表示された表示較正画像55は、x−y座標系を有するものとして観察され、取り込み画像58は、u−v座標系を有するものとして観察されることができ、それによって、較正物体54のx−y座標位置は、取り込み物体54’のu−v座標位置にマッピングされることが可能となる。
【0031】
取り込みエリアにおける表示エリア57に対応する画像データは、取り込みエリア内の表示エリアの位置を事前決定することによって識別される。上記のように、表示エリア位置の事前決定は、米国特許出願第09/774,452号に開示されるシステムおよび方法に従って実施され得るが、他の方法を用いることもできる。取り込みエリア内の表示スクリーンの位置の事前決定により、取り込み表示エリアデータの識別、この結果、表示された表示較正物体54のx−y座標位置の、所定表示エリア内の取り込み較正物体54’のu−v座標位置へのマッピングが可能になる。
【0032】
較正物体位置の個々のマッピングにより、2つの座標系間の関数の導出が可能になる(ブロック53)。
【0033】
【数2】
【0034】
一実施形態では、位置マッピング関数を導出するために、透視変換関数(式3および式4)が用いられる。
【0035】
【数3】
【0036】
【数4】
【0037】
式3および式4の変数aijは、各較正物体に対して個々の位置マッピングを決定することによって導出される。簡単な移動マッピング関数またはアフィンマッピング関数などの他の変換関数が用いられ得ることに留意されたい。
【0038】
例えば、表示エリア内で表示される較正画像内の所定の較正物体については、対応するx,y座標は、コンピュータシステムによって生成される画像データ10Aから既知である。さらに、取り込み較正画像内の同じ較正物体のu,v座標もまた、取り込みエリア内の表示エリアの所定の位置に対応する取り込み画像データ13Bの一部分から既知である。既知のx,y,u,v座標値は、所定の較正物体に対して、式3および式4に代入される。複数の較正画像内の較正物体のそれぞれは、同じようにマッピングされ、xおよびy較正マッピング式(式3および式4)が得られる。
【0039】
次に、各較正物体の位置マッピングを用いて、座標位置関数(式3および式4)を導出する。具体的には、較正マッピング式は、同時に解かれ、変換関数式3および式4の係数a11〜a33が求められる。一旦求められると、係数は、式3および式4に代入され、それによって表示エリア内の所定のx、y座標位置に対して、対応するu−v座標位置が決定され得る。u−v座標からx,y座標への逆マッピング関数もまた、係数a11〜a33から導出され得ることに留意されたい。
【0040】
二次元変換関数(例えば、式3および式4)の場合、9個の係数(例えば、a11〜a33)が求められる必要があるため、少なくとも9個の式が必要である。較正画像当たり2つのマッピング式があるため、その関数を解くために少なくとも5つの較正画像が必要である。さらに多くの較正物体を用いてもよく、また、この過剰制約された問題(すなわち、係数を解くために必要なよりも多くの較正物体)が、LSQ(すなわち、最小二乗法)当てはめを用いてロバストに近似され得ることに留意されたい。
【0041】
図5Aに示される方法は、輝度マッピング関数を求めるための図6に示される較正方法をさらに含み得る。較正は、互いに異なる輝度値を有する少なくとも2つの輝度較正物体を表示することによって成し遂げられる(ブロック60)。少なくとも2つの輝度較正物体は、別個の画像または同じ画像で表示され得る。少なくとも2つの物体は、1つの画像または複数の画像内の同じ位置または異なる位置に表示され得る。輝度較正物体は、色またはグレイスケール画像物体であり得る。表示された表示輝度較正物体の表示輝度値は、コンピューティングシステム10によって生成される画像データ10Aから既知である(図1)。取り込まれた物体が表示輝度値に対応する関連の取り込み輝度値を有する取り込みデータ13Bを得るために、少なくとも2つの較正物体が取り込まれる(ブロック61)。表示輝度値は、取り込み輝度値にマッピングされる(ブロック62)。輝度マッピング関数は、少なくとも2つの輝度マッピングから導出される(ブロック63)。導出された座標位置マッピング関数は、表示エリアと、取り込まれた表示エリアとの間の対応する画素位置を識別し、対応する位置における画素間の輝度マッピングを可能にするために用いられることに留意されたい。
【0042】
一実施形態では、輝度マッピング関数は、補間を用いて求められる。例えば、表示輝度値と取り込み輝度値との間のマッピングを想定すると、表示値および対応するマッピングされた取り込み値の範囲は、線形補間を用いて求められ得る。次に、取り込み輝度値および補間取り込み輝度値は、ルックアップテーブルに格納され、表示輝度値がテーブルにアクセスすると、対応のマッピングされた取り込み輝度値を得ることができるようになっている。マッピングが線形補間に限定されず、他のより高次すなわち非線形補間方法が用いられ得ることに留意されたい。
【0043】
このように、輝度および座標位置マッピング関数は、式1におけるExpectedData(ui,vi)を計算するために求められる。次に、ExpectedData(ui,vi)とActualData(ui,vi)との間の絶対差(すなわち、δ(ui,vi))を求めて、取り込みデータの表示エリアにおける物体の位置を決定する。
【0044】
ユーザ対話式コンピュータ制御表示システムにおける画像取り込み装置の取り込みエリア内の表示エリアの前にある物体の位置を決定するための数学的に複雑でない解決法を提供するシステムおよび方法について記載した。具体的には、画像がフレーム毎の単位で表示され、簡単な一連の操作が連続して実施され、表示画像の前の物体の位置を決定するシステムについて記載した。
【0045】
上記の説明では、本発明を完全に理解してもらうために、較正画像タイプおよび透視変換関数などの多くの具体的な詳細を提示した。しかし、当業者には、これらの具体的な詳細は、本発明を実施するために用いられる必要はないことが明らかであろう。その他、本発明を不必要に不明瞭にするのを避けるため、既知の画像処理技法については記載していない。
【0046】
さらに、本発明の要素を特定の実施形態に関連して記載したが、本発明は、様々な他の方法で実施され得ることが理解される。この結果、例示として図示され記載された特定の実施形態は、限定するものとして見なされることを決して意図しないことが理解されるであろう。これらの実施形態の詳細を参照することは、本発明の本質と見なされる特徴のみを記載する特許請求項を限定することを意図するものではない。
【図面の簡単な説明】
【0047】
【図1】本発明によるユーザ対話式コンピュータ制御表示システムにおける表示エリアの前にある物体の位置を決定するためのシステムの第1の実施形態のブロック図である。
【図2A】本発明によるユーザ対話式コンピュータ制御表示システムにおける取り込みエリア内の表示エリアの前にある物体の位置を決定するための方法の第1の実施形態を例示する図である。
【図2B】予想取り込み表示エリア画像データへの表示エリア画像データの変換を例示する図である。
【図2C】所定の表示エリア位置情報を用いた、取り込み表示エリア画像データの識別を例示する図である。
【図2D】予想取り込み表示エリア画像データと取り込み表示エリア画像データとの比較を例示する図である。
【図3】表示エリアおよび表示エリアの前に位置する手の画像を含む取り込みエリアを示す図である。
【図4】本発明による図2Aに例示される方法を実施することによって得られる図3に例示される取り込みエリア内の手の位置を示す画像データを示す図である。
【図5A】本発明による座標位置関数を導出する方法を例示する図である。
【図5B】較正物体を含む較正画像を例示する図である。
【図5C】取り込み表示画像の座標システムへの、表示画像座標システム内の較正物体の座標位置のマッピングを例示する図である。
【図6】本発明による輝度マッピング関数を導出する方法を示す図である。
【符号の説明】
【0048】
10:コンピューティングシステム
10B:表示画像
10C:外側にある物体または領域の画像
10D:物体
11:グラフィカルインターフェース
12:表示エリア
13:画像取り込み装置
13A:画像取り込みエリア
14物体ロケータ
15:画像データ変換器
16:画像データ比較ユニット
Claims (10)
- コンピュータ制御表示エリアの前に位置する物体の位置を決定する方法であって、
対応する画像データを有する画像を前記表示エリアに表示すること(20)と、
導出された座標位置関数および導出された輝度関数を用いて、前記画像データを予想取り込み表示エリアデータに変換すること(21)と、
画像取り込みエリア内で前記画像を取り込んで、前記取り込みエリア内の前記表示エリアの所定の位置に対応する取り込み表示エリアデータを含む取り込みデータを得ること(22)と、
前記予想取り込み表示エリアデータを前記取り込み表示エリアデータと比較すること(23)と、
を含み、
一致しない比較された画像データ位置が、前記物体の位置に対応する(24)、方法。 - それぞれが前記表示エリア内に関連座標位置を有する較正物体を有する複数の較正画像を前記表示エリア内に表示すること(50)と、
それぞれが前記複数の較正画像の1つを含む前記表示エリアの複数の画像を前記取り込みエリア内で取り込むこと(51)と、
各取り込み画像に対して、前記表示エリア内の前記較正物体の前記座標位置を、前記取り込みエリア内の前記表示エリアの前記所定の位置内における前記較正物体の座標位置にマッピングすること(52)と、
前記座標位置マッピングから、前記表示エリアから前記取り込み表示エリアへの前記位置関数を導出すること(53)と、
によって、前記座標位置関数を導出することをさらに含む、請求項1に記載の方法。 - それぞれが異なる関連する表示輝度値を有する少なくとも2つの輝度較正物体を前記表示エリア内で少なくとも1つの画像に表示すること(60)と、
前記少なくとも1つの画像における前記少なくとも2つの表示物体を取り込んで、前記表示輝度値に対応する取り込み輝度値を得ること(61)と、
前記表示輝度値を前記取り込み輝度値にマッピングすること(62)と、
前記輝度値マッピングから前記輝度関数を導出すること(63)と、
によって、前記輝度関数を導出することをさらに含む、請求項2に記載の方法。 - 表示輝度値および取り込み輝度値は、グレイスケール輝度値および色輝度値の1つである、請求項3に記載の方法。
- 補間を用いて前記輝度関数を表すルックアップテーブルを決定することをさらに含む、請求項3に記載の方法。
- 透視変換を用いて座標マッピングから前記位置関数を導出することをさらに含む、請求項2に記載の方法。
- 5個またはそれ以上の較正画像を表示することと、二次元透視変換を決定するための9個の関連係数を有する透視変換を用いて前記位置関数を導出することと、をさらに含む、請求項6に記載の方法。
- 前記取り込み表示エリアデータの対応する画素値から前記予想取り込み表示エリアデータの画素値を減算して、前記表示エリアの各座標位置における異なるデータを得ることと、
各座標位置について、前記異なるデータを閾ノイズ値と比較して、前記表示エリアの前にある前記物体の位置を識別することと、
によって、前記予想取り込み表示エリアデータを、前記表示エリアの前記所定の位置に対応する前記取り込み表示エリアデータの部分と比較することをさらに含む、請求項1に記載の方法。 - 前記閾ノイズ値が、照明条件、表示される画像のタイプ、およびカメラの品質に依存する、請求項8に記載の方法。
- 前記取り込み表示エリアデータの一致しない位置における画素値が、第1の輝度値に設定され、前記取り込み表示エリアデータの残りの画素値が、第2の輝度値に設定される、請求項1に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/775,032 US20020136455A1 (en) | 2001-01-31 | 2001-01-31 | System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view |
PCT/US2002/002596 WO2002061583A2 (en) | 2001-01-31 | 2002-01-29 | A system and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004535610A true JP2004535610A (ja) | 2004-11-25 |
JP2004535610A5 JP2004535610A5 (ja) | 2005-12-22 |
Family
ID=25103115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002561687A Withdrawn JP2004535610A (ja) | 2001-01-31 | 2002-01-29 | カメラビュー内の制御可能なディスプレイの前にある物体の位置の決定のための前景および背景画像データのロバストな分離のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20020136455A1 (ja) |
EP (1) | EP1381947A2 (ja) |
JP (1) | JP2004535610A (ja) |
AU (1) | AU2002255491A1 (ja) |
WO (1) | WO2002061583A2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009020759A (ja) * | 2007-07-12 | 2009-01-29 | Sony Corp | 入力装置、記憶媒体、情報入力方法及び電子機器 |
JP2012150635A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 位置検出システム、表示システム及び情報処理システム |
JP2017027311A (ja) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7873907B2 (en) | 2004-01-07 | 2011-01-18 | International Business Machines Corporation | Technique for searching for a specific object in an ISPF panel for automated testing |
JP4540358B2 (ja) * | 2004-02-10 | 2010-09-08 | 富士通株式会社 | ポインタ位置特定プログラムおよびポインタ位置特定方法 |
US8509472B2 (en) * | 2004-06-24 | 2013-08-13 | Digimarc Corporation | Digital watermarking methods, programs and apparatus |
US7609847B2 (en) * | 2004-11-23 | 2009-10-27 | Hewlett-Packard Development Company, L.P. | Methods and systems for determining object layouts |
US7760231B2 (en) * | 2005-03-09 | 2010-07-20 | Pixar | Animated display calibration method and apparatus |
US8386909B2 (en) * | 2005-04-07 | 2013-02-26 | Hewlett-Packard Development Company, L.P. | Capturing and presenting interactions with image-based media |
US20070165197A1 (en) * | 2006-01-18 | 2007-07-19 | Seiko Epson Corporation | Pixel position acquiring method, image processing apparatus, program for executing pixel position acquiring method on computer, and computer-readable recording medium having recorded thereon program |
US20090079944A1 (en) * | 2007-09-24 | 2009-03-26 | Mustek Systems, Inc. | Contactless Operating Device for a Digital Equipment and Method for the Same |
US20090096810A1 (en) * | 2007-10-11 | 2009-04-16 | Green Brian D | Method for selectively remoting windows |
US8700097B2 (en) * | 2009-02-05 | 2014-04-15 | Samsung Electronics Co., Ltd. | Method and system for controlling dual-processing of screen data in mobile terminal having projector function |
CN102314259B (zh) * | 2010-07-06 | 2015-01-28 | 株式会社理光 | 一种在显示区域内检测物体的方法和设备 |
US8340504B2 (en) * | 2011-04-26 | 2012-12-25 | Sony Computer Entertainment Europe Limited | Entertainment device and method |
US9560314B2 (en) * | 2011-06-14 | 2017-01-31 | Microsoft Technology Licensing, Llc | Interactive and shared surfaces |
US20140362052A1 (en) * | 2012-01-20 | 2014-12-11 | Light Blue Optics Ltd | Touch Sensitive Image Display Devices |
GB2541884A (en) * | 2015-08-28 | 2017-03-08 | Imp College Of Science Tech And Medicine | Mapping a space using a multi-directional camera |
KR20220028951A (ko) * | 2020-08-31 | 2022-03-08 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN115331014B (zh) * | 2022-10-17 | 2023-03-07 | 暨南大学 | 一种基于机器视觉的指针仪表读数方法及系统、存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3472052D1 (en) * | 1984-06-20 | 1988-07-14 | Siemens Ag | X-ray diagnostic apparatus |
US5181015A (en) * | 1989-11-07 | 1993-01-19 | Proxima Corporation | Method and apparatus for calibrating an optical computer input system |
US5138304A (en) * | 1990-08-02 | 1992-08-11 | Hewlett-Packard Company | Projected image light pen |
EP0622722B1 (en) * | 1993-04-30 | 2002-07-17 | Xerox Corporation | Interactive copying system |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
CA2158384C (en) * | 1994-12-27 | 1999-09-28 | Alexander Gibson Fraser | Multimedia program editing system and method |
DE69634913T2 (de) * | 1995-04-28 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd., Kadoma | Schnittstellenvorrichtung |
CA2182238A1 (en) * | 1996-07-29 | 1998-01-30 | Mitel Knowledge Corporation | Input device simulating touch screen |
US6388654B1 (en) * | 1997-10-03 | 2002-05-14 | Tegrity, Inc. | Method and apparatus for processing, displaying and communicating images |
US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
DE19845030A1 (de) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
-
2001
- 2001-01-31 US US09/775,032 patent/US20020136455A1/en not_active Abandoned
-
2002
- 2002-01-29 WO PCT/US2002/002596 patent/WO2002061583A2/en not_active Application Discontinuation
- 2002-01-29 AU AU2002255491A patent/AU2002255491A1/en not_active Abandoned
- 2002-01-29 JP JP2002561687A patent/JP2004535610A/ja not_active Withdrawn
- 2002-01-29 EP EP02724891A patent/EP1381947A2/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009020759A (ja) * | 2007-07-12 | 2009-01-29 | Sony Corp | 入力装置、記憶媒体、情報入力方法及び電子機器 |
US8493334B2 (en) | 2007-07-12 | 2013-07-23 | Sony Corporation | Input device, storage medium, information input method, and electronic apparatus |
JP2012150635A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 位置検出システム、表示システム及び情報処理システム |
JP2017027311A (ja) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
AU2002255491A1 (en) | 2002-08-12 |
WO2002061583A2 (en) | 2002-08-08 |
US20020136455A1 (en) | 2002-09-26 |
EP1381947A2 (en) | 2004-01-21 |
WO2002061583A3 (en) | 2003-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100452413B1 (ko) | 컴퓨터-생성 투사 영상의 캘리브레이션을 위한 방법 및 장치 | |
JP2004535610A (ja) | カメラビュー内の制御可能なディスプレイの前にある物体の位置の決定のための前景および背景画像データのロバストな分離のためのシステムおよび方法 | |
US9560327B2 (en) | Projection system and projection method | |
JP3909554B2 (ja) | プレゼンテーション制御システム及びその制御方法 | |
KR100591731B1 (ko) | 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법 | |
US20120236180A1 (en) | Image adjustment method and electronics system using the same | |
JP2005500590A (ja) | カメラビュー内の制御可能なディスプレイの可視点のロバスト決定方法 | |
JP2013140533A5 (ja) | ||
JP4770197B2 (ja) | プレゼンテーション制御装置およびプログラム | |
CN112272292B (zh) | 投影校正方法、装置和存储介质 | |
US6542087B2 (en) | System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device | |
JP5183152B2 (ja) | 画像処理装置 | |
US20100054623A1 (en) | Image display apparatus and method | |
JP2005303493A (ja) | 障害物適応投射型表示装置 | |
WO2011096571A1 (ja) | 入力装置 | |
WO2024055531A1 (zh) | 照度计数值识别方法、电子设备及存储介质 | |
JP5152317B2 (ja) | プレゼンテーション制御装置及びプログラム | |
KR100917615B1 (ko) | 한 대의 카메라를 이용한 최소 오차를 갖는 레이저 빔의위치 검출 방법 및 장치 | |
KR100945555B1 (ko) | 증강현실 공간을 제공하는 장치 및 방법 | |
Lin et al. | Large-area, multilayered, and high-resolution visual monitoring using a dual-camera system | |
CN117156108B (zh) | 一种用于机房设备监控画面的增强显示系统及方法 | |
KR102252662B1 (ko) | 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법 | |
JP2006251206A (ja) | 情報提示装置及び情報提示方法とそのプログラム | |
KR20190122618A (ko) | 거리 차이를 이용한 증강현실 제공 방법 | |
KR20230051138A (ko) | 거리 센싱을 이용한 증강현실 제공 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050128 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20060221 |