JP4709364B2 - 自由空間におけるワンドの位置を決定する方法および装置 - Google Patents

自由空間におけるワンドの位置を決定する方法および装置 Download PDF

Info

Publication number
JP4709364B2
JP4709364B2 JP2000301641A JP2000301641A JP4709364B2 JP 4709364 B2 JP4709364 B2 JP 4709364B2 JP 2000301641 A JP2000301641 A JP 2000301641A JP 2000301641 A JP2000301641 A JP 2000301641A JP 4709364 B2 JP4709364 B2 JP 4709364B2
Authority
JP
Japan
Prior art keywords
beads
wand
free space
image
view plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000301641A
Other languages
English (en)
Other versions
JP2001167257A (ja
Inventor
ジェイ ハーリントン スティーヴン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2001167257A publication Critical patent/JP2001167257A/ja
Application granted granted Critical
Publication of JP4709364B2 publication Critical patent/JP4709364B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、一般には現実世界の物体たとえばポインティング・ワンドを観測して、対話する方法および装置に関するものである。ワンドのポインティング方向は物体のビデオカメラ画像からコンピュータ装置で検出することができる。より詳細には、物体は、ポインティング方向を表すアライメント・インジケータと、少なくとも等間隔で配置された同一直線上の3つの点(それらの相互間隔距離は知られている)を有している。ビデオカメラによる物体の観察は、既知のカメラの幾何学的寸法と組み合って、物体の2次元投射像を自由空間における物体の3次元座標定義へ変換する基礎になる。本発明は、特に、ユーザーから処理装置へデータまたは命令を送るインタフェースとして、3次元物体たとえばポインティング・ワンドを使用することが意図されている処理装置に応用することができる。しかし、この分野の専門家は、本発明が、たとえば通信または他の通報の目的で3次元像形成または表示方法を使用することが有利である他の環境において使用する場合にも容易に適応できることを理解されるであろう。
【0002】
【従来の技術】
PCワークステーションの至る所での使用と、そのようなワークステーションがデータの入力と通信のためますますビデオカメラを装備するであろうという事実は、そのような通信を具体化する装置およびインタフェース・ツールに入力されるデータの性質および形式を拡張する機会を与える。
【0003】
ここ数年の間に、コンピュータ生成画像の3次元ビューを提供することが可能になった。これは見る人の各眼に異なるビューを与えることによって行われる。これを行う1つの方法は、見る人の左右の眼から一方の画像または他方の画像を同期して隠す特殊LCDシャッタ眼鏡を着用しているときに、CRTディスプレイ上の2つのビューを時間を合わせて交互にすることである。各眼に対し異なるビューを与える別の方法、たとえばヘッドマウント型ディスプレイも入手可能である。このディスプレイ技術の助けを借りて、ユーザーは自分の眼の前に浮遊する3次元の仮想構造体を見ることができる。しかし、ユーザーはそのような構造体と対話したい、あるいは構造体上の場所を指し示したい、あるいは構造体に加えたいと思うであろう。そのような対話をするには、3次元位置決定装置が最も役に立つであろう。3次元位置決定装置は、表面的には、見る人と装置ディスプレイの間で3次元空間内の指示された位置をコンピュータに提供することができる。
【0004】
【発明が解決しようとする課題】
そのような位置決定装置と対話することに伴う独特な問題は、3次元における装置の位置と向きの識別である。単一のカメラは2次元ビュー面をもつだけである。複数のカメラによって必要な3次元データ入力を提供することができるが、相対的カメラ位置の調整に加えて、2個以上のカメラを準備する費用は、単一のカメラ装置を開発する動機になる。
【0005】
【課題を解決するための手段】
本発明は、多くの現行PCワークステーションにおいて現在容易に入手できる形式の単一のビデオカメラからのキャプチャされた画像に基づいて、位置およびポインティング方向を3次元表現する対話ツールを考えている。
【0006】
本発明は、インタフェース・ツール、たとえば仮想画像がユーザーに見える3次元自由空間におけるワンドの位置とポインティング方向を指示するワンドの位置を識別する方法および装置を提供する。ワンドは画像と対話するインタフェース・ツールから成っている。ワンドの位置とポインティング方向は、ビデオカメラ装置内のワンドの代表的な画像から決定される。ワンドは、アライメント・インジケータと、ビデオカメラのビュー面に投射される少なくとも等間隔に配置された同一直線上の3つの点から成っている。同一直線上の3つの点の相対的位置は、アライメント・インジケータからの点のアライメントと同様に、ビュー面において検出される。自由空間における実物体の対応する座標位置は、検出した相対的位置と既知のカメラの幾何学的寸法に基づいて計算される。詳細には、自由空間における物体位置とビュー面間の物体距離はビュー点とビュー面間の距離を使用して計算される。
【0007】
本発明のもう1つの特徴に従って、検出は、画像を表現しているフレームメモリ上の点の画素位置を検出することから成っている。
【0008】
本発明のより限定された特徴に従って、3つの点は、特定の自由空間における予想背景のセッティングから容易に区別できる所定の色相の3つのビーズから成っている。
【0009】
【発明の実施の形態】
以下、図面を参照して説明するが、図は発明の好ましい実施例および代替実施例を明らかにするためだけのものであって、限定するためのものではない。発明は、特殊なワンドW(図2)と、ビデオカメラ10、ビデオキャプチャハードウェア12、および3次元自由空間におけるワンドの位置を識別するコンピュータ14(図1)を用いて仕事をするソフトウェア・モジュール(図3)から成っている。ワンドは、その上に3つのビーズ(両端に2つ(16、18)と、中央に1つ(20))をもつ棒である。ビーズは、自由空間における典型的な背景から装置が容易に区別できる特有の色すなわち色相(たとえば、蛍光グリーン)が与えられている。ビーズは、キャプチャされたビデオ画像の中で容易に見える程度に大きくなければならないが、取り扱うのが難しいほど大きくなくてもよい。ある種の手段、たとえばワンドWのポインティング方向のためのアライメント・インジケータとして役目を果たすことができる異なる色またはしるしを連結棒の各半分に付けることによって、ワンドの一端と他端を区別することができる。
【0010】
ビデオキャプチャ・ハードウェア12は、コンピュータ上でランしているソフトウェアで分析できる一連のキャプチャされたビデオ画像を生成する。図3に、分析ソフトウェアのためのソフトウェア・モジュールのブロック図を示す。
【0011】
ソフトウェア処理の第1ステップは、画像の中のビュー面上のビーズの位置を決定すること(24)である。これは、フレームメモリ上の画像の画素値を調べて、それらがビーズの色と一致するかどうかを決定することによって行われる。ビーズのオストワルト純色(full color)と突き合わせようとする代わりに、色相の一致のみを調べることができる。これにより、照明の変動に起因する「けられ(shading)」の問題は解決する。色が輝度/クロミナンス色空間(たとえば、YES、 L*a*b* 、またはL*u*v* ) で表現されている場合は、色相はクロミナンス成分の比として定義できる。ビーズがカメラに対し十分に大きく、かつ十分に近く、複数画素区域を覆っている場合には、すべての画素を検査する必要はない。次に、各ビーズサイズ区域において少なくとも1個のサンプルの割合で画像をサンプルすることができる(ビーズを確実に見つけるには、この割合の約2倍にすることが好ましい)。実際のサンプル率は装置のプロパーティによって決まる。図4に、画像のサンプリングを示す。各“+”(40)はビーズを見つけ出すことができるようにフレームメモリ42からのサンプリング点を表す。
【0012】
ビーズが見つかったら、次のステップは、ビーズの中心の位置を決定すること(26)である。これは、要求された色相を持つ領域内のすべての画素の質量中心を見つけ出すことによって行うことができる。たとえば、ビーズの位置に中心がある最大予想ビーズの直径の2倍の辺長をもつ正方形内の各画素を調べて、色相テストを満たしている正方形内のすべての画素について平均位置を見つけ出すことができるであろう。図5に、この方法を示す。代案として、ビーズ位置の決定でスタートし、隣接画素を「フラッドフィル(flood-fill) 」状に調べて、要求された色相をもつ画素の位置を決定することができるであろう。たとえば、開始点から左および右にステップし、ビーズの色相に一致していない値に達するまで、画素を集めることができるであろう。このビーズ画素のランの中心から、走査線を上に位置を変えて、処理を繰返すことができる。ビーズ着色画素のない走査に遭遇するまで、上に位置を変えることを続けることができる。同様に,ビーズ着色画素をもはや見つけ出すことができなくなるまで、下の画素へ位置を変えることができるであろう。画素を集めることは、平均位置を計算できるように、画素のx位置およびy位置をそれぞれ合計することを意味する。
【0013】
ビーズ画素の中心を見つけたら、中心点が予想されるように一定の公差内で事実上同一直線上にあるかどうかを決定するテストを実行することができる。もし点が同一直線上になければ、検出は失敗したと、そしてワンド以外の物体が間違って解釈されたと考えることができる。この場合には、ワンドの位置を決定すること以上のことをしようとしてはならない。
【0014】
処理における次のステップは、ワンドのどちらの端がポインティング端であるかを決定すること(28)である。棒の半分がカラーコード化されている場合には、これは、ビーズの中心間の直線に沿って画素の色相を調べることによって決定することができる。たとえば、端ビーズと中心ビーズ間の直線に沿って、前端の色相および後端の色相と一致する画素を計数することができる。支配的な色によって、前端であるか後端であるかが決定される。図2の特有な断面ライニングは、考えられる異なる色を表すことを意図している。
【0015】
最後のステップは、投射像の座標から現実世界の位置へ変換すること(30)である。変換は、決定されたビーズの相対的間隔と既知の装置ジオメトリに基づいた幾何学的計算による、フレームメモリ上の投射像の「アンプロジェクション(unprojection)」から成っている。
【0016】
投射に関して以下のモデルを仮定する。すなわち、キャプチャされた画像はまるでビュー点からビュー距離dに位置する2次元ビュー面に描かれたと同じように見えるであろう。物体上の点に対応するビュー面内の点の位置は物体点からビュー点への直線とビュー面との交点である(図6参照)。
【0017】
このモデルでは、物体点の高さyは投射点の高さypと以下の関係にある。
y=yp(z+d)d
すなわち、 y=B(z+d)である。(ここで、B=yp/d)
【0018】
同様に、物体の水平位置xはその投射位置xpと以下の関係にある。
x=A(z+d) (ここで、A=xp/d)
【0019】
ここで、物体の上に直線に沿って等間隔で配置された3つの点をあると仮定する。それらの点に1、2、3の標識を付け、それらが点1と点3の間の距離Dをもつビーズ16,18,20に対応していると仮定する。ユークリッド距離方程式から、
2=(x1+x3)2+(y1−y3)2+(z1−z3)2
が得られる。
【0020】
点2は点1と点3の中間点であるので、
x2={x1+x3}/2、
y2=(y1+y3)/2、
z2={z1+z3}/2であることが判る。
また、3つの点は直線上にあるので、
x1−x2=x2−x3であり、y1−y2=y2−y3であることが判る。
それらの関係から、
A1(z1+d)−A2((z1+z3)/2+d)=
A2((z1+z3)/2+d)−A3(z3+d)と、
B1(z1+d)−B2((z1+z3)/2+d)=
B2((z1+z3)/2+d)−B3(z3+d)と
が得られる。
これらの式を(z1+d)について解くことによって、
(z1+d)=g(z3+d)
が得られる。ここで、g={A3−A2}/{A2−A1}={B3−B2}/(B2−B1)である。
【0021】
この式を使用して距離方程式からz1+dを除去することによって、z3+dについて解くことができる。すなわち、
z3+d=D/(A3−gA1)2+(B3−gB1)2+(1−g)1/2
【0022】
したがって、物体点のz位置について解き、それらからx座標とy座標について解くツールが得られた。
【0023】
われわれが3次元世界の座標を2次元のキャプチャした画像座標と同じ単位で計算する方法について説明したことに留意されたい。画像座標たとえば画素が与えられそうであり、また世界座標たとえばインチのほうが好まれそうである。したがって、ビュー距離dのようなプロパティに加えて個々のシステムについて経験的に決めることができる単純な倍率を適用する必要がある。
【0024】
どちらのビーズが前端にあるかの知識に加えて、端ビーズの3次元位置が判れば、十分に本発明によって約束された位置またはポインティングが得られる。
【0025】
画素がワンドに沿ったビーズに属するとして間違って識別された場合に生じることがある誤った結果を防止するために、得られた位置の値の妥当性を検査することができる。値と最大および最小予想座標とを比較することができる。選択した範囲の外側にある点は無視するか、誤っているとして標識を付けることができる。
【図面の簡単な説明】
【図1】本発明の基本的構造要素の単純化したブロック図である。
【図2】図1の装置によって検出することになっている目印ビーズを有するワンドの平面図である。
【図3】本発明を実施するためのソフトウェア・モジュールのブロック図である。
【図4】ワンドの位置と、ワンドのビデオ画像を表現するフレームメモリ内の目印ビーズの相対的位置とを識別するためのサンプリング計画を示す単純化した略図である。
【図5】ワンドの目印ビーズの中心を識別する分析方法の単純化した略図である。
【図6】既知の装置ジオメトリに基づいて、ビデオ画像内のワンドの検出位置を自由空間における対応する座標へ変換する幾何学的計算の説明を助ける幾何学的な略図である。
【符号の説明】
W ワンド
10 ビデオカメラ
12 ビデオキャプチャ・ハードウェア
14 コンピュータ
20 ビーズ
40 サンプリング点

Claims (3)

  1. 同一直線上に等間隔で配置され所定の色を有する3個のビーズを備えるワンドのビデオ画像から予め選択した自由空間におけるワンドの位置を決定する方法であって、
    ビデオカメラ装置のビュー面上のワンドのビデオ画像をキャプチャして、前記画像を前記ビーズの相対的位置を含むフレームメモリによって表す、ビデオ画像キャプチャステップと、
    前記ビュー面上における画素値が前記ビーズの色又は色相と一致するか否かを決定することによって前記ビーズを検出するステップと、
    前記ビュー面上のビーズの中心を決定するとともに、それらの中心間の相対的間隔を決定するステップと、
    前記相対的間隔前記ビデオ画像を生成する既知のカメラ装置ジオメトリに基づいて、自由空間におけるビーズの座標位置を計算するステップと
    を含む、
    とを特徴とする方法。
  2. 物体が同一直線上に等間隔に配置され所定の色を有する複数の目印を備え、且つビデオカメラが既知の装置ジオメトリを有し前記ビデオカメラ内にキャプチャされた画像から3次元自由空間における予め選択した物体の位置とポインティング方向を識別する装置であって
    前記画像の画素表現を含むフレームメモリと、
    前記画素表現からビュー面内における前記目印の相対的位置を検出し、前記相対的位置と前記既知の装置ジオメトリから前記自由空間における前記物体の前記目印の対応する座標位置を計算するプロセッサと
    具備し、
    前記プロセッサが、前記画素表現における画素値が前記目印の色又は色相と一致するか否かを決定することによって前記目印を検出する、
    ことを特徴とする装置。
  3. 前記物体は、さらに、物体のポインティング方向を示すアライメント・インジケータを含んでいることを特徴とする請求項2に記載の装置。
JP2000301641A 1999-10-01 2000-10-02 自由空間におけるワンドの位置を決定する方法および装置 Expired - Fee Related JP4709364B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/410520 1999-10-01
US09/410,520 US6894716B1 (en) 1999-10-01 1999-10-01 Method and apparatus for identifying a position of a predetermined object in free space using a video image

Publications (2)

Publication Number Publication Date
JP2001167257A JP2001167257A (ja) 2001-06-22
JP4709364B2 true JP4709364B2 (ja) 2011-06-22

Family

ID=23625083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000301641A Expired - Fee Related JP4709364B2 (ja) 1999-10-01 2000-10-02 自由空間におけるワンドの位置を決定する方法および装置

Country Status (2)

Country Link
US (1) US6894716B1 (ja)
JP (1) JP4709364B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6894716B1 (en) * 1999-10-01 2005-05-17 Xerox Corporation Method and apparatus for identifying a position of a predetermined object in free space using a video image
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6982697B2 (en) * 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
JP5118663B2 (ja) * 2009-03-31 2013-01-16 Kddi株式会社 情報端末装置
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
US9569439B2 (en) 2011-10-31 2017-02-14 Elwha Llc Context-sensitive query enrichment
CN111951331B (zh) * 2020-07-07 2024-02-27 中国人民解放军93114部队 基于视频图像的飞行装置精准定位方法、装置和电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02155024A (ja) * 1988-12-08 1990-06-14 Wacom Co Ltd 三次元座標入力装置及びその位置指示器

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2405459A1 (fr) * 1977-10-07 1979-05-04 Secretary Industry Brit Perfectionnements aux appareils de detection de position
US4857902A (en) * 1987-05-14 1989-08-15 Advanced Interaction, Inc. Position-dependent interactivity system for image display
US4977315A (en) * 1989-10-06 1990-12-11 Summagraphics Corporation Liquid crystal position determining system and wand device
DE9205427U1 (ja) * 1992-04-21 1992-06-25 Bodenseewerk Geraetetechnik Gmbh, 7770 Ueberlingen, De
US5517990A (en) * 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US6519029B1 (en) * 1999-03-22 2003-02-11 Arc Second, Inc. Low cost transmitter with calibration means for use in position measurement systems
US6894716B1 (en) * 1999-10-01 2005-05-17 Xerox Corporation Method and apparatus for identifying a position of a predetermined object in free space using a video image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02155024A (ja) * 1988-12-08 1990-06-14 Wacom Co Ltd 三次元座標入力装置及びその位置指示器

Also Published As

Publication number Publication date
JP2001167257A (ja) 2001-06-22
US6894716B1 (en) 2005-05-17

Similar Documents

Publication Publication Date Title
US6781618B2 (en) Hand-held 3D vision system
CN105279372B (zh) 一种确定建筑物高度的方法和装置
JP3977776B2 (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
JP3054681B2 (ja) 画像処理方法
JP7031697B2 (ja) 情報処理装置および認識支援方法
WO2011112028A2 (ko) 입체 영상 생성 방법 및 그 장치
JP2007129709A (ja) イメージングデバイスをキャリブレートするための方法、イメージングデバイスの配列を含むイメージングシステムをキャリブレートするための方法およびイメージングシステム
CN111028271B (zh) 基于人体骨架检测的多摄像机人员三维定位跟踪系统
JP2007018426A (ja) 情報処理装置および方法
WO2010041584A1 (en) Imaging system and method
CN104933704B (zh) 一种三维立体扫描方法及系统
Böhm Multi-image fusion for occlusion-free façade texturing
JP2016170610A (ja) 三次元モデル処理装置およびカメラ校正システム
JP4709364B2 (ja) 自由空間におけるワンドの位置を決定する方法および装置
CN112348869A (zh) 通过检测和标定恢复单目slam尺度的方法
JPH0997342A (ja) 樹木離隔距離計測システム
JP2004062393A (ja) 注目判定方法及び注目判定装置
WO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
CN111080712B (zh) 一种基于人体骨架检测的多相机人员定位跟踪显示方法
JP2004030408A (ja) 三次元画像表示装置及び表示方法
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
JP2006302195A (ja) 画像処理方法及び画像処理装置
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
WO2018056802A1 (en) A method for estimating three-dimensional depth value from two-dimensional images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110318

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees