JP2009134677A6 - Gesture interface system, gesture input wand, application control method, camera calibration method, and control program - Google Patents

Gesture interface system, gesture input wand, application control method, camera calibration method, and control program Download PDF

Info

Publication number
JP2009134677A6
JP2009134677A6 JP2007332741A JP2007332741A JP2009134677A6 JP 2009134677 A6 JP2009134677 A6 JP 2009134677A6 JP 2007332741 A JP2007332741 A JP 2007332741A JP 2007332741 A JP2007332741 A JP 2007332741A JP 2009134677 A6 JP2009134677 A6 JP 2009134677A6
Authority
JP
Japan
Prior art keywords
wand
camera
gesture
interface system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007332741A
Other languages
Japanese (ja)
Other versions
JP2009134677A (en
Inventor
ジー.キンバー ドナルド
グオ フェン
リーフェル エレノア
和昌 村井
オモハンドロ ステファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/680,515 external-priority patent/US7775439B2/en
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2009134677A publication Critical patent/JP2009134677A/en
Publication of JP2009134677A6 publication Critical patent/JP2009134677A6/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】カメラ較正用の物体及び三次元空間でのジェスチャインターフェース装置としての特徴を兼ね備えたワンドを利用したジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法及び制御プログラムを提供する。
【解決手段】1台又は複数のカメラにより追跡される受動ワンドがユーザインターフェース装置として使用される。ワンドは安価でありユーザが大型ディスプレイなどの装置と対話する自然な方法である。各ワンドは最大限の6自由度を指定するのに使用され、三次元アプリケーションの操作に役立つ。ワンドは三次元の実世界点を識別するのにも使用され、マルチカメラ較正と物理空間の三次元モデル構築に役立つ。記述する方法はワンド姿勢のより精密な推定技法を提供し単一カメラを用いて実施できる。また、処理を簡略化する画像内の1次元ラインスキャンで利用可能な情報を使用しワンド姿勢を推定する。
【選択図】図1
A gesture interface system using a wand having features as a camera calibration object and a gesture interface device in a three-dimensional space, a gesture input wand, an application control method, a camera calibration method, and a control program are provided.
A passive wand tracked by one or more cameras is used as a user interface device. Wands are inexpensive and are a natural way for users to interact with devices such as large displays. Each wand is used to specify a maximum of 6 degrees of freedom and is useful for operating 3D applications. Wands are also used to identify 3D real world points, useful for multi-camera calibration and physical space 3D model building. The described method provides a more accurate technique for estimating the wand pose and can be implemented using a single camera. In addition, the wand posture is estimated using information that can be used in the one-dimensional line scan in the image that simplifies the processing.
[Selection] Figure 1

Description

本発明は、コンピュータ・インターフェースに関し、より詳しくは、ジェスチャインターフェースに関する。加えて、本発明は、カメラ較正の技法にも関する。即ち、ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラムに関する。   The present invention relates to computer interfaces, and more particularly to gesture interfaces. In addition, the present invention relates to camera calibration techniques. That is, the present invention relates to a gesture interface system, a gesture input wand, an application control method, a camera calibration method, and a control program.

2つの従来型のジェスチャインターフェースが一般に使用されている。1つは、ユーザが装着する必要のあるグローブのようなハードウェアに配置されたセンサを必要とする。この解決法は、高価であると共に、ユーザにも不評である。もう1つは、画面(screen)への接触又はセンサからの位置決定による、ユーザと画面との二次元インタラクション(対話)に制限される。前者は、ユーザに、より多くの自由度を提供する。従って、後者でサポートされ得る語彙よりも、幅広い基本対話語彙をサポートすることができる。   Two conventional gesture interfaces are commonly used. One requires a sensor located in hardware such as a glove that the user needs to wear. This solution is expensive and unpopular with the user. The other is limited to two-dimensional interaction between the user and the screen by touching the screen or determining the position from the sensor. The former provides the user with more freedom. Therefore, it is possible to support a wider range of basic dialogue vocabularies than can be supported by the latter.

例えば、ユーザインターフェースとしてワンド(円筒型のジェスチャ入力装置)を使用すれば、2自由度ではなく、最大限の6自由度がサポートされる。また、複数のワンドを使用すれば、さらに多くの自由度がサポートされる。2自由度で対話に十分な広さの語彙をサポートする場合であっても、前述のワンドを用いた代替インターフェースには利点がある。というのは、例えば、大画面との対話では、ユーザが画面に触れるために画面に十分に近づく必要があり、結果として画面全体が見えなくなるからである。   For example, if a wand (cylindrical gesture input device) is used as a user interface, a maximum of 6 degrees of freedom is supported instead of 2 degrees of freedom. Also, more degrees of freedom are supported if multiple wands are used. Even when supporting a vocabulary that is wide enough for dialogue with two degrees of freedom, the alternative interface using the wand described above is advantageous. This is because, for example, in a dialog with a large screen, the user needs to be close enough to touch the screen, and as a result, the entire screen becomes invisible.

或る用途では、何らかの物体にセンサを配置するという部分的解決法が採用されている。その物体は、持ち上げたり置いたりすることができ、ユーザがその設定で使い慣れている物体に類似した物体である。例えば、センサを様々なポインティングデバイス(位置決め装置)に付加することができる。しかしながら、この解決法には、出費、重量、壊れやすい部品、及びコード又は電池による電力供給の必要性を含め、様々な問題がある。   In some applications, a partial solution is employed in which the sensor is placed on some object. The object can be lifted or placed and is similar to an object that the user is accustomed to using in that setting. For example, the sensor can be added to various pointing devices (positioning devices). However, this solution has various problems, including expense, weight, fragile parts, and the need for power supply by cords or batteries.

コンピュータビジョンに基づくシステムでは、これらの問題のうち最後の3つが回避される。かかるシステムでは、本質的にシステムの費用全部がカメラに費やされるが、カメラは日々より安価になっている。しかも、コンピュータビジョンに基づくシステムは、限りなく多様な物体と協働するように変更され得る。主な制限要因は、どの物体が、確実に追跡され得るかである。例えば、「手振り(hand gesture)」を追跡するように設計されたコンピュータビジョンに基づくシステムは、魅力的ではあるが、手を追跡することの難しさにより、確実さ(robustness)に大きな問題が生じる。   In systems based on computer vision, the last three of these problems are avoided. In such a system, essentially all of the cost of the system is spent on the camera, but the camera is cheaper every day. Moreover, systems based on computer vision can be modified to work with an unlimited variety of objects. The main limiting factor is which objects can be reliably tracked. For example, a computer vision-based system designed to track “hand gestures” is attractive, but the difficulty of tracking the hand poses a major problem in robustness .

よって、特に求められるのは、関連付けられるカメラシステムにおける全知能を有する、コンピュータビジョン技術を介して確実にジェスチャインターフェースを可能にする、簡単で、静的で、安価な物体である。   Thus, what is particularly needed is a simple, static, and inexpensive object that reliably enables a gesture interface through computer vision technology with full intelligence in the associated camera system.

「VisionWand: interaction techniques for large displays using a passive wand tracked in 3D(ビジョンワンド:3Dにおいて追跡される受動ワンドを使った大型ディスプレイのための対話技術)」、「Symposium on User Interface Software and Technology、Proceedings of the 16th annual ACM symposium on User interface software and technology(ユーザインターフェースソフトウェア及び技術に関するシンポジウム、第16回ユーザインターフェースソフトウェア及び技術に関する年次ACMシンポジウム議事録)、173〜182頁(2003年)」に記載されている、Xiang Cao(シャン・カオ)、Ravin Balakrishnan(ラビン・バラクリシュナン)のビジョンワンド研究は、かかるシステムが可能であるばかりでなく、それらの対話が、効果的で、直観的であり、ユーザによる評価の高い特性を有することを示している。   “VisionWand: interaction techniques for large displays using a passive wand tracked in 3D”, “Symposium on User Interface Software and Technology, Proceedings of the 16th annual ACM symposium on User interface software and technology (Proceedings of the 16th Annual ACM Symposium on User Interface Software and Technology, 173-182 (2003)) Xiang Cao, Ravin Balakrishnan's vision wand research not only makes such a system possible, but their interaction is effective, intuitive, and user It has high evaluation characteristics by It is.

著者らは、対照的な色の背景に対して、カメラによって容易に追跡され得る、着色された端部を有する簡単なワンドを使用している。様々な簡単なワンドジェスチャを使って、大画面上でフォトアプリケーションが制御され、写真との直接対話及びメニュー選択の両方が可能にされる。以下で説明するのが、さらに簡単なジェスチャインターフェースの利点を示す2つの例である。ワンドを画面に平行にして「押す」ジェスチャでズームインし、「引く」ジェスチャでズームアウトする。ワンドを短時間にわたり画面と平行に保つと、全メニューが提示され、回転ジェスチャがメニュー項目間を移動するのに使用される。ユーザは、システムに慣れるに従い、所望のメニュー項目の回転位置にワンドを配置することを覚えるようになる。かかる短縮された対話が可能なのは、前述のジェスチャインターフェースが、これらの自由度を利用できるからに他ならない。   The authors use a simple wand with colored edges that can be easily tracked by the camera against a contrasting colored background. Various simple wand gestures are used to control the photo application on the large screen, allowing both direct interaction with the photo and menu selection. Described below are two examples that illustrate the benefits of a simpler gesture interface. Zoom in with the “push” gesture with the wand parallel to the screen and zoom out with the “pull” gesture. If the wand is kept parallel to the screen for a short time, the entire menu is presented and a rotation gesture is used to move between menu items. As the user gets used to the system, the user will learn to place the wand at the rotational position of the desired menu item. Such a shortened dialogue is possible because the above-mentioned gesture interface can use these degrees of freedom.

Xiang Cao, Ravin Balakrishnan., "VisionWand: interaction techniques for large displays using a passive wand tracked in 3D."Xiang Cao, Ravin Balakrishnan., "VisionWand: interaction techniques for large displays using a passive wand tracked in 3D." Xiang Cao, Ravin Balakrishnan., "Symposium on User Interface Software and Technology、Proceedings of the 16th annual ACM symposium on User interface software and technology."pp.173-172(2003).Xiang Cao, Ravin Balakrishnan., "Symposium on User Interface Software and Technology, Proceedings of the 16th annual ACM symposium on User interface software and technology." Pp.173-172 (2003). YASUJI SEKO, et al., "Proposal of recordable pointer: Pointed position measurement by projecting interference concentric circle pattern with a pointing device." IEEE, 2006, Corporate Research Group, Fuji Xerox Co., Ltd.YASUJI SEKO, et al., "Proposal of recordable pointer: Pointed position measurement by projecting interference concentric circle pattern with a pointing device." IEEE, 2006, Corporate Research Group, Fuji Xerox Co., Ltd.

しかしながら、従来の技術では、改善されたワンド検出と追跡の技法を提供することができない。即ち、ワンドの両端を含む、その物体の視界の大部分が遮られているときでさえも、ユーザとコンピュータシステムインターフェースとの対話を可能にすると共に、それによって、ジェスチャインターフェースが使用するための別の自然な自由度を可能にすることができる、改善技法を提供することができない。   However, the prior art cannot provide improved wand detection and tracking techniques. That is, it allows the user to interact with the computer system interface even when the majority of the object's field of view, including both ends of the wand, is obstructed, thereby providing a separate interface for use by the gesture interface. It is not possible to provide improvement techniques that can allow the natural degree of freedom.

加えて、はるかに高い精度を可能にするワンドがあれば望ましいはずである。例えば、三次元モデリングツールにおいて位置を制御するのに適した、精密な位置決め装置として使用され得るようなワンドがあれば望ましいはずである。   In addition, it would be desirable to have a wand that allows much higher accuracy. For example, it would be desirable to have a wand that can be used as a precision positioning device suitable for controlling position in a three-dimensional modeling tool.

本発明の方法論は、従来のジェスチャインターフェースに関連する上記の問題及びその他の問題の少なくとも1つを実質的に除去する方法及びシステムを対象とするものである。   The methodology of the present invention is directed to a method and system that substantially eliminates at least one of the above problems and other problems associated with conventional gesture interfaces.

即ち、本発明の目的は、カメラ較正用の物体及び三次元空間でのジェスチャインターフェース装置としての特徴を兼ね備えたワンドを利用した、ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラムを提供することにある。   That is, an object of the present invention is to use a gesture interface system, a gesture input wand, an application control method, a camera calibration method, using a wand having features as a camera calibration object and a gesture interface device in a three-dimensional space, And providing a control program.

本発明の概念の一態様によれば、ユーザによって操作されるワンドであり且つ少なくとも1つの特徴を備えたワンドの画像を作成するように動作する少なくとも1台のカメラと、作成されたワンドの画像を受け取り、ワンドの少なくとも1つの特徴に基づいて、ワンドの姿勢を決定するように動作する処理モジュールと、を含むコンピュータインターフェースシステムが提供される。ワンドの姿勢は、ワンドの位置、ワンドの向き、及びワンドのねじれを含む。前述のように決定されるワンドの姿勢は、ユーザアプリケーションを制御するのに使用される。   According to one aspect of the inventive concept, at least one camera that is a wand operated by a user and that operates to create an image of the wand with at least one feature, and the image of the created wand And a processing module operative to determine a wand attitude based on at least one characteristic of the wand. Wand posture includes wand position, wand orientation, and wand twist. The wand attitude determined as described above is used to control the user application.

本発明の概念の別の態様によれば、ジェスチャコンピュータインターフェースで使用するためのワンドが提供される。本発明のワンドは、ねじれコード領域と、色コード領域と、精密特徴領域とを含む。   In accordance with another aspect of the inventive concept, a wand for use with a gesture computer interface is provided. The wand of the present invention includes a twist code area, a color code area, and a precision feature area.

本発明の概念の別の態様によれば、ユーザによって操作されるワンドであり且つ少なくとも1つの特徴を備えたワンドの姿勢に基づいて、コンピュータアプリケーションを制御する方法が提供される。本発明の方法は、少なくとも1台のカメラを使って、ユーザによって操作されるワンドの画像を作成するステップと、作成された画像を使い、ワンドの少なくとも1つの特徴に基づいてワンドの姿勢を決定するステップと、を含んでいる。ワンドの姿勢は、ワンドの位置、ワンドの向き、及びワンドのねじれを含む。本発明の方法は、さらに、決定されるワンドの姿勢に基づいて、コンピュータアプリケーションを制御するステップを伴う。   According to another aspect of the inventive concept, a method is provided for controlling a computer application based on a wand attitude that is operated by a user and has at least one feature. The method of the present invention includes the steps of creating an image of a wand operated by a user using at least one camera and determining the posture of the wand based on at least one feature of the wand using the created image. And a step of performing. Wand posture includes wand position, wand orientation, and wand twist. The method of the present invention further involves controlling a computer application based on the determined wand attitude.

本発明の概念の別の態様によれば、少なくとも1台のカメラによって作成される、ユーザによって操作されるワンドの画像に基づいて、コンピュータアプリケーションを制御するステップと、少なくとも1台のカメラにより得られたワンドの画像に基づいて、少なくとも1台のカメラを較正するステップと、を含む方法が提供される。   According to another aspect of the inventive concept, controlling a computer application based on an image of a wand operated by a user created by at least one camera and obtained by at least one camera. And calibrating at least one camera based on the image of the wand.

本発明に関連するその他の態様の一部を以下に説明する。また、本発明に関連するその他の態様の一部は、以下の説明から明らかであるか、或いは本発明の実施例により理解することができるだろう。本発明の諸態様は、以下の詳細な説明と添付の特許請求の範囲において特に示した「要素」及び「種々の要素と種々の態様との組合せ」によって実現され、実施され得る。   Some other aspects related to the present invention will be described below. In addition, some of the other aspects related to the present invention will be apparent from the following description, or can be understood from the embodiments of the present invention. Aspects of the invention may be realized and implemented by means of the “elements” and “combinations of various elements with various aspects” specifically set forth in the following detailed description and the appended claims.

前述の説明も以下の説明も、例示と説明のためのものにすぎず、いかなる方法によっても、特許請求される本発明又は本発明の適用を限定しようとするものではないことを理解すべきである。   It is to be understood that both the foregoing and following description is for purposes of illustration and description only and is not intended to limit the claimed invention or the application of the invention in any way. is there.

本明細書に組み込まれその一部を構成する添付の図面は、本発明の実施形態を例示し、説明と相まって、本発明の技法の原理を説明し、図示するのに使用するものである。   The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate embodiments of the invention and, together with the description, are used to explain and illustrate the principles of the techniques of the invention.

即ち、本発明の請求項に記載された発明は、以下の特徴を有するものである。   That is, the invention described in the claims of the present invention has the following characteristics.

<ジェスチャインターフェースシステム>
請求項1に記載された発明は、ジェスチャによりコンピュータと対話するジェスチャインターフェースシステムであって、a.ユーザによって操作され、外観パターンに少なくとも1つの特徴を備えるジェスチャ入力用のワンドの画像を作成するように動作する少なくとも1台のカメラと、b.前記カメラから作成された前記ワンドの画像を受け取り、前記ワンドの前記少なくとも1つの特徴に基づいて、前記ワンドの位置、前記ワンドの向き及び前記ワンドのねじれを含む前記ワンドの姿勢を決定するように動作すると共に、前記ワンドの前記決定された姿勢を用いて、ユーザアプリケーションを制御する処理手段と、を備えることを特徴とする。
<Gesture interface system>
The invention described in claim 1 is a gesture interface system for interacting with a computer by a gesture, comprising: a. At least one camera operated by a user and operable to create an image of a wand for gesture input having at least one feature in an appearance pattern; b. Receiving an image of the wand created from the camera and determining the position of the wand, including the position of the wand, the orientation of the wand, and the twist of the wand, based on the at least one feature of the wand; Processing means for operating and controlling a user application using the determined attitude of the wand.

請求項2に記載された発明は、請求項1記載の発明において、前記処理手段は、少なくとも、前記ワンドの複数の色領域に基づいて、前記ワンドの前記姿勢を決定するように動作することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the processing means operates to determine the posture of the wand based on at least a plurality of color regions of the wand. Features.

請求項3に記載された発明は、請求項1記載の発明において、前記処理手段は、少なくとも、前記ワンドのねじれコード領域に基づいて、前記ワンドの前記姿勢を決定するように動作することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the present invention, the processing means operates so as to determine the posture of the wand based on at least the twist code region of the wand. And

請求項4に記載された発明は、請求項3記載の発明において、前記ねじれコード領域は、らせんパターンを備えることを特徴とする。   According to a fourth aspect of the present invention, in the third aspect of the present invention, the twisted code region includes a spiral pattern.

請求項5に記載された発明は、請求項1記載の発明において、前記処理手段は、少なくとも、精密特徴領域に基づいて、前記ワンドの前記姿勢を決定するように動作することを特徴とする。   According to a fifth aspect of the present invention, in the first aspect of the present invention, the processing means operates so as to determine the posture of the wand based on at least a fine feature region.

請求項6に記載された発明は、請求項5記載の発明において、前記精密特徴領域は、チェッカーボードパターンを備えることを特徴とする。   According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the precision feature region includes a checkerboard pattern.

請求項7に記載された発明は、請求項6記載の発明において、前記チェッカーボードパターンは、チェッカーボード升目の中央にドット又はぼかしたブロブを備えることを特徴とする。   A seventh aspect of the invention is characterized in that, in the sixth aspect of the invention, the checkerboard pattern includes a dot or a blurred blob in the center of the checkerboard grid.

請求項8に記載された発明は、請求項1記載の発明において、前記ワンドは、情報を符号化するバーコード領域をさらに備えることを特徴とする。   The invention described in claim 8 is characterized in that, in the invention described in claim 1, the wand further comprises a barcode area for encoding information.

請求項9に記載された発明は、請求項8記載の発明において、前記処理手段は、前記ワンドの前記バーコード領域に符号化された前記情報に基づいて、前記ワンドの識別子を決定するように動作することを特徴とする。   The invention described in claim 9 is the invention according to claim 8, wherein the processing means determines the identifier of the wand based on the information encoded in the barcode area of the wand. It is characterized by operation.

請求項10に記載された発明は、請求項1記載の発明において、前記ユーザによって操作され、前記ワンドの画像を作成するように動作する第2のカメラであって、前記少なくとも1台のカメラとは異なる位置に配置された前記第2のカメラをさらに備えることを特徴とする。   The invention described in claim 10 is the second camera operated by the user and operated to create the image of the wand in the invention of claim 1, wherein the at least one camera and Is further provided with the second camera arranged at a different position.

請求項11に記載された発明は、請求項1記載の発明において、前記処理手段は、前記ワンドのスキャンラインを再構成し、前記ワンドの前記スキャンラインと前記ワンドの前記少なくとも1つの特徴との交点を求めることによって、前記ワンドの前記姿勢を決定するように動作することを特徴とする。   The invention described in claim 11 is the invention described in claim 1, wherein the processing means reconfigures the scan line of the wand, and the scan line of the wand and the at least one feature of the wand It operates to determine the posture of the wand by obtaining an intersection point.

請求項12に記載された発明は、請求項1記載の発明において、前記ワンドの一端は色コードを備え、前記処理手段は、前記ワンドの一部分だけしか見えないときに、前記色コードを使って前記ワンドの前記姿勢を決定するように動作することを特徴とする。   According to a twelfth aspect of the present invention, in the first aspect of the invention, one end of the wand is provided with a color code, and the processing means uses the color code when only a part of the wand is visible. It operates to determine the posture of the wand.

請求項13に記載された発明は、請求項1記載の発明において、前記少なくとも1台のカメラは赤外線カメラであり、前記ワンドの表面が赤外線反射材料又は再帰反射材料を含むことを特徴とする。   The invention described in claim 13 is the invention described in claim 1, wherein the at least one camera is an infrared camera, and a surface of the wand includes an infrared reflective material or a retroreflective material.

請求項14に記載された発明は、請求項13記載の発明において、前記赤外線カメラは、少なくとも1つの赤外線発光源と、少なくとも1つの赤外線フィルタとを備えることを特徴とする。   The invention described in claim 14 is the invention according to claim 13, wherein the infrared camera includes at least one infrared light emission source and at least one infrared filter.

請求項15に記載された発明は、請求項1記載の発明において、前記処理手段は、前記少なくとも1台のカメラによって取得される前記ワンドの前記画像に基づいて、前記少なくとも1台のカメラを較正するように動作することを特徴とする。   The invention described in claim 15 is the invention according to claim 1, wherein the processing means calibrates the at least one camera based on the image of the wand acquired by the at least one camera. It is characterized by operating.

<ジェスチャ入力用ワンド>
請求項16に記載された発明は、ジェスチャインターフェースで使用するためのジェスチャ入力用ワンドであって、a.ねじれコード領域と、b.色コード領域と、c.精密特徴領域と、を外観パターン上の特徴として備えることを特徴とする。
<Wash for gesture input>
The invention described in claim 16 is a gesture input wand for use in a gesture interface comprising: a. A torsion cord region; b. A color code region; c. A precise feature region is provided as a feature on the appearance pattern.

請求項17に記載された発明は、請求項16記載の発明において、前記色コード領域は、前記ワンドの長さに沿って分散された複数の色帯を備えることを特徴とする。   The invention described in claim 17 is characterized in that, in the invention described in claim 16, the color code region comprises a plurality of color bands distributed along the length of the wand.

請求項18に記載された発明は、請求項17記載の発明において、前記複数の色帯は異なる色を有することを特徴とする。   The invention described in claim 18 is the invention described in claim 17, characterized in that the plurality of color bands have different colors.

請求項19に記載された発明は、請求項16記載の発明において、前記ねじれコード領域はらせんパターンを備えることを特徴とする。   The invention described in claim 19 is characterized in that, in the invention described in claim 16, the twisted code region has a spiral pattern.

請求項20に記載された発明は、請求項16記載の発明において、前記ワンドの前記長さに沿って分散された複数のらせんパターンを備えることを特徴とする。   The invention described in claim 20 is characterized in that, in the invention described in claim 16, a plurality of spiral patterns distributed along the length of the wand are provided.

請求項21に記載された発明は、請求項16記載の発明において、前記精密特徴領域はチェッカーボードパターンを備えることを特徴とする。   The invention described in claim 21 is characterized in that, in the invention described in claim 16, the precision feature region includes a checkerboard pattern.

請求項22に記載された発明は、請求項21記載の発明において、前記チェッカーボードパターンは、チェッカーボード升目の中央にドット又はぼかしたブロブを備えることを特徴とする。   According to a twenty-second aspect of the present invention, in the twenty-first aspect, the checkerboard pattern includes a dot or a blurred blob at the center of the checkerboard grid.

請求項23に記載された発明は、請求項16記載の発明において、符号化情報を備えるバーコード領域をさらに備えることを特徴とする。   The invention described in claim 23 is characterized in that, in the invention described in claim 16, a bar code area including encoded information is further provided.

請求項24に記載された発明は、請求項23記載の発明において、前記符号化情報は前記ワンドの識別子を備えることを特徴とする。   The invention described in claim 24 is characterized in that, in the invention described in claim 23, the encoded information includes the identifier of the wand.

請求項25に記載された発明は、請求項16記載の発明において、前記ワンドの少なくとも一端が色コードを備えることを特徴とする。   The invention described in claim 25 is the invention described in claim 16, wherein at least one end of the wand is provided with a color code.

請求項26に記載された発明は、請求項16記載の発明において、前記ワンドの表面が赤外線反射材料又は再帰反射材料を備えることを特徴とする。   The invention described in claim 26 is the invention described in claim 16, characterized in that the surface of the wand comprises an infrared reflecting material or a retroreflective material.

<アプリケーション制御方法>
請求項27に記載された発明は、ユーザによって操作され、外観パターンに少なくとも1つの特徴を備えるジェスチャ入力用のワンドの姿勢に基づいて、コンピュータアプリケーションを制御するアプリケーション制御方法であって、a.少なくとも1台のカメラを使って、前記ユーザによって操作されるワンドの画像を作成するステップと、b.前記作成される画像を用い、前記ワンドの前記少なくとも1つの特徴に基づいて、前記ワンドの位置、前記ワンドの向き及び前記ワンドのねじれを含む前記ワンドの前記姿勢を決定するステップと、c.前記ワンドの前記決定された姿勢に基づいて前記コンピュータアプリケーションを制御するステップと、を備えることを特徴とする。
<Application control method>
The invention described in claim 27 is an application control method for controlling a computer application based on a posture of a wand for gesture input that is operated by a user and has at least one feature in an appearance pattern, comprising: a. Creating an image of a wand operated by the user using at least one camera; b. Determining the position of the wand, including the position of the wand, the orientation of the wand, and the twist of the wand, based on the at least one feature of the wand using the created image; c. Controlling the computer application based on the determined attitude of the wand.

<カメラ校正方法>
請求項28に記載された発明は、ユーザによって操作され、外観パターンに少なくとも1つの特徴を備えるジェスチャ入力用のワンドの画像に基づいてカメラの校正を行うカメラ校正方法であって、a.少なくとも1台のカメラを使って、前記ユーザによって操作されるワンドの画像を作成し、作成された画像に基づいて前記コンピュータアプリケーションを制御するステップと、b.前記少なくとも1台のカメラによって取得された前記ワンドの前記画像に基づいて、前記少なくとも1台のカメラを較正するステップと、を含むことを特徴とする。
<Camera calibration method>
The invention described in claim 28 is a camera calibration method for calibrating a camera based on an image of a wand for gesture input operated by a user and having at least one feature in an appearance pattern, comprising: a. Creating an image of a wand operated by the user using at least one camera and controlling the computer application based on the created image; b. Calibrating the at least one camera based on the image of the wand acquired by the at least one camera.

<制御プログラム>
請求項29に記載された発明は、ユーザによって操作され、外観パターン上に少なくとも1つの特徴を備えるジェスチャ入力用のワンドの姿勢に基づいて、コンピュータアプリケーションを制御するための制御プログラムであって、コンピュータにより、a.少なくとも1台のカメラよって作成された前記ワンドの画像を取得するステップと、b.前記作成された画像を用い、前記ワンドの前記少なくとも1つの特徴に基づいて、前記ワンドの位置、前記ワンドの向き及び前記ワンドのねじれを含む前記ワンドの前記姿勢を決定するステップと、c.前記ワンドの前記決定された姿勢に基づいて前記コンピュータアプリケーションを制御するステップと、を実行させることを特徴とする。
<Control program>
The invention described in claim 29 is a control program for controlling a computer application based on a posture of a wand for gesture input which is operated by a user and has at least one feature on an appearance pattern. A. Obtaining an image of the wand created by at least one camera; b. Determining the position of the wand including the position of the wand, the orientation of the wand, and the twist of the wand based on the at least one feature of the wand using the created image; c. Controlling the computer application based on the determined attitude of the wand.

<ジェスチャインターフェースシステム>
請求項1に係る発明(ジェスチャインタフェースシステム)によれば、外観パターン上に少なくとも1つの特徴を備えるワンドを用いて、ワンドの検出と追跡を容易にすると共に、ワンドの姿勢から精密な位置決めを可能として、コンピュータとの対話、即ち、アプリケーションの制御を可能にする、確実なジェスチャインタフェースを実現できる、という効果がある。
<Gesture interface system>
According to the invention according to claim 1 (gesture interface system), the wand having at least one feature on the appearance pattern can be used to facilitate detection and tracking of the wand, and precise positioning from the posture of the wand is possible. As described above, there is an effect that it is possible to realize a reliable gesture interface that enables interaction with a computer, that is, control of an application.

請求項2に係る発明によれば、ワンドを大まかに追跡するのが容易になり、追跡の初期設定にも使用しうる、という効果がある。   According to the invention of claim 2, it is easy to roughly track the wand, and there is an effect that it can be used for initial setting of tracking.

請求項3、4に係る発明によれば、ワンドの軸に関してのワンドのねじれを決定するのに役立つ、という効果がある。   According to the third and fourth aspects of the invention, there is an effect that it is useful for determining the twist of the wand with respect to the axis of the wand.

請求項5、6に係る発明によれば、ワンドがカメラの近くにあるときに、ワンドの姿勢をより精密に決定することができる、という効果がある。請求項7に係る発明によれば、更に精度を高めることができる、という効果がある。   According to the fifth and sixth aspects of the invention, there is an effect that when the wand is near the camera, the wand posture can be determined more precisely. According to the invention of claim 7, there is an effect that the accuracy can be further improved.

請求項8に係る発明によれば、符号化された情報も含み得る、という効果がある。   According to the invention of claim 8, there is an effect that encoded information can be included.

請求項9に係る発明によれば、ワンドを識別子で識別することができる、という効果がある。   According to the invention which concerns on Claim 9, there exists an effect that a wand can be identified with an identifier.

請求項10に係る発明によれば、ワンドの位置や姿勢を正確に求めることができ、1台のカメラがワンドの位置を見失った場合でも、ワンドの追跡を回復することができる、という効果がある。   According to the tenth aspect of the invention, the position and posture of the wand can be accurately obtained, and even when one camera loses sight of the position of the wand, the tracking of the wand can be recovered. is there.

請求項11に係る発明によれば、1次元のラインスキャンで、ワンドの姿勢の決定に十分な情報を得ることができる、という効果がある。   According to the eleventh aspect of the present invention, there is an effect that it is possible to obtain sufficient information for determining the posture of the wand by one-dimensional line scanning.

請求項12に係る発明によれば、区別が難しいワンドの姿勢を区別することができる、という効果がある。   According to the twelfth aspect of the present invention, there is an effect that the posture of the wand that is difficult to distinguish can be distinguished.

請求項13、14に係る発明によれば、得られる赤外線画像は、区分化が容易で、非常に高い信号対雑音比を有している、という効果がある。   According to the inventions according to claims 13 and 14, there is an effect that the obtained infrared image is easily segmented and has a very high signal-to-noise ratio.

請求項15に係る発明によれば、ジェスチャ入力に用いられるワンドがカメラ校正用の物体としても使用できる、という効果がある。   According to the invention which concerns on Claim 15, there exists an effect that the wand used for gesture input can be used also as an object for camera calibration.

<ジェスチャ入力用ワンド>
請求項16に係る発明(ジェスチャ入力用ワンド)によれば、ねじれコード領域と色コード領域と精密特徴領域とを外観パターン上の特徴として備えるワンドを用いて、ワンドの検出と追跡を容易にすると共に、ワンドの姿勢から精密な位置決めを可能として、コンピュータとの対話、即ち、アプリケーションの制御を可能にする、確実なジェスチャインタフェースを実現できる、という効果がある。
<Wash for gesture input>
According to the sixteenth aspect of the present invention (gesture input wand), it is possible to easily detect and track a wand by using a wand having a twist code area, a color code area, and a fine feature area as features on the appearance pattern. At the same time, there is an effect that it is possible to realize a precise gesture interface that enables precise positioning from the wand posture and enables interaction with the computer, that is, control of the application.

即ち、ねじれコード領域によりワンドのねじれを決定するのが容易になり、色コード領域によりワンドを大まかに追跡するのが容易になり、精密特徴領域によりワンドの姿勢をより精密に決定することができる。   That is, it becomes easy to determine the twist of the wand by the twist code area, it becomes easy to roughly track the wand by the color code area, and the attitude of the wand can be determined more precisely by the precision feature area. .

請求項17に係る発明によれば、ラインスキャンにより、ワンド端部からの距離を一意的に決定することができる、という効果がある。請求項18に係る発明によれば、ワンド端部からの距離を一意的に決定する場合にも、ワンドを大まかに追跡するのが容易になる、という効果がある。   According to the seventeenth aspect of the invention, there is an effect that the distance from the wand end can be uniquely determined by line scanning. According to the invention of claim 18, even when the distance from the end of the wand is uniquely determined, there is an effect that it becomes easy to roughly track the wand.

請求項19に係る発明によれば、ラインスキャンにより、ワンドのねじれを決定するのが容易になる、という効果がある。   According to the nineteenth aspect of the invention, there is an effect that it is easy to determine the twist of the wand by line scanning.

請求項20に係る発明によれば、ワンドの僅かな部分しか見えない場合でも、ワンドの姿勢を決定することができる、という効果がある。   According to the twentieth aspect of the present invention, there is an effect that the posture of the wand can be determined even when only a small portion of the wand is visible.

請求項21に係る発明によれば、ワンドがカメラの近くにあるときに、ワンドの姿勢をより精密に決定することができる、という効果がある。請求項22に係る発明によれば、更に精度を高めることができる、という効果がある。   According to the twenty-first aspect of the present invention, there is an effect that the wand posture can be determined more precisely when the wand is near the camera. According to the twenty-second aspect of the invention, there is an effect that the accuracy can be further improved.

請求項23に係る発明によれば、符号化された情報も含み得る、という効果がある。   According to the invention of claim 23, there is an effect that encoded information can be included.

請求項24に係る発明によれば、ワンドを識別子で識別することができる、という効果がある。   According to the invention of claim 24, there is an effect that the wand can be identified by the identifier.

請求項25に係る発明によれば、区別が難しいワンドの姿勢を区別することができる、という効果がある。   According to the invention of claim 25, there is an effect that the posture of the wand that is difficult to distinguish can be distinguished.

請求項26に係る発明によれば、得られる赤外線画像は、区分化が容易で、非常に高い信号対雑音比を有している、という効果がある。   According to the twenty-sixth aspect of the present invention, there is an effect that the obtained infrared image is easily segmented and has a very high signal-to-noise ratio.

<アプリケーション制御方法>
請求項27に係る発明(アプリケーション制御方法)によれば、外観パターン上に少なくとも1つの特徴を備えるジェスチャ入力用のワンドを用いて、ワンドの検出と追跡を容易にすると共に、ワンドの姿勢から精密な位置決めを可能として、コンピュータとの対話、即ち、アプリケーションの制御を確実に行うことができる、という効果がある。
<Application control method>
According to the invention (application control method) according to claim 27, it is possible to easily detect and track the wand by using the gesture input wand having at least one feature on the appearance pattern, and to accurately detect the wand posture. Therefore, there is an effect that it is possible to perform accurate positioning and to perform interaction with the computer, that is, control of the application with certainty.

<カメラ校正方法>
請求項28に係る発明(カメラ校正方法)によれば、外観パターン上に少なくとも1つの特徴を備えるジェスチャ入力用のワンドを用いて、ワンドの検出と追跡を容易にすると共に、ワンドの姿勢から精密な位置決めを可能として、カメラの校正を高い精度で行うことができる、という効果がある。
<Camera calibration method>
According to the invention of claim 28 (camera calibration method), the gesture input wand having at least one feature on the appearance pattern is used to facilitate the detection and tracking of the wand and to accurately detect the wand posture. Effective positioning is possible, and the camera can be calibrated with high accuracy.

<制御プログラム>
請求項29に係る発明(制御プログラム)によれば、外観パターン上に少なくとも1つの特徴を備えるジェスチャ入力用のワンドを用いて、ワンドの検出と追跡を容易にすると共に、ワンドの姿勢から精密な位置決めを可能として、コンピュータとの対話、即ち、アプリケーションの制御を確実に行うことができる、という効果がある。
<Control program>
According to the invention (control program) of claim 29, it is possible to easily detect and track the wand using the gesture input wand having at least one feature on the appearance pattern, and to accurately detect the wand posture. Positioning is possible, and there is an effect that dialogue with a computer, that is, application control can be reliably performed.

以下の詳細な説明では、添付の図面を参照する。図面では、同一機能の要素を同様の番号で図示する。前述の添付図面には、本発明の原理と整合性を有する具体的な実施形態(embodiments and implementations)が図示されているが、これらは本発明を限定するものではなく一例として図示されている。これらの実施形態は、当分野の技術者が本発明を実施することを可能にするのに十分な詳細にわたって記述されており、本発明の範囲と精神を逸脱することない範囲で、別の実施形態も利用され得ること、ならびに様々な要素の構造的な変更及び/又は置換が行われ得ることを理解すべきである。従って、以下の詳細な説明は、狭い意味で解釈されるべきではない。加えて、以下で説明される本発明の様々な実施形態は、汎用コンピュータ上で実行されるソフトウェアの形で実施でき、専用ハードウェアの形でも実施でき、ソフトウェアとハードウェアの組み合わせとしても実施することができる。   In the following detailed description, reference is made to the accompanying drawings. In the drawings, elements having the same function are indicated by the same numbers. The foregoing accompanying drawings illustrate specific embodiments and implementations consistent with the principles of the present invention, but are not intended to limit the invention and are illustrated by way of example. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention, and other implementations may be made without departing from the scope and spirit of the invention. It should be understood that configurations may also be utilized and that structural changes and / or substitutions of various elements may be made. The following detailed description is, therefore, not to be construed in a narrow sense. In addition, the various embodiments of the present invention described below can be implemented in the form of software running on a general purpose computer, can be implemented in the form of dedicated hardware, or implemented as a combination of software and hardware. be able to.

本明細書で説明する本発明の技法は、本明細書で参照している前述のシャン・カオとラビン・バラクリシュナンの研究を、いくつかの実現可能な方法で改善するものである。特に、本発明の技法は、ワンドの検出と追跡を著しく容易にし、ワンドの両端を含む物体の視界の大部分が遮られているときでさえも対話を可能にする。そして、物体のねじれの決定を可能にし、それによって、ジェスチャインターフェースが使用するための別の自然な自由度をサポートする。   The inventive techniques described herein improve the aforementioned Shan Khao and Rabin Balakrishnan study referred to herein in several feasible ways. In particular, the technique of the present invention greatly facilitates wand detection and tracking and allows interaction even when the majority of the object's field of view, including both ends of the wand, is obstructed. It then allows the determination of the torsion of the object, thereby supporting another natural degree of freedom for use by the gesture interface.

前述のシャン・カオとラビン・バラクリシュナンの研究では、ワンドの主要な役割は、ジェスチャデバイス(ジェスチャ入力装置)としてのものであり、精密なポインティングデバイス(位置決め装置)ではなかった。というのは、彼等の研究事例では、精度を達成するのが難しかったからである。本発明のワンドは、はるかに高い精度を可能にする。これにより、例えば、三次元モデリングツールで位置を制御するのに適した、精密なポインティングデバイスとして使用され得る。   In the study of Shan Khao and Rabin Balakrishnan, the main role of the wand was as a gesture device (gesture input device), not a precise pointing device (positioning device). This is because, in their research case, it was difficult to achieve accuracy. The wand of the present invention allows for much higher accuracy. Thereby, for example, it can be used as a precise pointing device suitable for controlling the position with a three-dimensional modeling tool.

<カメラ較正と3D再構成への適用>
任意のコンピュータビジョンシステムにおける望ましい第1のステップは、カメラの較正である。カメラを較正する一般的なやり方は、カメラの前の周囲でチェッカーボードを振るものである。一度に複数のカメラを較正するには、各カメラが同様に位置決めされていない場合、しばしば、複数のカメラが同時に識別することのできるチェッカーボードの位置を見つけるのが難しいことがある。また、チェッカーボードは、システムの一部としてではなく、較正のためだけに使用される。しかし、カメラが移動され、追加され、又は置換されるときなど、カメラの較正を行う必要のあるときにいつでも手近にあるように、システムの一部として日常的に使用される物体を使用する方が、チェッカーボードより都合がよいはずである。
<Camera calibration and application to 3D reconstruction>
A desirable first step in any computer vision system is camera calibration. A common way to calibrate a camera is to swing a checkerboard around the front of the camera. To calibrate multiple cameras at once, it can often be difficult to find a checkerboard position that multiple cameras can simultaneously identify if each camera is not similarly positioned. Also, the checkerboard is used only for calibration, not as part of the system. However, those who use objects that are routinely used as part of the system so that they are at hand whenever the camera needs to be calibrated, such as when the camera is moved, added, or replaced However, it should be more convenient than a checkerboard.

Xing Chen(シン・チェン)、James Davis(ジェームズ・デイビス)、及びPhilipp Slusallek(フィリップ・スルサレク)等の、「Wide Area Camera Calibration Using Virtual Calibration Objects(仮想較正物体を使った広域カメラ較正)」、IEEE Comp. Soc. Conf. on Computer Vision and Pattern Recognition (CVPR)(IEEEコンピュータビジョン及びパターン認識に関するコンピュータ学会会議(CVPR))、2000年6月号に記載されているように、レーザポインタを使った較正は成功している。レーザポインタを用いた校正は、較正以外にも役立つ容易に利用可能な装置を使用するという課題に対処すると共に、複数のカメラから見えるという課題にも対処する。しかしながら、単一点を識別し、追跡するのはそう容易なことではない、という点で限界がある。   "Wide Area Camera Calibration Using Virtual Calibration Objects", such as Xing Chen, James Davis, and Philipp Slusallek, IEEE Comp. Soc. Conf. On Computer Vision and Pattern Recognition (CVPR), calibration using a laser pointer as described in the June 2000 issue of the Computer Society Conference on IEEE Computer Vision and Pattern Recognition (CVPR) Is successful. Calibration using a laser pointer addresses the problem of using a readily available device that is useful beyond calibration, as well as the problem of being visible from multiple cameras. However, there is a limitation in that it is not so easy to identify and track a single point.

本発明の技法の一実施形態によれば、ジェスチャインターフェースを可能にするのと同じ物体が、カメラ較正用の物体としても使用される。というのは、較正でもジェスチャ認識でも、物体がいかに識別可能であるかと、物体がいかに追跡し易いかには、多くの共通部分があるからである。特に、ワンドをジェスチャインターフェース装置として機能させると同時に、効果的な較正用の物体としても機能させる、ワンド上の特徴について説明する。   According to one embodiment of the technique of the present invention, the same object that enables the gesture interface is also used as an object for camera calibration. This is because there is a lot in common between how an object can be identified and how easy it is to track, both in calibration and gesture recognition. In particular, the features on the wand that allow the wand to function as a gesture interface device as well as an effective calibration object will be described.

カメラ画像から、三次元(3D)空間を再構成し、画像点と実世界点(world point)とを関連付けることができれば有用である。ワンドは、ワンドを撮影することができる任意のカメラで得られた対応画像点を、特定する「実世界点」を指し示すのに使用することができる。例えば、多くのカメラを含む監視システムを設置する問題を考えるとする。最新の監視システムは、環境の制約された三次元モデルを含み得る。このモデルの一部は、利用可能な平面図(floor plan)によって決定され得る。しかしながら、監視システムでは、家具の位置も、モデルに必要なテクスチャ画像も利用できない。   It would be useful if a three-dimensional (3D) space could be reconstructed from the camera image and the image points and the world points could be associated. The wand can be used to point to a “real world point” that identifies the corresponding image point obtained with any camera that can photograph the wand. For example, consider the problem of installing a surveillance system that includes many cameras. Modern monitoring systems can include a constrained three-dimensional model of the environment. Part of this model can be determined by the available floor plan. However, in the monitoring system, neither the position of furniture nor the texture image necessary for the model can be used.

カメラがセットアップされ、設置された後で、ユーザがワンドを使って家具、ディスプレイ、画像(picture)などの位置を指定する「アプリケーション」が構築され得る。例えば、描画プログラムが、平面上に平坦な長方形を描くモードを有するのと同様に、空間モデリングアプリケーションは、ワンドを使って、テーブルや机の上など、モデル化された空間において長方形が定義されるモードを有し得る。空間のモデルが形成されると、ワンドは、家具をどこに移動し得るか試すなどの、仮想変更を指定する方法も提供する。   After the camera is set up and installed, an “application” can be built in which the user uses the wand to specify the location of furniture, displays, pictures, etc. For example, just as a drawing program has a mode to draw a flat rectangle on a plane, a space modeling application uses a wand to define a rectangle in a modeled space, such as on a table or desk. You can have a mode. Once the space model is formed, the wand also provides a way to specify virtual changes, such as trying where furniture can be moved.

<ワンド設計の例>
本説明の残りの部分では、本発明のワンドを設計し、追跡する技法を論じる。図1には、本発明の一実施形態に係るワンドの一例が図示されている。図1には、ワンド100のいくつかの有用な特徴(aspects)が図示されている。具体的には、図示されたワンド100は、着色領域101〜103(青色領域101、緑色領域102、赤色領域103)を有している。これらの領域は、大まかに追跡するのが容易であり、追跡の初期設定に使用やすい。また、ワンド100は、らせん状のマーキング104を有する領域も含んでいる。このらせん状のマーキング104は、ワンド100の軸に関してのワンドのねじれを決定するのに役立つ。
<Example of wand design>
The remainder of this description discusses techniques for designing and tracking the wand of the present invention. FIG. 1 shows an example of a wand according to an embodiment of the present invention. In FIG. 1, some useful aspects of the wand 100 are illustrated. Specifically, the illustrated wand 100 has colored regions 101 to 103 (blue region 101, green region 102, red region 103). These regions are easy to track roughly and are easy to use for initial tracking. The wand 100 also includes a region having a spiral marking 104. This helical marking 104 helps to determine the wand twist about the axis of the wand 100.

また、ワンド100は、円筒形バーコード105を有する帯や、角(チェッカーボード)106を有する帯の形で、符号化された情報も含み得る。これらは、ワンドがカメラの近くにあるときに、ワンドの姿勢をより精密に決定するのに使用され得る。精度を高めるために、チェッカーボードパターン106は、チェッカーボード升目の中央にドット又はぼかしたブロブ(blurred blob;輪郭がぼんやりした着色部)を含んでいてもよい。   The wand 100 may also include information encoded in the form of a band having a cylindrical bar code 105 or a band having a corner (checkerboard) 106. These can be used to more accurately determine the wand's posture when the wand is near the camera. In order to increase accuracy, the checkerboard pattern 106 may include a dot or a blurred blob (colored portion with a blurred outline) in the center of the checkerboard grid.

本発明の一実施形態では、本発明のワンドは、設計パターンを印刷し、そのパターンを円筒の周りに巻くことによって容易に構成される。このように印刷可能な設計パターン201を図2に示す。この設計パターン201を使用して、本発明の特徴を備えたワンド100を容易に構成することができる。図2に示すワンド(設計パターン201)は、ハンドル領域202と、バーコード領域105と、ねじれコード領域104と、大まかな追跡のためのカラーブロブ101、102及び103と、精密特徴領域106と、を含んでいる。このパターン201が、印刷され、円筒上に巻かれて、図1に示すようなワンド100が製造される。   In one embodiment of the present invention, the wand of the present invention is easily constructed by printing a design pattern and winding the pattern around a cylinder. A printable design pattern 201 is shown in FIG. By using this design pattern 201, the wand 100 having the features of the present invention can be easily configured. The wand (design pattern 201) shown in FIG. 2 includes a handle area 202, a bar code area 105, a twist code area 104, color blobs 101, 102 and 103 for rough tracking, a precision feature area 106, Is included. This pattern 201 is printed and wound on a cylinder to produce a wand 100 as shown in FIG.

<技法の詳細>
図3に、本発明の一実施形態に係る例示的システムの処理手段に相当する処理部300の概要を示す。ワンドを追跡する第1のステップは、粗いレベルの追跡である。これは、ワンド上に見られる異なる着色領域に基づくものとすることができる(ステップ303参照)。一実施形態では、初期設定ステップ302で、撮影画像301の動作履歴305を使用し、色モデル306を使って着色領域をサーチする。これらの着色領域が検出されると、例えば、当業者によく知られているOpenCVツールキットの一部として提供されるCAM SHIFT(continuously adaptive mean shift: 連続適応的平均値シフト)追跡アルゴリズムの変形バージョンと、動的モデル308などを使って追跡される。追跡プログラム(tracker)が失敗した場合、又は複数のカメラからの追跡結果が整合しない場合には、初期設定ステップ302を使って、追跡プログラムの初期設定が再度行なわれる。
<Details of technique>
FIG. 3 shows an overview of a processing unit 300 corresponding to processing means of an exemplary system according to an embodiment of the present invention. The first step in tracking the wand is a coarse level of tracking. This can be based on the different colored areas found on the wand (see step 303). In one embodiment, in the initial setting step 302, the color history is searched using the color model 306 using the operation history 305 of the captured image 301. Once these colored regions are detected, for example, a modified version of the CAM SHIFT (continuously adaptive mean shift) tracking algorithm provided as part of the OpenCV toolkit well known to those skilled in the art. Are tracked using a dynamic model 308 or the like. If the tracking program (tracker) fails or the tracking results from multiple cameras do not match, the initialization of the tracking program is performed again using the initialization step 302.

ワンドの大まかな位置が取得された後、ステップ304で、ワンドの特徴を抽出するために、ワンドのエッジ307を使って、ワンドの長さに沿ったスキャンライン(scan line; 走査線)が検出される。この手順を、さらに、図3に示す。例えば、カルマンフィルタ等の動的モデル308が、平滑化を実行し、次のフレームの処理のためにワンドの位置を予測する。ステップ310で、ワンドの6軸での姿勢(6D pose)が推定される。続いて、ステップ309で、ジェスチャ処理が行われる。そして、ジェスチャ処理の結果を用いてユーザアプリケーション311が制御される。   After the rough position of the wand is obtained, in step 304, a scan line along the length of the wand is detected using the wand edge 307 to extract the wand features. Is done. This procedure is further illustrated in FIG. For example, a dynamic model 308 such as a Kalman filter performs smoothing and predicts the position of the wand for processing of the next frame. In step 310, the wand's 6-axis pose (6D pose) is estimated. Subsequently, in step 309, gesture processing is performed. Then, the user application 311 is controlled using the result of the gesture processing.

<姿勢の決定方法>
次に、ワンドに沿った3点から姿勢を決定する方法の一例を説明する。説明する方法は例示にすぎず、より多くの点を使用する、より確実な他の方法も使用され得ることを理解すべきである。簡潔に説明するために、本明細書ではこのより単純な方法を、典型的な姿勢と一般的な事例の仮定とに基づいて説明するが、この方法は特殊な事例を処理するように容易に拡張され得る。
<Method of determining posture>
Next, an example of a method for determining the posture from three points along the wand will be described. It should be understood that the method described is exemplary only and other more reliable methods that use more points may be used. For the sake of brevity, this simpler method is described here on the basis of typical poses and general case assumptions, but this method is easy to handle for special cases. Can be extended.

ワンド100の姿勢は、その「位置」と「向き」とによって特徴付けられる。位置は、x、y、z座標系におけるベクトルw=(wx,wy,wz)によって与えられる。これは、ワンドの「端点(endpoint)」の位置として取得される。ワンド100の向きは、図4に示すように、法線ベクトルn=(nx,ny,nz)によって与えられる。加えて、ワンドの「ねじれ」も、nによって決定される軸の周りの回転を指定する角度θによって与えられる。ワンドのラインスキャンモデル(line-scan model)では、その他の点の位置が、図5に示すように、それら各点の法線501に沿った端点からの距離によって与えられる。 The attitude of the wand 100 is characterized by its “position” and “orientation”. The position is given by the vector w = (w x , w y , w z ) in the x, y, z coordinate system. This is obtained as the position of the “endpoint” of the wand. The orientation of the wand 100 is given by the normal vector n = ( nx , ny , nz ) as shown in FIG. In addition, the “twist” of the wand is also given by an angle θ that specifies a rotation about an axis determined by n. In the wand line-scan model, the position of the other points is given by the distance from the end points along the normal 501 of each point, as shown in FIG.

図4に、ワンド100の実施形態の一例と、その画像面401上への投影402とを示す。具体的には、ワンド100は、ピンホール透視変換によって、画像面401上に投影される。5自由度のワンド姿勢は、「位置」w=(wx,wy,wz)と、「法線ベクトルn=(nx,ny,nz)によって記述される「向き」と、によって指定される。また、別の自由度が、(不図示の)nの周りのワンドの回転(ねじれ)によって与えられる。任意のワンドの「向き」nは、位置に拘らず、原点からの方向nを有する光線が画像面と交わる点に消失点を有する。 FIG. 4 shows an example embodiment of the wand 100 and its projection 402 onto the image plane 401. Specifically, the wand 100 is projected on the image plane 401 by pinhole perspective transformation. A wand posture with 5 degrees of freedom is expressed by “position” w = (w x , w y , w z ) and “direction” described by “normal vector n = ( nx , ny , nz )”, Specified by. Another degree of freedom is also provided by rotation (twisting) of the wand around n (not shown). The “orientation” n of any wand has a vanishing point at the point where a ray with direction n from the origin intersects the image plane, regardless of position.

ワンド100の姿勢は、ワンドに沿ったキーポイントとなる画像座標(image coordinate)から求められる。分析のために、実世界点座標(world point coordinate)が、カメラの自然基準座標系(a natural reference frame of the camera)において考察されるが、当然ながら、カメラ姿勢が分かっていれば、これらは任意の座標系に変換され得る。原点に投影の中心を有するピンホールカメラモデルを仮定すると、実世界点wx,wy,wzの画像点(x,y)は次式によって与えられる。 The attitude of the wand 100 is determined from image coordinates that are key points along the wand. For analysis, the world point coordinates are considered in a natural reference frame of the camera, but of course, if the camera pose is known, these are It can be converted to an arbitrary coordinate system. Assuming a pinhole camera model with the center of projection at the origin, the image points (x, y) of the real world points w x , w y , w z are given by

Figure 2009134677
Figure 2009134677

式中、fはカメラの焦点距離、即ち、画像面401と投影点の間の距離であり、xc,ycは、画像の主点(principle point)を指定する。 In the expression, f is a focal length of the camera, that is, a distance between the image plane 401 and the projection point, and x c and y c designate a principal point of the image.

図5に、ワンド100の復号化の技法の一例を示す。画像は、ラインスキャン(線走査)に基づいて復号化される。ワンドは、エッジ解析を使って、画像中で検出される。又は、異なる色の単純な色追跡によって検出される。次いで、ワンドの長さに沿ってスキャンライン501が取得され、このスキャンライン501と色領域の開始点との交点の画像座標が、(x0,x0)、(x1,y1)、(x2,y2)とされる。また、スキャンライン501とねじれコード領域との交点の画像座標が、(xa,ya)とされる。この情報は、ワンドの姿勢を決定するのに十分である。 FIG. 5 shows an example of a wand 100 decoding technique. The image is decoded based on a line scan (line scan). Wands are detected in the image using edge analysis. Or it is detected by simple color tracking of different colors. Next, a scan line 501 is acquired along the length of the wand, and the image coordinates of the intersection between the scan line 501 and the start point of the color area are (x 0 , x 0 ), (x 1 , y 1 ), (X 2 , y 2 ). Also, the image coordinates of the intersection between the scan line 501 and the torsion code area are (x a , y a ). This information is sufficient to determine the wand attitude.

fとxc,ycのどんな値の結果も、単に、画像座標の変換とスケーリングにすぎないため、この考察では、f=1であり、x0=0、y0=0であるものと仮定する。ワンド端点から距離がrである点の投影像の画像座標は、以下のように求められる。 The result of any value of f and x c , y c is simply a transformation and scaling of the image coordinates, so in this discussion f = 1, x 0 = 0, y 0 = 0 Assume. The image coordinates of the projected image of the point whose distance is r from the wand end point is obtained as follows.

Figure 2009134677
Figure 2009134677

下記の点に留意されたい。即ち、r=0では、これは単にワンドの端点の画像である。また、rが無限大となる限界では、これは、方向nx,ny,nzの任意の光線に対応する消失点(a=nx/nz,b=ny/nz)に接近する。 Please note the following points. That is, at r = 0, this is simply an image of the end point of the wand. Also, at the limit where r is infinite, this is at the vanishing point (a = nx / nz , b = ny / nz ) corresponding to any ray in the direction nx , ny , nz. approach.

第1の点がワンドの端部にあり、第2の点が端部から距離r1にあり、第3の点が端部から距離r2にある、ワンドのラインに沿った3点を考える。画像内でワンドが検出されると、これらの点がワンドに沿ったラインスキャンによって求められ、異なる色領域の開始点が検索される。これらの3点の座標を、(x0,y0)、(x1,y1)、(x2,y2)で表す。上記の式を使って、wx,wy,wzとnx,ny,nzという6つの未知数の6つの式、即ち、下記3式と、y1,y2,y3での3つの類似の式が決定され得る。 Consider three points along the wand line where the first point is at the end of the wand, the second point is at a distance r 1 from the end, and the third point is at a distance r 2 from the end. . When a wand is detected in the image, these points are determined by line scanning along the wand and the starting points of the different color regions are searched. The coordinates of these three points are represented by (x 0 , y 0 ), (x 1 , y 1 ), and (x 2 , y 2 ). Using the above equation, w x, w y, w z and n x, n y, six equations six unknowns that n z, i.e., the following three formulas, in y 1, y 2, y 3 Three similar equations can be determined.

Figure 2009134677
Figure 2009134677

しかしながら、nは法線ベクトルであるため、5自由度があることに留意すべきである。これらの式を解けば、ワンドの姿勢が、「ねじれ」、即ち、ワンドの長軸の周りの回転aに到るまで、決定され得る。   However, it should be noted that since n is a normal vector, there are 5 degrees of freedom. Solving these equations, the wand's attitude can be determined until it reaches “twist”, ie, a rotation a around the long axis of the wand.

<ねじれを決定するためのらせん>
加えて、ラインスキャンが、ねじれ符号化らせん(twist encoding spiral)と交わる点の画像座標xa,yaも求められる。この画像座標とワンドの姿勢とから、ワンドの端部からこの点までの距離raが次式によって求められる。
<Helix to determine twist>
In addition, the image coordinates x a , y a of the point where the line scan intersects the twist encoding spiral is also determined. From this image coordinates and wand orientation, distance r a to the point from the wand end is determined by the following equation.

Figure 2009134677
Figure 2009134677

この場合、ねじれ符号化帯(twist encoding band)のワンド上での長さを「LT」とし、その長さに沿ったねじれが1回転するものとし、その帯の開始位置を「rT」とすると、ねじれの角度θは以下の通りである。 In this case, the length of the twist encoding band on the wand is “L T ”, the twist along the length is one rotation, and the start position of the band is “r T ”. Then, the twist angle θ is as follows.

Figure 2009134677
Figure 2009134677

<本発明のワンドの姿勢を計算する方法の要約>
本発明のワンドの姿勢を決定する方法は、画像点(x0,y0)、(x1,y1)、(x2,y2)を入力し、以下の計算式を用いて、ワンド位置点wx,wy,wzと、ワンド向きベクトルnx,ny,nzと、を算出する。
<Summary of the method for calculating the posture of the wand of the present invention>
The method of determining the posture of the wand of the present invention is as follows. The image points (x 0 , y 0 ), (x 1 , y 1 ), (x 2 , y 2 ) are input and the following formula is used to position point w x, w y, calculates a w z, wand orientation vector n x, n y, and n z, a.

Figure 2009134677
Figure 2009134677

<姿勢決定を可能にする他の設計>
以下で、ワンドの姿勢決定に役立つ、上記の実施の形態とは別のいくつかの設計上の特徴を説明する。
<Other designs that enable posture determination>
In the following, a number of design features different from the above-described embodiment that are useful for determining the wand attitude will be described.

(姿勢の曖昧性の除去)
いくつかの姿勢は、厳密な事例では区別可能であるが、比較的わずかな雑音の存在下で区別できないこともある。例えば、カメラにほぼ平行であるが+5度傾いている姿勢と、カメラにほぼ平行であるが−5度傾いている姿勢という2つの姿勢は、実際には区別が難しいこともある。本発明の一実施形態では、ワンドは、スキャンラインと直交する平坦な端部を有するように設計される。両端部は、異なる色に着色され得る。カメラを指し示す端部だけが検出されるので、どちらの色が検出されるかによって2つの姿勢が区別され得ることになる。
(Removal of ambiguity in posture)
Some poses are distinguishable in the strict case, but may not be distinguishable in the presence of relatively little noise. For example, it is actually difficult to distinguish between two postures, that is, a posture that is substantially parallel to the camera but inclined +5 degrees, and a posture that is substantially parallel to the camera but inclined -5 degrees. In one embodiment of the invention, the wand is designed to have a flat end that is orthogonal to the scan line. Both ends can be colored differently. Since only the end pointing to the camera is detected, the two postures can be distinguished depending on which color is detected.

(ワンドの大部分が見え難いときでさえも姿勢を決定すること)
本発明の一実施形態では、ワンドの端部からの距離を一意に決定する帯状のパターンを、ワンドの周りを複数回巻いているらせんパターンと共に使って、ワンドのわずかな部分だけしか見えない場合でさえも、姿勢が決定され得る。
(Determine posture even when most of the wand is difficult to see)
In one embodiment of the present invention, a band-like pattern that uniquely determines the distance from the end of the wand is used with a spiral pattern that is wrapped around the wand multiple times so that only a small portion of the wand is visible. Even the posture can be determined.

図6に、ワンドの分散された特徴パターン600の実施形態の一例を示す。情報は、多くの可能な方法で、ワンド上に重複して符号化され得る。この例に示すワンドは、複数のねじれ符号化帯601を有する。これら複数のねじれ符号化帯の間には、青帯602が配置されている。各青帯602の相対的配置が、ワンドに沿った青帯602の相対的位置を示す。   FIG. 6 shows an example of an embodiment of a wand distributed feature pattern 600. Information can be redundantly encoded on the wand in many possible ways. The wand shown in this example has a plurality of torsion coding bands 601. A blue band 602 is disposed between the plurality of twist coding bands. The relative placement of each blue band 602 indicates the relative position of the blue band 602 along the wand.

(複数特徴点の復号化)
本発明の技法の一実施形態は、1次元のラインスキャンに沿って決定され得る特徴を処理することを含んでいる。しかしながら、ワンドがカメラに十分に近いときには、ワンドの幅が大きくなり、単線上にない点を姿勢推定に使用することができる。当業者に知られているOpenCVパッケージは、実世界点と対応する画像点の集合から姿勢を決定するアルゴリズムの実施形態を提供する。本発明の一実施形態では、このアルゴリズムを用いて、単一のカメラを使用してワンドの姿勢が決定される。
(Decoding multiple feature points)
One embodiment of the technique of the present invention includes processing features that can be determined along a one-dimensional line scan. However, when the wand is sufficiently close to the camera, the width of the wand increases and points that are not on a single line can be used for posture estimation. The OpenCV package, known to those skilled in the art, provides an embodiment of an algorithm that determines the pose from a set of image points corresponding to real world points. In one embodiment of the invention, this algorithm is used to determine the wand pose using a single camera.

(複数のカメラに基づく復号化)
複数のカメラを使用するといくつかの利点が生じる。1つの利点としては、典型的には、1台のカメラではワンドがほとんどそのカメラに向けられているために、ワンドの姿勢がうまく復号化できないとき、ワンドの姿勢が別のカメラによって適切に決定され得る。また、ワンドの位置は、一般に三角法を使用すれば、2台のカメラを用いてはるかに正確に求めることができる。また、カメラの1台が、例えば、鏡面反射やワンドが見え難い等の理由でワンドの位置を見失った場合であっても、他のカメラによって決定された姿勢は、そのカメラ内の追跡プログラムがワンドの追跡を回復するのに役立つ。
(Decoding based on multiple cameras)
Using multiple cameras has several advantages. One advantage is that when a wand's pose cannot be successfully decoded, typically because one camera is mostly aimed at that wand, the wand's pose is properly determined by another camera. Can be done. Also, the position of the wand can be determined much more accurately using two cameras, generally using trigonometry. Even if one of the cameras loses wand position due to, for example, difficulty in seeing specular reflections or wands, the tracking program in the camera determines the posture determined by the other camera. Help restore wand tracking.

(円筒型バーコードを使ったワンド情報の符号化)
ワンドの姿勢が決定されると、ワンド識別子などの符号化された情報を含む領域が復号化され得る。画像ラインスキャンは、ワンドに沿ったラインスキャンに戻される。即ち、透視の影響が排除され、バーコードが復号化される。これは種々の方法で行われ得る。しかしながら、簡単な方法は、1つの符号化帯につき1ビットの情報を符号化する白又は黒のn個の帯位置を備えるものである。
(Encoding Wand Information Using Cylindrical Bar Code)
Once the wand attitude is determined, an area containing encoded information such as a wand identifier may be decoded. The image line scan is returned to a line scan along the wand. That is, the influence of fluoroscopy is eliminated and the barcode is decoded. This can be done in various ways. However, a simple method comprises n band positions of white or black that encode 1 bit of information per coding band.

(赤外線照射及び再帰反射マーク)
本発明のシステムの別の実施形態では、図7に示すように、赤外線(IR)発光ダイオードで取り囲まれた、赤外線カメラを使用する。この実施形態では、ワンドは、赤外光を光源の方向に強力に逆反射する赤外線反射紙又は再帰反射材料で構成される。これらの赤外線カメラが、適切な赤外線フィルタを備えるとき、結果として生じる画像は、非常に区分化しやすい。
(Infrared irradiation and retroreflective mark)
Another embodiment of the system of the present invention uses an infrared camera surrounded by infrared (IR) light emitting diodes as shown in FIG. In this embodiment, the wand is composed of infrared reflecting paper or retroreflective material that strongly reflects back infrared light in the direction of the light source. When these infrared cameras are equipped with suitable infrared filters, the resulting image is very easy to segment.

図7に、赤外線追跡用の赤外線カメラの実施形態の一例を示す。この図には、変形された“AXIS206(登録商標)”等のネットワークカメラ701が図示されている。ネットワークカメラ701は、光源として赤外線発光ダイオード702を備えている。レンズの下には赤外線フィルタ(不図示)が備えられており、その結果、赤外線反射材料で構成されているワンドの画像は、非常に高い信号対雑音比(S/N)を有するものになる。   FIG. 7 shows an example of an embodiment of an infrared camera for infrared tracking. This figure shows a modified network camera 701 such as “AXIS206 (registered trademark)”. The network camera 701 includes an infrared light emitting diode 702 as a light source. An infrared filter (not shown) is provided under the lens, so that the image of the wand composed of the infrared reflective material has a very high signal-to-noise ratio (S / N). .

<ハードウェアプラットフォームの例>
図8は、本発明の方法論に係る実施形態が実施され得るコンピュータ/サーバシステム800の一実施形態を示すブロック図である。システム800は、コンピュータ/サーバプラットフォーム801と、周辺装置802と、ネットワークリソース803を含む。
<Example of hardware platform>
FIG. 8 is a block diagram that illustrates an embodiment of a computer / server system 800 upon which an embodiment of the inventive methodology may be implemented. The system 800 includes a computer / server platform 801, peripheral devices 802, and network resources 803.

コンピュータプラットフォーム801は、データバス804又はコンピュータプラットフォーム801の様々な部分にまたがってこれらの間で情報を伝達する別の通信機構と、バス804と接続されたプロセッサ805と、を含み得る。プロセッサ805は、情報を処理し、他の計算処理及び制御タスクを実行する。また、コンピュータプラットフォーム801は、バス804に接続された、ランダムアクセスメモリ(RAM)その他の動的記憶装置などの揮発性記憶806も含む。揮発性記憶806は、プロセッサ805によって実行される命令のみならず様々な情報も格納する。また、揮発性記憶806は、プロセッサ805による命令実行時に、一時変数その他の中間情報を格納するのにも使用され得る。   The computer platform 801 may include a data bus 804 or another communication mechanism that communicates information between various portions of the computer platform 801 and a processor 805 connected to the bus 804. The processor 805 processes information and performs other computational processes and control tasks. Computer platform 801 also includes volatile storage 806, such as random access memory (RAM) or other dynamic storage devices, connected to bus 804. Volatile storage 806 stores various information as well as instructions executed by processor 805. Volatile storage 806 can also be used to store temporary variables and other intermediate information during instruction execution by processor 805.

コンピュータプラットフォーム801は、さらに、バス804に接続された読取り専用メモリ(ROM又はEPROM)807その他の静的記憶装置を含み得る。読取り専用メモリ807等は、様々なシステム構成パラメータのみならず、基本入出力システム(BIOS)など、プロセッサ805のために静的情報及び命令も格納する。情報及び命令を格納するために、磁気ディスク、光ディスク、ソリッドステートフラッシュメモリデバイスなどの永続的記憶装置808が設けられ、バス804に接続されている。   The computer platform 801 may further include a read only memory (ROM or EPROM) 807 or other static storage device connected to the bus 804. The read only memory 807 and the like store static information and instructions for the processor 805 such as a basic input / output system (BIOS) as well as various system configuration parameters. A permanent storage device 808, such as a magnetic disk, optical disk, solid state flash memory device, etc., is provided and connected to the bus 804 for storing information and instructions.

コンピュータプラットフォーム801は、バス804を介して、ブラウン管(CRT)、プラズマディスプレイ、液晶ディスプレイ(LCD)などのディスプレイ809に接続されていてもよい。ディスプレイ809は、システム管理者又はコンピュータプラットフォーム801のユーザに情報を表示する。また、プロセッサ805に情報及びコマンド選択を伝達するために、バス804を介して、英数字などのキーを含む入力装置810が接続されている。別種のユーザ入力装置が、プロセッサ805に方向情報及びコマンド選択を伝達し、ディスプレイ809上のカーソルの動きを制御する、マウス、トラックボール、カーソル方向キーなどのカーソル制御装置811である。この入力装置は、通常、装置が平面内の位置を指定することを可能にする、第1の軸(xなど)と第2の軸(yなど)の2軸における2自由度を有する。   The computer platform 801 may be connected to a display 809 such as a cathode ray tube (CRT), a plasma display, or a liquid crystal display (LCD) via a bus 804. A display 809 displays information to a system administrator or a user of the computer platform 801. An input device 810 including keys such as alphanumeric characters is connected to the processor 805 via the bus 804 to transmit information and command selection. Another type of user input device is a cursor control device 811 such as a mouse, trackball, cursor direction key, etc. that communicates direction information and command selections to the processor 805 and controls cursor movement on the display 809. This input device typically has two degrees of freedom in two axes, a first axis (such as x) and a second axis (such as y), which allows the device to specify a position in the plane.

コンピュータプラットフォーム801に、追加の又は取り外し可能な記憶容量を提供する外部記憶装置812が、バス804を介して、コンピュータプラットフォーム801に接続されてもよい。コンピュータシステム800の一実施形態では、外部取り外し可能な記憶装置812を使って、他のコンピュータシステムとのデータ交換が円滑化され得る。また、ワンドの画像を撮像するために、バス804を介して、少なくとも1台のカメラ830が接続されている。   An external storage device 812 that provides additional or removable storage capacity to the computer platform 801 may be connected to the computer platform 801 via the bus 804. In one embodiment of the computer system 800, an external removable storage device 812 may be used to facilitate data exchange with other computer systems. In addition, at least one camera 830 is connected via a bus 804 to capture a wand image.

本発明は、本明細書で説明する技法を実施するためのコンピュータシステム800の使用に関連するものである。一実施形態では、本発明のシステムは、コンピュータプラットフォーム801などのマシン上にあってもよい。本発明の一実施形態によれば、本明細書で説明する技法は、プロセッサ805が、揮発性メモリ806に含まれる1つ又は複数の命令の1つ又は複数のシーケンスを実行したことに応答して、コンピュータシステム800によって実行される。   The invention is related to the use of computer system 800 for implementing the techniques described herein. In one embodiment, the system of the present invention may be on a machine such as computer platform 801. According to one embodiment of the invention, the techniques described herein are responsive to processor 805 executing one or more sequences of one or more instructions included in volatile memory 806. And executed by the computer system 800.

かかる命令は、永続的記憶装置808など、別のコンピュータ可読媒体から揮発性メモリ806に読み込まれてもよい。揮発性メモリ806に含まれる命令シーケンスの実行が、プロセッサ805に、本明細書で説明するプロセスステップを実行させる。代替の実施形態では、配線接続回路を、ソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて使って、本発明が実施されてもよい。よって、本発明の実施形態は、ハードウェア回路とソフトウェアのどんな特定の組み合わせにも限定されるものではない。   Such instructions may be read into volatile memory 806 from another computer readable medium, such as persistent storage 808. Execution of the instruction sequence contained in volatile memory 806 causes processor 805 to perform the process steps described herein. In alternative embodiments, the present invention may be implemented using wired connection circuitry instead of or in combination with software instructions. Thus, embodiments of the invention are not limited to any specific combination of hardware circuitry and software.

本明細書で使用する「コンピュータ可読媒体(コンピュータ読み取り可能な記録媒体)」という用語は、プロセッサ805に実行のための命令を提供することに関与する任意の媒体を指す。コンピュータ可読媒体は、本明細書で説明する方法及び/又は技法のいずれかを実施する命令を搬送し得る、機械可読媒体の一例にすぎない。かかる媒体は、それだけに限らないが、不揮発性媒体、揮発性媒体を含めて、多くの形を取り得る。不揮発性媒体には、例えば、記憶装置808などの、光ディスクや磁気ディスクが含まれる。揮発性媒体には、揮発性記憶806などの動的メモリが含まれる。   The term “computer-readable medium” as used herein refers to any medium that participates in providing instructions to the processor 805 for execution. A computer-readable medium is only one example of a machine-readable medium that may carry instructions for performing any of the methods and / or techniques described herein. Such a medium may take many forms, including but not limited to, non-volatile media and volatile media. Non-volatile media includes, for example, optical disks and magnetic disks, such as storage device 808. Volatile media includes dynamic memory, such as volatile storage 806.

コンピュータ可読媒体の一般的な形には、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、又は他の任意の磁気媒体、CD−ROM、他の任意の光媒体、パンチカード、紙テープ、他の任意の孔パターンを有する物理媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、他の任意のメモリチップ又はカートリッジ、又はコンピュータが読み取ることのできる他の任意の媒体が含まれる。   Common forms of computer readable media include, for example, floppy disk, flexible disk, hard disk, magnetic tape, or any other magnetic medium, CD-ROM, any other optical medium, punch card, Paper tape, physical media with any other hole pattern, RAM, PROM, EPROM, flash EPROM, flash drive, memory card, any other memory chip or cartridge, or any other media that can be read by a computer included.

様々な形のコンピュータ可読媒体が、プロセッサ805に実行のための1つ又は複数の命令の1つ又は複数のシーケンスを搬送するのに関与し得る。例えば、命令は、最初に、リモートコンピュータから磁気ディスクに載せて搬送されてもよい。代替として、リモートコンピュータは、命令をその動的メモリにロードし、モデムを使い、電話回線を介してその命令を送ることもできる。コンピュータシステム800にとってローカルのモデムは、電話回線でデータを受け取り、赤外線送信機を使って、そのデータを赤外線信号に変換することができる。   Various forms of computer readable media may be involved in carrying one or more sequences of one or more instructions for execution to processor 805. For example, the instructions may first be carried on a magnetic disk from a remote computer. Alternatively, the remote computer can load the instructions into its dynamic memory and send the instructions over a telephone line using a modem. A modem local to computer system 800 can receive the data on the telephone line and use an infra-red transmitter to convert the data to an infra-red signal.

赤外線検出器は、赤外線信号として搬送されるデータを受け取ることができ、適切な回路が、そのデータをデータバス804に載せることができる。バス804は、データを揮発性記憶806に運び、そこからプロセッサ805は、命令を取り出し、実行する。揮発性メモリ806によって受け取られる命令は、任意選択で、プロセッサ805による実行の前又は後に、永続的記憶装置808に格納されてもよい。また、命令は、当分野で知られている様々なデータ通信プロトコルを使い、インターネットを介してコンピュータプラットフォーム801にダウンロードされてもよい。   The infrared detector can receive data carried as an infrared signal and suitable circuitry can place the data on the data bus 804. Bus 804 carries the data to volatile storage 806, from which processor 805 retrieves and executes the instructions. The instructions received by volatile memory 806 may optionally be stored on persistent storage 808 either before or after execution by processor 805. The instructions may also be downloaded to the computer platform 801 via the Internet using various data communication protocols known in the art.

また、コンピュータプラットフォーム801は、データバス804に接続されたネットワークインターフェースカード813など、通信インターフェースも含む。通信インターフェース813は、ローカルネットワーク815に接続されているネットワークリンク814に接続する双方向データ通信を提供する。例えば、通信インターフェース813は、対応する種類の電話回線へのデータ通信接続を提供する総合サービスデジタルネットワーク(ISDN)カード又はモデムとすることができる。別の例として、通信インターフェース813は、互換性を有するローカルエリアネットワーク(LAN)へのデータ通信接続を提供するLANインターフェースカード(LAN NIC)とすることもできる。また、よく知られている802.11a、802.11b、802.11g、ブルートゥースといった無線リンクもネットワーク実装に使用され得る。かかる任意の実装形態において、通信インターフェース813は、様々な種類の情報を表すデジタルデータストリームを搬送する電気信号、電磁信号又は光信号を送受信する。   The computer platform 801 also includes a communication interface such as a network interface card 813 connected to the data bus 804. The communication interface 813 provides two-way data communication that connects to a network link 814 that is connected to a local network 815. For example, the communication interface 813 can be an integrated services digital network (ISDN) card or modem that provides a data communication connection to a corresponding type of telephone line. As another example, the communication interface 813 may be a LAN interface card (LAN NIC) that provides a data communication connection to a compatible local area network (LAN). Also well-known wireless links such as 802.11a, 802.11b, 802.11g, Bluetooth can be used for network implementation. In any such implementation, communication interface 813 sends and receives electrical, electromagnetic or optical signals that carry digital data streams representing various types of information.

ネットワークリンク814は、通常、1つ又は複数のネットワークを介して他のネットワークリソースへのデータ通信を提供する。例えば、ネットワークリンク814は、ローカルネットワーク815を介して、ホストコンピュータ816又はネットワーク記憶/サーバ822への接続を提供し得る。加えて、又は代替として、ネットワークリンク814は、ゲートウェイ/ファイアウォール817を介して、インターネットなどの広域又はグローバルネットワーク818にも接続し得る。よって、コンピュータプラットフォーム801は、リモートネットワーク記憶/サーバ819など、インターネット818上の任意の場所に位置するネットワークリソースにアクセスすることができる。他方、コンピュータプラットフォーム801も、ローカルエリアネットワーク815及び/又はインターネット818上の任意の場所に位置するクライアントによってアクセスされ得る。ネットワーククライアント820及び821は、それ自体が、プラットフォーム801に類似のコンピュータプラットフォームに基づいて実施されてもよい。   Network link 814 typically provides data communication through one or more networks to other network resources. For example, network link 814 may provide a connection to host computer 816 or network storage / server 822 via local network 815. Additionally or alternatively, the network link 814 may connect to a wide area or global network 818, such as the Internet, via a gateway / firewall 817. Thus, the computer platform 801 can access network resources located anywhere on the Internet 818, such as a remote network storage / server 819. On the other hand, the computer platform 801 may also be accessed by clients located anywhere on the local area network 815 and / or the Internet 818. Network clients 820 and 821 may themselves be implemented based on a computer platform similar to platform 801.

ローカルネットワーク815もインターネット818も、デジタルデータストリームを搬送する電気信号、電磁信号又は光信号を使用する。様々なネットワークを通る信号と、コンピュータプラットフォーム801との間でデジタルデータを搬送する、ネットワークリンク814上と通信インターフェース813を通る信号とは、情報を搬送する搬送波の例示的な形である。   Both the local network 815 and the Internet 818 use electrical, electromagnetic or optical signals that carry digital data streams. Signals through various networks and signals over network link 814 and communication interface 813 that carry digital data to and from computer platform 801 are exemplary forms of carriers that carry information.

コンピュータプラットフォーム801は、インターネット818とローカルエリアネットワーク815を含む様々なネットワーク、ネットワークリンク814と通信インターフェース813を介して、メッセージを送信し、プログラムコードを含むデータを受信することができる。インターネットの例では、システム801は、ネットワークサーバとして働くとき、インターネット818、ゲートウェイ/ファイアウォール817、ローカルエリアネットワーク815及び通信インターフェース813を介して、(1つ又は複数の)クライアント820及び/又は821上で実行されるアプリケーションプログラムのために要求されるコード又はデータを送信することもできる。   The computer platform 801 can send messages and receive data including program codes via various networks, including the Internet 818 and the local area network 815, the network link 814 and the communication interface 813. In the Internet example, the system 801, when acting as a network server, on the client (s) 820 and / or 821 via the Internet 818, gateway / firewall 817, local area network 815 and communication interface 813. It is also possible to send code or data required for the application program to be executed.

受信コードは、受け取られるとプロセッサ805によって実行され、及び/又は、後で実行するために、永続的又は揮発性記憶装置808及び806、あるいは他の不揮発性記憶にそれぞれ記憶され得る。このようにして、コンピュータシステム801は、アプリケーションコードを、搬送波の形で獲得してもよい。   The received code may be executed by processor 805 when received and / or stored in persistent or volatile storage devices 808 and 806, or other non-volatile storage, for later execution, respectively. In this manner, computer system 801 may obtain application code in the form of a carrier wave.

最後に、本明細書で説明しているプロセス及び技法は、本来、いかなる特定の装置にも関連するものではなく、任意の適切な構成要素の組み合わせによって実施され得ることを理解すべきである。さらに、本明細書で説明する技法に従って、様々な種類の汎用装置が使用され得る。また、本明細書で説明する方法ステップを実行する専用の装置を構築することが有利であることも分かる。本発明を、特定の例との関連で説明しているが、これらは、あらゆる点において、限定のためではなく例示のためのものである。ハードウェア、ソフトウェア及びファームウェア多くの異なる組み合わせが本発明を実施するのに適することを、当分野の技術者は理解するであろう。例えば、前述のソフトウェアは、アセンブラ、C/C++、Perl、Shell、PHP、Java(登録商標)など、多種多様なプログラム言語又はスクリプト言語で実施され得る。   Finally, it should be understood that the processes and techniques described herein are not inherently related to any particular apparatus and may be implemented by any suitable combination of components. Further, various types of general purpose devices can be used in accordance with the techniques described herein. It can also be seen that it would be advantageous to construct a dedicated device for performing the method steps described herein. Although the invention has been described in connection with specific examples, they are in all respects illustrative and not restrictive. Those skilled in the art will appreciate that many different combinations of hardware, software, and firmware are suitable for practicing the present invention. For example, the software described above can be implemented in a wide variety of programming or scripting languages such as assembler, C / C ++, Perl, Shell, PHP, Java (registered trademark), and the like.

さらに、本明細書を考察し、本明細書で開示する本発明を実施すれば、当業者には、本発明の他の実施形態も明らかになるであろう。前述の実施形態の様々な態様及び/又は構成要素が、データ複製機能を有するコンピュータによる記憶システムにおいて、単独で、又は任意の組み合わせとして使用され得る。仕様及び例は、例示にすぎないものとみなされ、本発明の真の適用範囲及び精神は、添付の特許請求の範囲によって示されるものである。   Furthermore, other embodiments of the invention will be apparent to those skilled in the art from consideration of the specification and practice of the invention disclosed herein. Various aspects and / or components of the foregoing embodiments may be used alone or in any combination in a computer storage system having data replication capabilities. The specification and examples are to be regarded as illustrative only, with the true scope and spirit of the invention being indicated by the appended claims.

ワンドの実施形態の一例を示す図である。It is a figure which shows an example of embodiment of a wand. ワンドパターンの実施形態の一例を示す図である。It is a figure which shows an example of embodiment of a wand pattern. 本発明のシステムの一実施形態に係るシステムの一例の概要を示す図である。It is a figure which shows the outline | summary of an example of the system which concerns on one Embodiment of the system of this invention. ワンドの実施形態の一例とその画像面上への投影を示す図である。It is a figure which shows an example of embodiment of a wand and its projection on the image surface. ワンドの復号化の技法を例示する図である。FIG. 6 illustrates a wand decoding technique. 分散された特徴パターンを備えた実施形態の一例を示す図である。It is a figure which shows an example of embodiment provided with the distributed feature pattern. 赤外線(IR)追跡用に改造されたカメラの実施形態の一例を示す図である。FIG. 6 illustrates an example of an embodiment of a camera modified for infrared (IR) tracking. 本発明のシステムが実施され得るコンピュータプラットフォームの実施形態の一例を示す図である。FIG. 2 is a diagram illustrating an example of an embodiment of a computer platform on which the system of the present invention can be implemented.

符号の説明Explanation of symbols

100 ワンド
101、102、103 カラーブロブ(着色領域)
104 らせん状のマーキング(ねじれコード領域)
105 円筒形バーコード(バーコード領域)
106 チェッカーボードパターン(精密特徴領域)
201 設計パターン
202 ハンドル領域
300 処理部
301 撮影画像(ビデオ画像)
305 動作履歴
306 色モデル
307 エッジ
308 動的モデル(カルマントラッカなど)
311 ユーザアプリケーション
401 画像面
402 投影
501 スキャンライン
600 特徴パターン
601 符号化帯
602 青帯
701 ネットワークカメラ
702 赤外線発光ダイオード
800 コンピュータシステム
801 コンピュータプラットフォーム
802 周辺装置
803 ネットワークリソース
804 データバス
805 プロセッサ
806 揮発性記憶装置
807 EPROM/ファームウェア記憶装置
808 永続的記憶装置
809 ディスプレイ
810 キーボード(入力装置)
811 カーソル制御装置(マウス/位置決め装置)
812 外部記憶装置
813 ネットワークインターフェースカード
814 ネットワークリンク
815 イントラネット(LAN)
816 ホスト
817 ゲートウェイ/ファイアウォール
818 インターネット
819、822 ネットワークサーバ/ネットワーク記憶
820、821 クライアント
830 カメラ
100 Wand 101, 102, 103 Color blob (colored area)
104 Spiral marking (twist cord area)
105 Cylindrical barcode (barcode area)
106 Checkerboard pattern (precision feature area)
201 Design Pattern 202 Handle Area 300 Processing Unit 301 Captured Image (Video Image)
305 Operation history 306 Color model 307 Edge 308 Dynamic model (Kalman tracker, etc.)
311 User application 401 Image surface 402 Projection 501 Scan line 600 Feature pattern 601 Coding band 602 Blue band 701 Network camera 702 Infrared light emitting diode 800 Computer system 801 Peripheral device 803 Network resource 804 Data bus 805 Processor 806 Volatile storage device 807 EPROM / firmware storage device 808 Persistent storage device 809 Display 810 Keyboard (input device)
811 Cursor control device (mouse / positioning device)
812 External storage device 813 Network interface card 814 Network link 815 Intranet (LAN)
816 Host 817 Gateway / Firewall 818 Internet 819, 822 Network server / Network storage 820, 821 Client 830 Camera

Claims (29)

ジェスチャによりコンピュータと対話するジェスチャインターフェースシステムであって、
a.ユーザによって操作され、外観パターンに少なくとも1つの特徴を備えるジェスチャ入力用のワンドの画像を作成するように動作する少なくとも1台のカメラと、
b.前記カメラから作成された前記ワンドの画像を受け取り、前記ワンドの前記少なくとも1つの特徴に基づいて、前記ワンドの位置、前記ワンドの向き及び前記ワンドのねじれを含む前記ワンドの姿勢を決定するように動作すると共に、前記ワンドの前記決定された姿勢を用いて、ユーザアプリケーションを制御する処理手段と、
を備えるジェスチャインターフェースシステム。
A gesture interface system for interacting with a computer by a gesture,
a. At least one camera operated by a user and operable to create an image of a wand for gesture input having at least one feature in an appearance pattern;
b. Receiving an image of the wand created from the camera and determining the position of the wand, including the position of the wand, the orientation of the wand, and the twist of the wand, based on the at least one feature of the wand; Processing means that operates and controls a user application using the determined attitude of the wand;
Gesture interface system with
前記処理手段は、少なくとも、前記ワンドの複数の色領域に基づいて、前記ワンドの前記姿勢を決定するように動作する請求項1に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 1, wherein the processing unit operates to determine the posture of the wand based on at least a plurality of color regions of the wand. 前記処理手段は、少なくとも、前記ワンドのねじれコード領域に基づいて、前記ワンドの前記姿勢を決定するように動作する請求項1に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 1, wherein the processing means operates to determine the posture of the wand based on at least a twist code region of the wand. 前記ねじれコード領域は、らせんパターンを備える請求項3に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 3, wherein the twist code region comprises a spiral pattern. 前記処理手段は、少なくとも、精密特徴領域に基づいて、前記ワンドの前記姿勢を決定するように動作する請求項1に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 1, wherein the processing means operates to determine the posture of the wand based on at least a precision feature region. 前記精密特徴領域は、チェッカーボードパターンを備える請求項5に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 5, wherein the precision feature region comprises a checkerboard pattern. 前記チェッカーボードパターンは、チェッカーボード升目の中央にドット又はぼかしたブロブを備える請求項6に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 6, wherein the checkerboard pattern includes a dot or a blurred blob in the center of the checkerboard grid. 前記ワンドは、情報を符号化するバーコード領域をさらに備える請求項1に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 1, wherein the wand further includes a barcode area for encoding information. 前記処理手段は、前記ワンドの前記バーコード領域に符号化された前記情報に基づいて、前記ワンドの識別子を決定するように動作する請求項8に記載のジェスチャインターフェースシステム。   9. The gesture interface system according to claim 8, wherein the processing means operates to determine an identifier of the wand based on the information encoded in the barcode area of the wand. 前記ユーザによって操作され、前記ワンドの画像を作成するように動作する第2のカメラであって、前記少なくとも1台のカメラとは異なる位置に配置された前記第2のカメラをさらに備える請求項1に記載のジェスチャインターフェースシステム。   The second camera that is operated by the user and operates to create an image of the wand, further comprising the second camera arranged at a position different from the at least one camera. The gesture interface system described in 1. 前記処理手段は、前記ワンドのスキャンラインを再構成し、前記ワンドの前記スキャンラインと前記ワンドの前記少なくとも1つの特徴との交点を求めることによって、前記ワンドの前記姿勢を決定するように動作する請求項1に記載のジェスチャインターフェースシステム。   The processing means operates to determine the posture of the wand by reconstructing the scan line of the wand and determining an intersection of the scan line of the wand and the at least one feature of the wand. The gesture interface system according to claim 1. 前記ワンドの一端は色コードを備え、前記処理手段は、前記ワンドの一部分だけしか見えないときに、前記色コードを使って前記ワンドの前記姿勢を決定するように動作する請求項1に記載のジェスチャインターフェースシステム。   2. The wand according to claim 1, wherein one end of the wand is provided with a color code, and the processing means operates to determine the posture of the wand using the color code when only a part of the wand is visible. Gesture interface system. 前記少なくとも1台のカメラは赤外線カメラであり、前記ワンドの表面が赤外線反射材料又は再帰反射材料を含む請求項1に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 1, wherein the at least one camera is an infrared camera, and a surface of the wand includes an infrared reflective material or a retroreflective material. 前記赤外線カメラは、少なくとも1つの赤外線発光源と、少なくとも1つの赤外線フィルタとを備える請求項13に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 13, wherein the infrared camera comprises at least one infrared emission source and at least one infrared filter. 前記処理手段は、前記少なくとも1台のカメラによって取得される前記ワンドの前記画像に基づいて、前記少なくとも1台のカメラを較正するように動作する請求項1に記載のジェスチャインターフェースシステム。   The gesture interface system according to claim 1, wherein the processing means is operative to calibrate the at least one camera based on the image of the wand acquired by the at least one camera. ジェスチャインターフェースで使用するためのジェスチャ入力用ワンドであって、
a.ねじれコード領域と、
b.色コード領域と、
c.精密特徴領域と、
を外観パターン上の特徴として備えるジェスチャ入力用ワンド。
A gesture input wand for use with a gesture interface,
a. Torsion cord area;
b. A color code area;
c. Precision feature area,
A wand for gesture input that has a feature on the appearance pattern.
前記色コード領域は、前記ワンドの長さに沿って分散された複数の色帯を備える請求項16に記載のジェスチャ入力用ワンド。   17. The gesture input wand of claim 16, wherein the color code area comprises a plurality of color bands distributed along the length of the wand. 前記複数の色帯は異なる色を有する請求項17に記載のジェスチャ入力用ワンド。   The gesture input wand according to claim 17, wherein the plurality of color bands have different colors. 前記ねじれコード領域はらせんパターンを備える請求項16に記載のジェスチャ入力用ワンド。   The gesture input wand of claim 16, wherein the twist code region comprises a spiral pattern. 前記ねじれコード領域は、前記ワンドの前記長さに沿って分散された複数のらせんパターンを備える請求項16に記載のジェスチャ入力用ワンド。   The gesture input wand of claim 16, wherein the twisted code region comprises a plurality of helical patterns distributed along the length of the wand. 前記精密特徴領域はチェッカーボードパターンを備える請求項16に記載のジェスチャ入力用ワンド。   The gesture input wand of claim 16, wherein the precision feature region comprises a checkerboard pattern. 前記チェッカーボードパターンは、チェッカーボード升目の中央にドット又はぼかしたブロブを備える請求項21に記載のジェスチャ入力用ワンド。   The gesture input wand of claim 21, wherein the checkerboard pattern comprises a dot or blurred blob in the center of the checkerboard grid. 符号化情報を備えるバーコード領域をさらに備える請求項16に記載のジェスチャ入力用ワンド。   The gesture input wand according to claim 16, further comprising a bar code area including encoding information. 前記符号化情報は前記ワンドの識別子を備える請求項23に記載のジェスチャ入力用ワンド。   The gesture input wand of claim 23, wherein the encoded information comprises an identifier of the wand. 前記ワンドの少なくとも一端が色コードを備える請求項16に記載のジェスチャ入力用ワンド。   17. The gesture input wand of claim 16, wherein at least one end of the wand comprises a color code. 前記ワンドの表面が赤外線反射材料又は再帰反射材料を備える請求項16に記載のジェスチャ入力用ワンド。   17. The gesture input wand of claim 16, wherein the surface of the wand comprises an infrared reflective material or a retroreflective material. ユーザによって操作され、外観パターンに少なくとも1つの特徴を備えるジェスチャ入力用のワンドの姿勢に基づいて、コンピュータアプリケーションを制御するアプリケーション制御方法であって、
a.少なくとも1台のカメラを使って、前記ユーザによって操作されるワンドの画像を作成するステップと、
b.前記作成される画像を用い、前記ワンドの前記少なくとも1つの特徴に基づいて、前記ワンドの位置、前記ワンドの向き及び前記ワンドのねじれを含む前記ワンドの前記姿勢を決定するステップと、
c.前記ワンドの前記決定された姿勢に基づいて前記コンピュータアプリケーションを制御するステップと、
を備えるアプリケーション制御方法。
An application control method for controlling a computer application based on a posture of a wand for gesture input operated by a user and having at least one feature in an appearance pattern,
a. Creating an image of a wand operated by the user using at least one camera;
b. Determining the position of the wand, including the position of the wand, the orientation of the wand, and the twist of the wand, based on the at least one characteristic of the wand using the created image;
c. Controlling the computer application based on the determined attitude of the wand;
An application control method comprising:
ユーザによって操作され、外観パターンに少なくとも1つの特徴を備えるジェスチャ入力用のワンドの画像に基づいてカメラの校正を行うカメラ校正方法であって、
a.少なくとも1台のカメラを使って、前記ユーザによって操作されるワンドの画像を作成し、作成された画像に基づいて前記コンピュータアプリケーションを制御するステップと、
b.前記少なくとも1台のカメラによって取得された前記ワンドの前記画像に基づいて、前記少なくとも1台のカメラを較正するステップと、
を含むカメラ校正方法。
A camera calibration method for calibrating a camera based on an image of a wand for gesture input operated by a user and having at least one feature in an appearance pattern,
a. Creating an image of a wand operated by the user using at least one camera and controlling the computer application based on the created image;
b. Calibrating the at least one camera based on the image of the wand acquired by the at least one camera;
Including a camera calibration method.
ユーザによって操作され、外観パターン上に少なくとも1つの特徴を備えるジェスチャ入力用のワンドの姿勢に基づいて、コンピュータアプリケーションを制御するための制御プログラムであって、
コンピュータにより、
a.少なくとも1台のカメラよって作成された前記ワンドの画像を取得するステップと、
b.前記作成された画像を用い、前記ワンドの前記少なくとも1つの特徴に基づいて、前記ワンドの位置、前記ワンドの向き及び前記ワンドのねじれを含む前記ワンドの前記姿勢を決定するステップと、
c.前記ワンドの前記決定された姿勢に基づいて前記コンピュータアプリケーションを制御するステップと、
を実行させる制御プログラム。
A control program for controlling a computer application based on a posture of a wand for gesture input that is operated by a user and has at least one feature on an appearance pattern,
By computer
a. Obtaining an image of the wand created by at least one camera;
b. Determining the position of the wand, including the position of the wand, the orientation of the wand, and the twist of the wand, based on the at least one feature of the wand using the created image;
c. Controlling the computer application based on the determined attitude of the wand;
Control program to execute
JP2007332741A 2007-02-28 2007-12-25 Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program Pending JP2009134677A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US60/883,504 2007-01-04
US11/680,515 2007-02-28
US11/680,515 US7775439B2 (en) 2007-01-04 2007-02-28 Featured wands for camera calibration and as a gesture based 3D interface device

Publications (2)

Publication Number Publication Date
JP2009134677A JP2009134677A (en) 2009-06-18
JP2009134677A6 true JP2009134677A6 (en) 2011-03-10

Family

ID=40873501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007332741A Pending JP2009134677A (en) 2007-02-28 2007-12-25 Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program

Country Status (1)

Country Link
JP (1) JP2009134677A (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103674057B (en) * 2012-09-11 2016-08-03 北京航天计量测试技术研究所 With the standard ball bar of reflection sphere and the scaling method to camera external parameter thereof
KR101406855B1 (en) * 2013-04-17 2014-06-13 한국과학기술연구원 Computer system using Multi-dimensional input device
JP6398755B2 (en) * 2015-01-30 2018-10-03 富士通株式会社 Input device, input method, computer program for input processing, and input system
JP7199822B2 (en) * 2018-04-04 2023-01-06 株式会社Nttドコモ Detection device and detection method
US10983604B2 (en) * 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
JP7336553B2 (en) * 2022-02-07 2023-08-31 三菱電機Itソリューションズ株式会社 Process execution device, process execution method and process execution program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61196317A (en) * 1985-02-27 1986-08-30 Nippon Telegr & Teleph Corp <Ntt> Information input system
JPH0519957A (en) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> Information inputting method
JP2000098870A (en) * 1998-09-28 2000-04-07 Sony Corp Virtual image stereoscopic compositing device virtual image stereoscopic compositing method, game device and recording medium
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
JP4282216B2 (en) * 2000-09-19 2009-06-17 オリンパス株式会社 3D position and orientation sensing device
JP2003078811A (en) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> Method for associating marker coordinate, method and system for acquiring camera parameter and calibration pattern
JP2005250628A (en) * 2004-03-02 2005-09-15 Mitsubishi Electric Corp Pattern, device and method for camera calibration
TW200625143A (en) * 2005-01-04 2006-07-16 Pixart Imaging Inc Personal computer's interactive input device and game-peripheral equipment

Similar Documents

Publication Publication Date Title
US7775439B2 (en) Featured wands for camera calibration and as a gesture based 3D interface device
CN108012559B (en) Method and system for generating three-dimensional model
JP3859574B2 (en) 3D visual sensor
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
US6678425B1 (en) Method and apparatus for decoding angular orientation of lattice codes
US20020134838A1 (en) Method and apparatus for spatially registering information using embedded data
US20150138086A1 (en) Calibrating control device for use with spatial operating system
JP2009134677A6 (en) Gesture interface system, gesture input wand, application control method, camera calibration method, and control program
JP2009134677A (en) Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
CN107209007A (en) Method, circuit, equipment, accessory, system and the functionally associated computer-executable code of IMAQ are carried out with estimation of Depth
US20020121550A1 (en) Method and apparatus for display of spatially registered information using embedded data
JP5290865B2 (en) Position and orientation estimation method and apparatus
NO339941B1 (en) System and method for a gesture-based management system
JP2006523067A (en) How to display an output image on an object
JP2003254716A (en) Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
CN111094895A (en) System and method for robust self-repositioning in pre-constructed visual maps
KR20120034672A (en) Spatial, multi-modal control device for use with spatial operating system
JP7150980B2 (en) Information device interaction method and system based on optical label
WO2016053320A1 (en) Gesture based manipulation of three-dimensional images
CN112912936A (en) Mixed reality system, program, mobile terminal device, and method
CN111771227B (en) Method, system, electronic device and storage medium for recognizing three-dimensional object
US11758100B2 (en) Portable projection mapping device and projection mapping system
Kishino et al. Realizing a visual marker using LEDs for wearable computing environment
WO2020192544A1 (en) Method for selecting interactive object on display medium of device
JPH08212327A (en) Gesture recognition device