JP4710734B2 - Pointing device, pointing position detection method, and program - Google Patents
Pointing device, pointing position detection method, and program Download PDFInfo
- Publication number
- JP4710734B2 JP4710734B2 JP2006171760A JP2006171760A JP4710734B2 JP 4710734 B2 JP4710734 B2 JP 4710734B2 JP 2006171760 A JP2006171760 A JP 2006171760A JP 2006171760 A JP2006171760 A JP 2006171760A JP 4710734 B2 JP4710734 B2 JP 4710734B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pointing
- screen
- marker
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、コンピュータ画面をプロジェクタによりスクリーン上に投影するシステムに用いられ、その投影画像上の任意の位置をポインティングしてコンピュータ画面に反映させる機能を備えたポインティング装置と、同装置に用いられるポインティング位置検出方法及びプログラムに関する。 The present invention is used in a system for projecting a computer screen onto a screen by a projector, a pointing device having a function of pointing an arbitrary position on the projected image and reflecting it on the computer screen, and a pointing used in the device The present invention relates to a position detection method and a program.
近年、コンピュータ画面をプロジェクタによりスクリーン上に投影するシステムにおいて、投影画像上の任意の位置をポインティングすることにより、例えばコンピュータ画面上のカーソル位置を制御したり、そのポインティング位置を基準にして画面の拡大/縮小などを行うポインティング装置が注目されている。 In recent years, in a system that projects a computer screen onto a screen by a projector, by pointing an arbitrary position on the projected image, for example, the cursor position on the computer screen can be controlled, or the screen can be enlarged based on the pointing position. / Pointing devices that perform reduction or the like are drawing attention.
このようなポインティング装置では、カメラにて投影画像を撮影し、その撮影画像からコンピュータ画面の特徴点を複数抽出し、これらの特徴点の位置関係から現在のポインティング位置を検出する方法が知られている(例えば、特許文献1参照)。 In such a pointing device, a method is known in which a projected image is captured by a camera, a plurality of feature points of a computer screen are extracted from the captured image, and the current pointing position is detected from the positional relationship of these feature points. (For example, refer to Patent Document 1).
また、別の方法として、予めコンピュータ画面の四隅にマーカを表示して、これらのマーカの位置を基準にして現在のポインティング位置を検出する方法もある(例えば、特許文献2参照)。
しかしながら、前記特許文献1の方法では、例えばスクリーン上に投影された画像が暗く、コンピュータ画面の特徴点を抽出できない場合にはポインティング位置を検出できないといった問題がある。 However, the method disclosed in Patent Document 1 has a problem that a pointing position cannot be detected when, for example, an image projected on a screen is dark and a feature point of a computer screen cannot be extracted.
また、前記特許文献2の方法では、コンピュータ画面の四隅に位置検出用のマーカを常に表示しておく必要があるため、これらのマーカが目障りとなり、ポインティング操作がしづらいなどの問題がある。
Further, in the method of
本発明は前記のような点に鑑みなされたもので、マーカを常時表示することなく、スクリーン上の投影画像に対するポインティング位置を正確に検出することのできるポインティング装置、ポインティング位置検出方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and provides a pointing device, a pointing position detection method, and a program capable of accurately detecting a pointing position with respect to a projected image on a screen without always displaying a marker. The purpose is to do.
本発明のポインティング装置は、スクリーン上に投影された画像の任意の位置をポインティングするポインティング装置において、特定のモードを設定するモード設定手段と、このモード設定手段によって前記特定のモードが設定されたときのみ、前記スクリーン上の投影画像の四箇所にマーカを表示させるマーカ表示手段と、このマーカ表示手段によって表示されたマーカ付きの投影画像をその周辺画像を含めて撮影した第1の画像を取得する第1の画像取得手段と、前記第1の画像に含まれる前記周辺画像から特徴点を抽出する第1の特徴点抽出手段と、通常のモードにおいて、前記スクリーン上の投影画像をその周辺画像を含めて撮影した第2の画像を取得する第2の画像取得手段と、前記第2の画像に含まれる前記周辺画像から特徴点を抽出する第2の特徴点抽出手段と、前記第1の画像上の前記各マーカの位置と、前記第1の特徴点抽出手段によって抽出された特徴点と前記第2の特徴点抽出手段によって抽出された特徴点との対応関係に基づいて、現在のポインティング位置を検出する位置検出手段として構成される。 The pointing device of the present invention is a pointing device for pointing at an arbitrary position of an image projected on a screen, and mode setting means for setting a specific mode, and when the specific mode is set by the mode setting means Only, marker display means for displaying markers at four positions of the projected image on the screen, and a first image obtained by photographing the projected image with the marker displayed by the marker display means including its peripheral image is acquired. A first image acquisition unit; a first feature point extraction unit that extracts a feature point from the peripheral image included in the first image; and a projection image on the screen as a peripheral image in a normal mode. A second image acquisition means for acquiring a second image captured and a feature from the peripheral image included in the second image; The second feature point extracting means for extracting the position of each marker on the first image, the feature points extracted by the first feature point extracting means, and the second feature point extracting means. Based on the correspondence relationship with the extracted feature points, it is configured as position detection means for detecting the current pointing position.
本発明によれば、特定のモードでマーカ付きの画像を位置検出用に登録しておくことで、マーカの常時表示を必要とせずに、スクリーン上の投影画像に対するポインティング位置を正確に検出することができる。 According to the present invention, by registering an image with a marker for position detection in a specific mode, it is possible to accurately detect the pointing position with respect to the projected image on the screen without requiring the marker to be always displayed. Can do.
以下、図面を参照して本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は本発明の一実施形態に係るポインティング装置を用いた投影システムの構成を示す図である。 FIG. 1 is a diagram showing a configuration of a projection system using a pointing device according to an embodiment of the present invention.
本システムは、ポインティング装置11、プロジェクタ12、PC(Personal Computer)13からなる。プロジェクタ12とPC13とは通信ケーブル14を介して接続されており、プロジェクタ12はPC画面を投影対象としてスクリーン15上に投影表示する。
The system includes a
なお、プロジェクタ12やPC13は一般的に用いられているものであり、その具体的な構成については省略するものとする。
Note that the
また、プロジェクタ12とPC13との接続形態は、図1の例では通信ケーブル14を用いているが、無線通信を利用することも可能である。スクリーン15は、例えばホワイトボードなどであり、プロジェクタ12と対向させて設置される。図中の16は、このスクリーン15に対するプロジェクタ12の投影領域を示している。
Further, the connection form between the
ポインティング装置11は、プロジェクタの投影領域16内の任意の位置Pをポインティング操作するためのものである。このポインティング装置11の先端部には、カメラ10が設置されており、このカメラ10で撮影された画像を用いて現在のポインティング位置Pが検出され、ワイヤレス通信などでPC13に伝えられる。これにより、PC13では、ポインティング位置Pに基づいて画面上のカーソルの移動制御や、画面の拡大/縮小などの表示制御を行う。
The
図2はPC画面に表示させるマーカの一例を示す図である。 FIG. 2 is a diagram illustrating an example of a marker displayed on the PC screen.
本システムでは、後述するキャリブレーションモードが設定されたときに、PC画面の四隅にマーカ17a〜17dを表示させる。ただし、このマーカ17a〜17dは、キャリブレーションモードのときだけ表示されるものであり、通常のモードである実動作モードに移行した後は表示されない。
In this system,
次に、ポインティング装置11の構成について説明する。
図3はポインティング装置11の構成を示すブロック図である。
Next, the configuration of the
FIG. 3 is a block diagram showing the configuration of the
ポインティング装置11は、光学レンズ装置21と、イメージセンサ22と、メモリ23と、画像処理装置24と、CPU25と、プログラムコード記憶装置26と、操作部27と、コンピュータインタフェース部28と、投影領域検出表示部29とを備える。
The
光学レンズ装置21とイメージセンサ22は、カメラ10の構成要素である。光学レンズ装置21は、フォーカスレンズやズームレンズを含む撮影レンズと、この撮影レンズを光軸方向に駆動するための駆動部とを備え、CPU25によって制御され、イメージセンサ22上に撮影対象からの光を集光させて像を結像させる。
The
イメージセンサ22は、結像した画像をデジタル化した画像データとして取り込むためのものであり、例えばCCD(charge coupled device:電荷結合素子)等によって構成される。このイメージセンサ22は、CPU25によって制御され、デジタルの画像データを所定の周期で生成して、これを秒間100枚程度の間隔でメモリ23に送出する。
The
メモリ23は、イメージセンサ22によって得られる複数枚の画像データを記憶すると共に、画像処理装置24が処理対象とする元画像のデータや処理後の画像データを一時的に記憶する。このメモリ23は、イメージセンサ22から得られる撮影画像を取り込んだり、CPU25や画像処理装置24によって一時記憶されたデータなどを読み書きできるように構成されている。
The
画像処理装置24は、CPU25の制御の下で、メモリ23に記憶された撮影画像を用いてポインティング位置Pの計算処理などを行う。
Under the control of the
CPU25は、プログラムコード記憶装置26に記憶されたプログラムを読み込むことにより、このプログラムに記述された手順に従って各種処理を実行する。なお、メモリ23は、このCPU25の作業メモリとしても用いられる。
The
プログラムコード記億装置26は、CPU25が実行するプログラムを記憶するためのものであり、例えばROMやフラッシュメモリなどからなる。
The program
操作部27は、電源ボタン27a、キャリブレーションボタン27bなどを含む各種操作ボタンからなる。電源ボタン27aは、ポインティング装置11の電源をON/OFFするためのボタンである。キャリブレーションボタン27bは、ユーザがキャリブレーションモードを任意に設定するための操作ボタンである。
The
コンピュータインタフェース部28は、PC13との間でデータの送受信を行う。このコンピュータインタフェース部28としては、例えばBluetooth(登録商標)や無線LAN(Local Area Network)などが用いられる。このコンピュータインタフェース部28は、画像処理装置24によって算出された現在のポインティング位置Pの座標情報をPC13に送信する。
The
また、投影領域検出表示部29は、ポインティング装置11がスクリーン15上の投影画像を正しく認識できているか否かを表示する。この投影領域検出表示部29としては、例えばLED(Light Emitting Diode)が用いられ、図1の例のように装置本体の上面などに設置される。
The projection area
次に、ポインティング装置11の処理動作について説明する。
Next, the processing operation of the
図4は本実施形態におけるポインティング装置11の処理動作を示すフローチャートである。なお、このフローチャートで示される各処理は、コンピュータであるCPU25がプログラムコード記憶装置26に記憶されたプログラムを読み込むことにより実行される。
FIG. 4 is a flowchart showing the processing operation of the
(CPU25の基本動作)
ポインティング装置11を使用するに際し、まず、ユーザが操作部27に設けられた電源ボタン27aを押下して電源をONする。このとき、プロジェクタ12とPC13の電源はON状態にあり、PC画面がプロジェクタ12によってスクリーン15上に投影表示されているものとする。
(Basic operation of CPU 25)
When using the
ポインティング装置11の電源がONされると、キャリブレーションモードと呼ばれる特定のモードが設定され、以下のような処理が実行される。
When the power of the
まず、CPU25は、初期設定として、投影領域検出表示部29をOFFしておく(ステップS100)。
First, the
次に、CPU25は、イメージセンサ22を制御して、ポインティング装置11が向けられた方向の撮影画像を読み込み、これを画像1としてメモリ23の所定の領域に格納する(ステップS101)。この場合、ポインティング装置11がスクリーン15上の投影画像に正しく向けられていれば、前記画像1には、PC画面の投影画像とその周辺の画像が含まれていることになる。なお、周辺の画像とは、例えばスクリーン15の枠や、スクリーン15が置かれた部屋の照明器具などである。
Next, the
次に、CPU25は、図2に示すようなマーカ17a〜17dを表示させるためのコマンドをコンピュータインタフェース部28を介してPC13に送信する(ステップS102)。
Next, the
PC13には、前記コマンドを受け取ったら、PC画面の四隅にマーカ17a〜17dを表示するソフトウェアが予めインストールされている。また、PC13は、前記コマンドによりマーカ17a〜17dを表示すると、その旨をポインティング装置11に通知する。このマーカ表示通知はコンピュータインタフェース部28を介してCPU25に与えられる。これにより、CPU25はマーカ17a〜17dが表示されたことを確認できる。
When the command is received, the
マーカ17a〜17dの表示後、CPU25は、再び、イメージセンサ22を制御して、ポインティング装置11が向けられた方向の撮影画像を読み込み、これをマーカ画像としてメモリ23の所定の領域に格納する(ステップS103)。前記マーカ画像には、マーカ17a〜17dを有するPC画面の投影画像とその周辺の画像が含まれている。
After displaying the
また、CPU25は、PC13に対してマーカ表示の停止コマンドを送信することにより、PC画面を元の状態に戻しておく(ステップS104)。
Further, the
このようにして、メモリ23には、マーカなしで撮影した画像(画像1)とマーカありで撮影した画像(マーカ画像)が保存されたことになる。CPU25は、この2枚の画像から後述するポインティング位置計算処理に必要なデータを抽出させるために、画像処理装置24に対して投影領域登録処理を実行させる(ステップS105)。なお、この投影領域登録処理については、後に図5を参照して詳しく説明する。
In this way, the
次に、CPU25は、画像処理装置24の処理結果レジスタをアクセスして登録処理が正常に終了したか否かを確認する(ステップS106)。その結果、登録処理が正常に終了していなかった場合には(ステップS106のNo)、CPU25は、電源ボタン27aがOFFされていないことを確認し(ステップS107のNo)、再度2枚の画像(マーカなしの画像1とマーカ撮影)を得るためにステップS101に戻る。
Next, the
この間、投影領域検出表示部29はOFFしているので、ユーザは登録失敗の原因がポインティング装置11の向きにあることを認識できる。
During this time, since the projection area
ポインティング装置11が投影画像に対して正しく向けられると、画像処理装置24による投影領域登録処理が正常に終了する(ステップS106のYes)。これにより、CPU25は、投影領域検出表示部29を点灯した後(ステップS114)、電源ボタン27aがOFFされていないことを確認して(ステップS115のNo)、通常時の実動作モードへ移行する。
When the
なお、前記ステップS107あるいは前記ステップS115において、ユーザが電源ボタン27aの操作により電源をOFFした場合には、CPU25は、直ちに終了処理を行うことになる。
In step S107 or step S115, if the user turns off the power by operating the
実動作モードに移行すると、CPU25は、まず、キャリブレーションボタン27bの状態を確認する(ステップS109)。キャリブレーションボタン27bが押下されていなければ(ステップS109のNo)、CPU25は、前記ステップS101のとき同様に、イメージセンサ22を制御してポインティング装置11が向けられた方向の撮影画像を読み込み、これを画像1としてメモリ23の所定の領域に格納する(ステップS103)。
When shifting to the actual operation mode, the
続いて、CPU25は、投影領域座標系においてポインティング装置11が向けられている座標を画像処理装置24に求めさせる(ステップS111)。「投影領域座標系においてポインティング装置11が向けられている座標」とは、図1に示すように、カメラ10の光軸が投影領域16と交差する位置、つまり、スクリーン15上の投影画像(PC画面)に対してポインティング装置11が指し示しているポインティング位置Pの座標のことを言う。なお、ここでのポインティング位置計算処理については後に図6を参照して詳しく説明する。
Subsequently, the
次に、CPU25は、画像処理装置24の処理結果レジスタをアクセスして計算処理が正常に終了したか否かを確認する(ステップS112)。その結果、ポインティング装置11が投影画像に向けられていないなどの理由で、ポインティング位置Pの座標が取得されなかった場合には(ステップS112のNo)、CPU25は、投影領域検出表示部29の点灯を消した後(ステップS116)、電源ボタン27aがOFFされていないことを確認し、次の撮影画像を得るためにステップ109に戻る。
Next, the
一方、ポインティング装置11が投影画像に正しく向けられていれば、画像処理装置24によるポインティング位置Pの計算処理が正常に終了する。正常に終了した場合には(ステップS112のYes)、CPU25は、得られたポインティング位置Pの座標情報をPC13に送信する(ステップS113)。PC13では、このポインティング位置Pの座標情報に基づいてカーソルの移動制御などを行うことになる。
On the other hand, if the
また、ポインティング位置Pの座標が取得できた場合には、その旨をユーザに知らせるために投影領域検出表示部29を点灯させておく(ステップS114)。以後、CPU25は、ユーザが操作するポインティング装置11の動きに応答させるために、前記同様のポインティング処理を繰り返し行うことになる。
If the coordinates of the pointing position P can be acquired, the projection area
ところで、例えばユーザがキャリブレーションモード時にマーカ画像を登録した場所から違う場所に移動すると、ポインティング装置11をどの方向に向けても、マーカ画像との対応が取れないため、ポインティング位置Pを求めることができない。このような場合に、キャリブレーションボタン27bを用いる。
By the way, for example, when the user moves from the location where the marker image is registered in the calibration mode to a different location, the pointing position P can be obtained because the
キャリブレーションボタン27bが押下されると(ステップS109のYes)、CPU25は、キャリブレーションモードを再設定し、投影領域登録処理を画像処理装置24に実行させて、新たなマーカ画像を位置検出用として再登録する。
When the
(画像処理装置24の投影領域登録処理)
図5は前記ステップS105で実行される画像処理装置24の投影領域登録処理の詳細を示すフローチャートである。
(Projection region registration processing of the image processing device 24)
FIG. 5 is a flowchart showing details of the projection area registration process of the
画像処理装置24には、マーカなしの画像1とマーカ画像の2枚が与えられている。この2枚の画像は同じ向きで連続して撮影されたものであり、その画像間の動きによる位置ずれはないものとみなせる。よって、この2枚の撮影画像の差分を求めれば、マーカ部分のみを簡単に抽出することができる。
The
詳しく説明すると、画像処理装置24は、画像1とマーカ画像との差分画像を作成し(ステップS201)、その差分画像を二値化して、マーカ17a〜17dの抽出を行う(ステップS202)。
More specifically, the
ここで、画像処理装置24は、4つのマーカ17a〜17dの位置を調べ、これらが所定の条件を満たしているか否かを判断する(ステップS203)。前記所定の条件とは、4つのマーカ17a〜17dの重心が撮影画像の中心部付近にあり、かつ、各マーカ17a〜17dのそれぞれが撮影画像の外側付近にないことである。
Here, the
具体的には、図7に示すように、マーカ画像の横サイズをW、縦サイズをHとすると、マーカ17a〜17dの重心がE1の範囲内にあり、かつ、マーカ17a〜17dのそれぞれがE2の範囲内にないことを条件とする。このような条件を定めておくのは、ポインティング装置11のカメラ10を通じて投影画像を中心にして、その周辺の画像を偏りなく撮影した画像を得るためであり、このようなマーカ画像を位置検出に用いることで、後のポインティング位置Pの計算精度が高くなるからである。
Specifically, as shown in FIG. 7, when the horizontal size of the marker image is W and the vertical size is H, the centers of gravity of the
マーカ17a〜17dの座標が前記所定の条件を満たす場合には(ステップS203でYes)、画像処理装置24は、当該マーカ画像を位置検出用としてメモリ23に登録すると共に、その画像から特徴点の抽出を行う(ステップS204)。
When the coordinates of the
特徴点としては、ユーザがポインティング装置11を動かしたときに得られる前後2枚の画像間で対応が取り易い点を選ぶ。特徴点の抽出方法には、例えばKLT法、SUSAN法などが知られている。このような手法によって特徴点を抽出する(ステップS204)。なお、特徴点として好ましいものは、どの方向から見ても輝度勾配の大きい点であり、孤立点や物体の角に対応する点である。このような特徴点を当該マーカ画像の全体から偏りなく抽出するものとする。
As a feature point, a point is selected that allows easy correspondence between the two images before and after the user moves the
ただし、ここで得られた特徴点には、投影領域16つまりPC画面の投影画像から抽出されたものも含まれている。これらの特徴点は、投影内容が変わると変化してしまうため、特徴点の候補から除外するものとする(ステップS205)。
However, the feature points obtained here include those extracted from the
残った特徴点が投影画像の周辺の画像に対応したものである。画像処理装置24は、その周辺画像の特徴点の数が規定数以上あるか否かを確認する(ステップS206)。実際の動作を考えると、特徴点の数は50以上あるのが望ましい。特徴点の数が規定数に満たない場合には(ステップS206でNo)、特徴点をさらに検索することが望ましい(ステップS207)。
The remaining feature points correspond to the peripheral images of the projection image. The
画像処理装置24は、このようにして選ばれた特徴点の座標リストを作成し、これをメモリ23に保存しておく(ステップS208)。そして、画像処理装置24内に設けられた処理結果レジスタに処理が成功したことを記録する(ステップS209)。
The
一方、前記ステップS203で、マーカ画像から抽出された4つのマーカ17a〜17dの位置が前記所定の条件を満たさない場合には(ステップS203のNo)、画像処理装置24は、当該マーカ画像を不適切であると判断して、処理結果レジスタに処理が失敗したことを記録する(ステップS210)。
On the other hand, when the positions of the four
(画像処理装置24のポインティング位置計算処理)
図6は前記ステップS111で実行される画像処理装置24のポインティング位置計算処理の詳細を示すフローチャートである。
(Pointing position calculation processing of the image processing device 24)
FIG. 6 is a flowchart showing details of the pointing position calculation process of the
ポインティング位置Pの計算は、位置検出用として登録されたマーカ画像と今回撮影された画像との間で特徴点の対応を取ることで行う。本実施形態では、2枚の画像間の対応に2次元モデルを用いるものとする。 The calculation of the pointing position P is performed by associating feature points between the marker image registered for position detection and the image captured this time. In the present embodiment, it is assumed that a two-dimensional model is used for correspondence between two images.
通常、PC13の画像はスクリーンやホワイトボードなどの2次元平面状に投影されるので、これらの平面状や、近傍の柱や枠などは近似的に2次元平面上にあると仮定できる。よって、これらの部分から抽出された特徴点は2次元上にある。なお、これらの平面状以外で特徴点が選ばれることがあるが、ポインティング装置11を視差が出るように移動しない限りにおいては特に問題ない。
Usually, since the image of the
もちろん3次元モデルを用いてもかまわない。ただし、ポインティング位置Pを特定できる適応範囲が広くなるが、その一方で演算処理時間が増えることになる。 Of course, a three-dimensional model may be used. However, although the adaptive range in which the pointing position P can be specified is widened, the calculation processing time is increased.
画像処理装置24は、前記ステップS204〜S207と同様にして、今回撮影された画像から投影画像の周辺の画像に対応した特徴点を抽出する(ステップS301)。そして、これらの特徴点とマーカ画像から抽出された特徴点との対応処理を行う(ステップS302)。
Similar to steps S204 to S207, the
この特徴点の対応処理には、RANSAC(Random Sample Consensus Argorithm)などにより誤った対応点(OUTLIER)をはじきながら正しい対応点のみを抽出する手法が知られている。OUTLIERが除外された対応付けを用いて、さらに各特徴点の精度の高いトラッキングを行う。すなわち、2枚の画像間で特徴点の近傍の画像においてSSD(Sum of Square Difference)を利用してテンプレートマッチングを行い、さらに精度の高い特徴点の対応を求める(ステップS303)。その際、SSDの値が予め決められた値より小さくならない場合は、ミス対応と考えられるので特徴点のリストから除外するものとする。 As the feature point correspondence processing, a method is known in which only the right correspondence point is extracted while repelling an erroneous correspondence point (OUTLIER) by RANSAC (Random Sample Consensus Argorithm) or the like. Using the association from which OUTLIER is excluded, tracking of each feature point is performed with higher accuracy. That is, template matching is performed using an SSD (Sum of Square Difference) on an image in the vicinity of a feature point between two images to obtain a more accurate feature point correspondence (step S303). At this time, if the SSD value does not become smaller than a predetermined value, it is considered to be a correspondence with an error, and is excluded from the feature point list.
このようにして、画像間で特徴点を追跡することで、互いに対応する数を検査する(ステップS304)。2次元モデルの場合、少なくとも4点以上の対応がないと、2枚の画像間の移動を推定できない。実際には、誤差などを考慮して15点以上の対応が必要である。十分に対応点がある場合には(ステップS304のYes)、これらの対応点からポインティング装置11が向いている座標つまりスクリーン15上の投影画像に対するポインティング位置Pの座標を求めることができる(ステップS305)。
In this way, by tracking feature points between images, the numbers corresponding to each other are inspected (step S304). In the case of a two-dimensional model, movement between two images cannot be estimated unless there is at least four correspondences. Actually, it is necessary to deal with 15 points or more in consideration of errors and the like. If there are enough corresponding points (Yes in step S304), the coordinates of the
前記ステップS305での求め方は以下の通りである。 The method of obtaining in step S305 is as follows.
すなわち、マーカ画像から得られた4点のマーカ17a〜17dの位置座標ベクトル(マーカ画像の座標系)をu1,u2,u3,u4とする。これらのマーカ17a〜17dのPC画面上での座標値は既知であるので、これらの座標(PC画面の座標系)をx1,X2,x3,x4とすると、対応点が4点あるので、マーカ画像の任意の座標ベクトルuをPC画面の座標系の座標ベクトルxに変換する2次元の線形変換Huxを求めることができる。
That is, the position coordinate vectors (marker image coordinate system) of the four
次に、前記ステップS302で求めた特徴点の対応により、マーカ画像の特徴点の座標ベクトル(マーカ画像の座標系)をf1,f2,f3,…,fnとし、現在の入力画像の対応する特徴点の座標ベクトル(画像1の座標系)をg1,g2,g3,…,gnとする。これらの対応から、画像1からマーカ画像への線形変換Hgfを最小2乗法で求めることができる。 Next, based on the correspondence of the feature points obtained in step S302, the coordinate vector (marker image coordinate system) of the feature points of the marker image is set to f1, f2, f3,. The coordinate vector of the point (the coordinate system of the image 1) is g1, g2, g3,. From these correspondences, the linear transformation H gf from the image 1 to the marker image can be obtained by the least square method.
ここで、現在のポインティング装置11が指し示している方向は画像1の中心点である。画像1の中心点の座標(画像1の座標系)をyとすると、この座標から線形変換Hgfを行うと、マーカ画像での対応座標uyが求まる。
Here, the direction indicated by the
uy=Hgf・y
さらに、マーカ画像の座標値uyを線形変換Huxで変換すると、PC画面の座標系の座標値xy=H・yに変換することができる。
u y = H gf · y
Furthermore, when the coordinate value u y of the marker image is converted by the linear conversion H ux , the coordinate value x y = H · y of the coordinate system of the PC screen can be converted.
xy=Hux・uy
これが求めるポインティング位置Pの座標になる。
x y = H ux · u y
This is the coordinate of the desired pointing position P.
以上の例は2次元モデルを用いた場合であるが、3次元モデルを用いても可能である。この場合は、対応点などの数が増やさなければならないが、前記同様の手法を用いることができる。 The above example is a case where a two-dimensional model is used, but it is also possible to use a three-dimensional model. In this case, the number of corresponding points must be increased, but the same method as described above can be used.
画像処理装置24は、このようにして求めたポインティング位置Pの座標をポインティングレジスタに保存し(ステップS306)、処理結果レジスタに処理が成功したことを記録する(ステップS307)。
The
一方、対応点が少なく、精度の高い座標が計算できない場合には(ステップS304のNo)、画像処理装置24は処理結果レジスタに処理が失敗したことを記録する(ステップS308)。
On the other hand, when the number of corresponding points is small and high-precision coordinates cannot be calculated (No in step S304), the
以上のように、本実施形態によれば、キャリブレーションモード時にマーカを表示して位置検出用の画像を登録した後は、そのマーカを表示しなくとも、ポインティング位置Pを求めることができる。したがって、ユーザはマーカに煩わされることなく、投影画像上の任意の位置をポインティング操作することができる。 As described above, according to the present embodiment, after the marker is displayed and the position detection image is registered in the calibration mode, the pointing position P can be obtained without displaying the marker. Therefore, the user can perform a pointing operation at an arbitrary position on the projection image without being bothered by the marker.
また、投影画像の周囲の画像に着目して画像間の対応付けを行うことで、例えばスクリーン上に表示されたPC画面の投影画像が不鮮明で、その投影画像から四隅の特徴点を抽出できないような環境下であっても、ポインティング位置Pを正確に検出することができる。 Also, by focusing on the surrounding images of the projected image, the images are associated with each other so that, for example, the projected image of the PC screen displayed on the screen is unclear and the feature points at the four corners cannot be extracted from the projected image. Even under a difficult environment, the pointing position P can be accurately detected.
また、ポインティング装置11が投影画像を正しく認識できているか否かが表示されるので、ユーザはその表示を見ながら、ポインティング装置11を投影画像に正しく向けて操作することができる。
Further, since it is displayed whether or not the
なお、前記実施形態では、特定のボタン操作(キャリブレーションボタン27b)によってキャリブレーションモードを再設定するものとしたが(図4のステップS09参照)、ポインティング装置11の向きが悪いなどの理由でポインティング位置Pを検出できなかった場合に、自動的にキャリブレーションモードを再設定して登録動作をやり直すような構成にしても良い。これは、画像処理装置24によってポインティング位置Pを検出できなかった場合に、その旨のエラー信号をCPU25に入力することで実現できる。
In the above-described embodiment, the calibration mode is reset by a specific button operation (
また、投影領域検出表示部29としては、LED等の発光体に限らない。例えばLCD(Liquid Crystal Display)を用いて、その画面上に投影画像の認識状態を示すメッセージを表示するようにして良い。
Further, the projection area
また、画像処理装置24にて実現される各機能をCPU25に持たせて、CPU25にてすべての処理を行うような構成にしても良い。
Alternatively, the
さらに、前記実施形態では、画面の四隅にマーカ17a〜17dを配置したが、図8(a),(b)に示すような配置でも良い。この場合、表示領域の周辺部分に、重心がずれないように点対称で四箇所に配置すれば、前記実施形態に示したアルゴリズムおよび計算方法をそのまま使える。また、重心計算に関する部分を若干変更すれば、マーカ17a〜17dが点対称でなくとも本発明は実施可能である。
Furthermore, in the said embodiment, although the
要するに、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10…カメラ、11…ポインティング装置、12…プロジェクタ、13…PC、14…通信ケーブル、15…スクリーン、16…投影領域、17a〜17d…マーカ、21…光学レンズ装置、22…イメージセンサ、23…メモリ、24…画像処理装置、25…CPU、26…プログラムコード記憶装置、27…操作部、28…コンピュータインタフェース部、29…投影領域検出表示部。
DESCRIPTION OF
Claims (9)
特定のモードを設定するモード設定手段と、
このモード設定手段によって前記特定のモードが設定されたときのみ、前記スクリーン上の投影画像の四箇所にマーカを表示させるマーカ表示手段と、
このマーカ表示手段によって表示されたマーカ付きの投影画像をその周辺画像を含めて撮影した第1の画像を取得する第1の画像取得手段と、
前記第1の画像に含まれる前記周辺画像から特徴点を抽出する第1の特徴点抽出手段と、
通常のモードにおいて、前記スクリーン上の投影画像をその周辺画像を含めて撮影した第2の画像を取得する第2の画像取得手段と、
前記第2の画像に含まれる前記周辺画像から特徴点を抽出する第2の特徴点抽出手段と、
前記第1の画像上の前記各マーカの位置と、前記第1の特徴点抽出手段によって抽出された特徴点と前記第2の特徴点抽出手段によって抽出された特徴点との対応関係に基づいて、現在のポインティング位置を検出する位置検出手段と
を具備したことを特徴とするポインティング装置。 In a pointing device for pointing an arbitrary position of an image projected on a screen,
Mode setting means for setting a specific mode;
Marker display means for displaying markers at four locations of the projected image on the screen only when the specific mode is set by the mode setting means,
First image acquisition means for acquiring a first image obtained by photographing the projected image with a marker displayed by the marker display means including its peripheral image;
First feature point extracting means for extracting feature points from the peripheral image included in the first image;
In a normal mode, a second image acquisition means for acquiring a second image obtained by capturing the projected image on the screen including its peripheral image;
Second feature point extracting means for extracting feature points from the peripheral image included in the second image;
Based on the correspondence between the position of each marker on the first image, the feature point extracted by the first feature point extraction means, and the feature point extracted by the second feature point extraction means. And a position detecting means for detecting a current pointing position.
前記モード設定手段は、前記操作手段が操作されたときに前記特定のモードを設定することを特徴とする請求項1記載のポインティング装置。 Comprising an operation means for arbitrarily setting the specific mode;
The pointing device according to claim 1, wherein the mode setting unit sets the specific mode when the operation unit is operated.
特定のモードを設定するステップと、
前記特定のモードが設定されたときのみ、前記スクリーン上の投影画像の四箇所にマーカを表示させるステップと、
マーカ付きの投影画像をその周辺画像を含めて撮影した第1の画像を取得するステップと、
前記第1の画像に含まれる前記周辺画像から特徴点を抽出するステップと、
通常のモードにおいて、前記スクリーン上の投影画像をその周辺画像を含めて撮影した第2の画像を取得するステップと、
前記第2の画像に含まれる前記周辺画像から特徴点を抽出するステップと、
前記第1の画像上の前記各マーカの位置と、前記第1の画像から抽出された特徴点と前記第2の画像から抽出された特徴点との対応関係に基づいて、現在のポインティング位置を検出するステップと
を備えたことを特徴とするポインティング位置検出方法。 In a pointing position detection method for detecting a position where an image projected on a screen is pointing,
Setting a specific mode;
Only when the specific mode is set, displaying markers at four locations on the projected image on the screen;
Obtaining a first image obtained by photographing a projected image with a marker including its peripheral image;
Extracting feature points from the surrounding image included in the first image;
In a normal mode, obtaining a second image obtained by photographing the projected image on the screen including its peripheral image;
Extracting feature points from the surrounding image included in the second image;
Based on the correspondence between the position of each marker on the first image and the feature point extracted from the first image and the feature point extracted from the second image, the current pointing position is determined. And a step of detecting the pointing position detecting method.
前記コンピュータに、
特定のモードを設定する機能と、
前記特定のモードが設定されたときのみ、前記スクリーン上の投影画像の四箇所にマーカを表示させる機能と、
マーカ付きの投影画像をその周辺画像を含めて撮影した第1の画像を取得する機能と、
前記第1の画像に含まれる前記周辺画像から特徴点を抽出する機能と、
通常のモードにおいて、前記スクリーン上の投影画像をその周辺画像を含めて撮影した第2の画像を取得する機能と、
前記第2の画像に含まれる前記周辺画像から特徴点を抽出する機能と、
前記第1の画像上の前記各マーカの位置と、前記第1の画像から抽出された特徴点と前記第2の画像から抽出された特徴点との対応関係に基づいて、現在のポインティング位置を検出する機能と
を実現させることを特徴とするプログラム。 A program for detecting a position where an image read by a computer and projected on a screen is pointing,
In the computer,
The ability to set a specific mode,
Only when the specific mode is set, a function of displaying markers in four locations of the projected image on the screen;
A function of acquiring a first image obtained by photographing a projected image with a marker including its peripheral image;
A function of extracting feature points from the peripheral image included in the first image;
In a normal mode, a function of acquiring a second image obtained by capturing the projected image on the screen including its peripheral image;
A function of extracting feature points from the peripheral image included in the second image;
Based on the correspondence between the position of each marker on the first image and the feature point extracted from the first image and the feature point extracted from the second image, the current pointing position is determined. A program characterized by realizing a detection function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006171760A JP4710734B2 (en) | 2006-06-21 | 2006-06-21 | Pointing device, pointing position detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006171760A JP4710734B2 (en) | 2006-06-21 | 2006-06-21 | Pointing device, pointing position detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008003802A JP2008003802A (en) | 2008-01-10 |
JP4710734B2 true JP4710734B2 (en) | 2011-06-29 |
Family
ID=39008138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006171760A Expired - Fee Related JP4710734B2 (en) | 2006-06-21 | 2006-06-21 | Pointing device, pointing position detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4710734B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9229585B2 (en) | 2013-02-08 | 2016-01-05 | Ricoh Company, Limited | Projection system, image generating method, and computer-readable storage medium |
KR101810653B1 (en) | 2017-05-11 | 2017-12-21 | (주)피플리 | Method and apparatus for correction of location of projection image |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8144123B2 (en) * | 2007-08-14 | 2012-03-27 | Fuji Xerox Co., Ltd. | Dynamically controlling a cursor on a screen when using a video camera as a pointing device |
JP5408175B2 (en) | 2011-03-31 | 2014-02-05 | カシオ計算機株式会社 | Projection apparatus, projection method, and program |
JP5849560B2 (en) | 2011-09-20 | 2016-01-27 | セイコーエプソン株式会社 | Display device, projector, and display method |
JP5927845B2 (en) | 2011-11-01 | 2016-06-01 | セイコーエプソン株式会社 | Display device, display device control method, and program |
US9600091B2 (en) | 2012-01-05 | 2017-03-21 | Seiko Epson Corporation | Display device and display control method |
JP5979972B2 (en) * | 2012-05-17 | 2016-08-31 | 協立化学産業株式会社 | Esterified epoxy resin, method for producing the same, and curable composition containing the same |
JP6065433B2 (en) * | 2012-07-12 | 2017-01-25 | 株式会社リコー | Projection apparatus, projection system, and program |
US9904414B2 (en) | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
US9645678B2 (en) | 2012-12-18 | 2017-05-09 | Seiko Epson Corporation | Display device, and method of controlling display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0580925A (en) * | 1991-09-19 | 1993-04-02 | Hitachi Ltd | Pointing device for large-screen display |
JP2002215321A (en) * | 2001-01-19 | 2002-08-02 | Nissan Motor Co Ltd | Indicating image control device |
JP2004139206A (en) * | 2002-10-16 | 2004-05-13 | Nikon Gijutsu Kobo:Kk | Image display/shooting system |
-
2006
- 2006-06-21 JP JP2006171760A patent/JP4710734B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0580925A (en) * | 1991-09-19 | 1993-04-02 | Hitachi Ltd | Pointing device for large-screen display |
JP2002215321A (en) * | 2001-01-19 | 2002-08-02 | Nissan Motor Co Ltd | Indicating image control device |
JP2004139206A (en) * | 2002-10-16 | 2004-05-13 | Nikon Gijutsu Kobo:Kk | Image display/shooting system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9229585B2 (en) | 2013-02-08 | 2016-01-05 | Ricoh Company, Limited | Projection system, image generating method, and computer-readable storage medium |
KR101810653B1 (en) | 2017-05-11 | 2017-12-21 | (주)피플리 | Method and apparatus for correction of location of projection image |
Also Published As
Publication number | Publication date |
---|---|
JP2008003802A (en) | 2008-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4710734B2 (en) | Pointing device, pointing position detection method, and program | |
US10026207B2 (en) | Image display device, image display method and storage medium | |
JP2004318823A (en) | Information display system, information processing apparatus, pointing device and pointer mark displaying method in information display system | |
JP5970879B2 (en) | Projection system, projection method, program, and recording medium | |
JP6232730B2 (en) | Projector and control method | |
JP2013061552A (en) | Projector device and operation detection method | |
JP2001325069A (en) | Device and method for detecting position | |
CN111614947A (en) | Display method and display system | |
JP2018205506A (en) | Projection device, control method thereof, and program | |
JP2016139334A (en) | Information processing apparatus, information processing method, and computer program | |
JP6422118B2 (en) | Display system, information processing apparatus, and display method | |
US10341627B2 (en) | Single-handed floating display with selectable content | |
JP2018132799A (en) | Electronic blackboard system, electronic pen, display device and electronic pen position detection method | |
JP6253128B2 (en) | Display system, input device, display device, and display method | |
JP2015215720A (en) | Image display/photography system, photographing device, display device, method for displaying and photographing image, and computer program | |
JP2016184362A (en) | Input device, input operation detection method, and input operation detection computer program | |
JP2001148025A (en) | Device and method for detecting position, and device and method for detecting plane posture | |
JP2000259338A (en) | Input system, display system, presentation system and information storage medium | |
US11991481B2 (en) | Display method, information processing device, and non-transitory computer-readable storage medium storing program | |
JP2011112379A (en) | Image processing device and image processing program | |
JP6237028B2 (en) | Projection apparatus, projection method, and information processing system | |
JP6427888B2 (en) | Image display system, image display apparatus, and image display method | |
JP2017009664A (en) | Image projection device, and interactive type input/output system | |
JP2008135996A (en) | Information processing method and information processor | |
JP4478047B2 (en) | Information presentation apparatus, information presentation method, and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4710734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |