JP2001325069A - Device and method for detecting position - Google Patents

Device and method for detecting position

Info

Publication number
JP2001325069A
JP2001325069A JP2001062848A JP2001062848A JP2001325069A JP 2001325069 A JP2001325069 A JP 2001325069A JP 2001062848 A JP2001062848 A JP 2001062848A JP 2001062848 A JP2001062848 A JP 2001062848A JP 2001325069 A JP2001325069 A JP 2001325069A
Authority
JP
Japan
Prior art keywords
image
mark
marks
screen
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001062848A
Other languages
Japanese (ja)
Inventor
Yukinobu Ishino
行宣 石野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Nikon Gijutsu Kobo KK
Original Assignee
Nikon Corp
Nikon Gijutsu Kobo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Nikon Gijutsu Kobo KK filed Critical Nikon Corp
Priority to JP2001062848A priority Critical patent/JP2001325069A/en
Publication of JP2001325069A publication Critical patent/JP2001325069A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a compact and lightweight position detecting device and a method therefor, which have an extremely high flexibility operability and by which positions to be detected on a display image are easily detected even in the partial image pickup range of a displayed image. SOLUTION: This position detecting device is provided with an image pickup means 1 for picking up the images of a plurality of marks displayed is advance at prescribed positions on the prescribed plane, by matching those marks and positions to be detected on the prescribed plane with the center of the image pickup image, a mark-extracting means 51 for extracting the marks picked up by the image pickup means, a mark-specifying means 52 for specifying the number of marks smaller than the number of the displayed marks from the plurality of marks extracted by the mark extracting means, and a position- calculating means 53 for calculating the positions to be detected on the prescribed plane, on the basis of the mark position specified by the mark specifying means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、表示画面上の所望
の指示位置を検出する位置検出装置に関し、特に表示画
面に表示された基準情報を設けた画像に基づいて指示位
置を検出する位置検出方法及び位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position detecting device for detecting a desired pointing position on a display screen, and more particularly to a position detecting device for detecting a pointing position based on an image provided with reference information displayed on the display screen. The present invention relates to a method and a position detecting device.

【0002】[0002]

【従来の技術】最近コンピュータの表示画面に直接座標
入力したり、コンピュータ画面をプロジェクタによりス
クリーン上に投影しカーソル操作を行うことが頻繁に行
われている。特に大画面に投影された画像上をレーザー
ポインタ等により指示位置を特定して、コンピュータ本
体のコマンド実行操作、編集、拡大縮小などを行うこと
のできるポインティングデバイスが注目されている。こ
れらの従来例として、例えば特開平2−306294
号、特開平3−176718号公報、特開平4−305
687号公報、特開平6ー308879号公報、特開平
6−332612号公報、特開平7−121293号公
報、特開平7−191797、特開平10−18734
0号公報、特開平11−143629号公報などがあげ
られる。
2. Description of the Related Art Recently, it has been frequently performed to input coordinates directly on a display screen of a computer or to operate a cursor by projecting a computer screen onto a screen by a projector. In particular, a pointing device that can specify a pointing position on an image projected on a large screen with a laser pointer or the like and perform a command execution operation, editing, enlargement / reduction, or the like of a computer main body has attracted attention. As these conventional examples, for example, Japanese Patent Laid-Open No.
JP-A-3-176718, JP-A-4-305
687, JP-A-6-308879, JP-A-6-332612, JP-A-7-112293, JP-A-7-191797, JP-A-10-18734
0 and JP-A-11-143629.

【0003】代表的な従来例である特開平2−3062
94号公報は、プロジェクタにより投影されたスクリー
ン、スクリーン上の被検出位置を指示するレーザーポイ
ンタ、スクリーン上に向けられレーザーポインタの輝点
を検出するための固定CCDカメラから構成されてい
る。このCCDカメラにより所定時間毎にスクリーン上
のレーザー輝点を検出し、スクリーン上の輝点の位置を
検出しようとするものである。
[0003] Japanese Patent Laid-Open No. 2-3062, which is a typical conventional example,
No. 94 is composed of a screen projected by a projector, a laser pointer indicating a position to be detected on the screen, and a fixed CCD camera directed at the screen and detecting a bright point of the laser pointer. The CCD camera detects a laser luminescent spot on the screen at predetermined time intervals to detect the position of the luminescent spot on the screen.

【0004】カメラにより表示画面中のマーカ画像を抽
出して位置検出する位置検出装置の従来例として、特開
平7−121293号公報、特開平8−335136号
公報がある。特開平7ー121293号公報は表示画面
にマーカーを定めたフレーム毎に入れ、マーカー画像の
みを隣り合ったフレームの差分画像処理により抽出し、
そのマーカに基づいて指示位置の位置を検出する位置検
出装置が開示されている。
[0004] Japanese Patent Application Laid-Open Nos. Hei 7-112293 and Hei 8-335136 disclose conventional examples of position detecting devices for extracting a marker image on a display screen by a camera and detecting the position. Japanese Unexamined Patent Publication No. 7-121293 discloses that a marker is put on a display screen for each defined frame, and only a marker image is extracted by differential image processing of an adjacent frame.
A position detection device that detects the position of the designated position based on the marker is disclosed.

【0005】さらに、特開平8−335136号公報で
はマーカ画像により撮像の中心位置が表示画面に入って
いるか否かの判定、撮像画像中のスクリーン領域のサイ
ズと位置を演算する方法を用いている。特開平7ー26
1913号公報は固定カメラにより表示画面上の指示位
置を検出する装置であり、表示画像の予め指定された位
置に表示されたマークを撮像手段により撮影し、撮影領
域内の複数のマーク位置を求め、複数の指定位置とこれ
に対応する複数のマーク画像の位置とから位置校正情報
を作成し、撮像位置やレンズ収差に起因する歪みを軽減
する情報表示方法である。
Further, Japanese Patent Application Laid-Open No. 8-335136 discloses a method of judging whether or not a center position of image pickup is on a display screen by a marker image, and calculating the size and position of a screen area in the picked-up image. . JP-A-7-26
Japanese Patent No. 1913 is an apparatus for detecting a designated position on a display screen by a fixed camera, and photographing a mark displayed at a predetermined position on a display image by an image pickup means to obtain a plurality of mark positions in a photographing area. This is an information display method in which position calibration information is created from a plurality of designated positions and positions of a plurality of mark images corresponding to the designated positions, and distortion caused by an imaging position and lens aberration is reduced.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来の
マーカ画像による位置検出装置、例えば、特開平7−1
21293号公報及び特開平8−335136号公報で
は、指示者がディスプレイ画面に対して正面の位置で操
作することが前提となっている。これらの方法では、位
置検出装置の操作に制限があり、操作自由度が悪いもの
となっている。
However, a conventional position detecting apparatus using a marker image, for example, Japanese Patent Application Laid-Open No.
In JP-A-21293 and JP-A-8-335136, it is assumed that the instructor operates at a position in front of the display screen. In these methods, the operation of the position detection device is limited, and the degree of freedom of operation is poor.

【0007】また、これらのマーク画像の導入方法では
大画面の表示画面には対応できないという問題が生じ
る。また、特開平7−261913号公報は、指示点の
画像位置をマーク画像位置から作成された位置校正情報
を用いて補正することにより算出するものである。この
ように設置型のカメラでは表示画面を見る視野画面は固
定であるためこのような方法が可能であるが、指示位置
とカメラとが一体となった位置検出装置の場合は不可能
である。
Further, there is a problem that these mark image introducing methods cannot cope with a large display screen. In Japanese Patent Application Laid-Open No. Hei 7-261913, the calculation is performed by correcting the image position of the designated point using position calibration information created from the mark image position. As described above, such a method is possible in the stationary camera because the view screen for viewing the display screen is fixed. However, it is impossible in the case of a position detection device in which the pointing position and the camera are integrated.

【0008】本発明の目的は、表示されている画像の部
分的な撮像範囲であっても、表示画像上の被検出位置の
位置検出を可能とし、操作性の自由度が非常に高い、小
型で軽量な位置検出装置及びその方法を提供することで
ある。
An object of the present invention is to enable detection of a position to be detected on a display image even in a partial imaging range of a displayed image, and to provide a very small degree of operability. And a lightweight position detecting apparatus and method.

【0009】[0009]

【課題を解決するための手段】上述した問題点を解決す
るために、本発明の請求項1は、3次元空間内に置かれ
た所定平面上の被検出位置を検出する位置検出装置であ
って、前記所定平面上の予め所定の位置に表示された複
数のマークと、前記所定平面上の被検出位置を撮像画像
の中心に合わせ、前記複数のマークを撮像する撮像手段
と、前記撮像手段により撮像された前記マークを抽出す
るマーク抽出手段と、前記マーク抽出手段から抽出され
た複数のマークの中から表示されたマークより少ないマ
ークを特定するマーク特定手段と、前記マーク特定手段
により特定されたマークの位置に基づいて前記所定平面
の被検出位置を算出する位置姿勢算出手段とを備えたこ
とを特徴とする。
According to a first aspect of the present invention, there is provided a position detecting device for detecting a position to be detected on a predetermined plane in a three-dimensional space. A plurality of marks previously displayed at a predetermined position on the predetermined plane, a detection position on the predetermined plane being aligned with a center of a captured image, and an imaging unit for imaging the plurality of marks; Mark extracting means for extracting the mark imaged by the mark, mark specifying means for specifying less than the displayed mark from among the plurality of marks extracted from the mark extracting means, and mark specifying means for specifying the mark. And a position and orientation calculating means for calculating the detected position on the predetermined plane based on the position of the mark.

【0010】また、本発明の請求項10では、画像を表
示された表示画面上の被検出位置を検出する位置検出装
置であって、被検出位置を検出する画像上に予め設けら
れた基準画像を含めて表示する表示手段と、前記被検出
位置を検出する画像を撮像画像中心に合わせて、前記基
準画像を含めて撮像する撮像手段と、前記撮像手段によ
り撮像された基準画像に基づいて、被検出位置を検出す
る画像処理手段を備えたことを特徴とする。
According to a tenth aspect of the present invention, there is provided a position detecting device for detecting a detected position on a display screen on which an image is displayed, wherein the reference image is provided on the image for detecting the detected position. Display means for displaying, including, based on the reference image captured by the imaging means, and imaging means for capturing the image for detecting the detected position to the center of the captured image, including the reference image, An image processing means for detecting a detected position is provided.

【0011】さらに、本発明の請求項11では、画像を
表示された表示画面上の被検出位置を検出する位置検出
装置であって、被検出位置を検出する画像である第1の
画面と前記第1の画面に対応する位置に基準画像である
第2の画面とを表示する表示手段と、前記第1の画面の
被検出位置を画像中心に合わせて、前記第2の画面に表
示された基準画像を含めて撮像する撮像手段と、前記撮
像手段により撮像された第2の画面の基準画像に基づい
て第1の画面上の被検出位置を検出する画像処理手段を
備えたことを特徴とする。
Further, according to an eleventh aspect of the present invention, there is provided a position detecting device for detecting a detected position on a display screen on which an image is displayed, wherein the first screen is an image for detecting the detected position, Display means for displaying a second screen, which is a reference image, at a position corresponding to the first screen; and a detected position of the first screen being displayed on the second screen with the detected position of the first screen being aligned with the center of the image. An image pickup means for picking up an image including a reference image, and an image processing means for detecting a detected position on the first screen based on the reference image of the second screen picked up by the image pickup means. I do.

【0012】また、本発明の請求項17では、3次元空
間内に置かれた所定平面上の被検出位置を検出する位置
検出方法であって、前記所定平面上の予め所定の位置に
複数のマークを表示する表示ステップと、前記所定平面
上の被検出位置を撮像画像の中心に合わせる位置合わせ
ステップと、前記表示された複数のマークの中から少な
くとも4個を含めて撮像する撮像する撮像ステップと、
前記撮像された前記マークを抽出する抽出ステップと、
前記抽出ステップにて抽出された複数のマークの中から
前記所定平面の位置姿勢を算出するためのマークを特定
する特定ステップと、前記特定ステップにて特定された
マーク位置に基づいて前記所定平面の被検出位置を演算
する演算ステップとを含むことを特徴とする。
According to a seventeenth aspect of the present invention, there is provided a position detecting method for detecting a detected position on a predetermined plane placed in a three-dimensional space, wherein a plurality of positions are detected at predetermined positions on the predetermined plane. A display step of displaying a mark; an alignment step of aligning a detected position on the predetermined plane with a center of a captured image; and an imaging step of capturing an image including at least four of the displayed plurality of marks. When,
An extracting step of extracting the imaged mark;
A specifying step of specifying a mark for calculating the position and orientation of the predetermined plane from among the plurality of marks extracted in the extraction step, and a step of specifying the mark on the predetermined plane based on the mark position specified in the specifying step. And a calculating step of calculating the detected position.

【0013】[0013]

【発明の実施の形態】図1は実施の形態に係わる位置検
出装置の概念構成図である。図1はプロジェクタにより
投影されているスクリーン平面上の投影画像の被検出位
置Psを操作者が任意の位置から指し示し、投影画像上
の被検出位置の検出を行う位置検出方法の構成概念図で
ある。100は撮像手段を有する位置検出のための入力
手段である位置検出装置本体、110はスクリーン、1
20はパーソナルコンピュータ、130はプロジェクタ
である。また、111は座標検出対象となるスクリーン
上に投影されている画像である。 なお、位置検出装置
本体100はスクリーン平面110に対し任意な操作姿
勢位置で投影画像上の被検出位置Psを指し示すことが
できる。破線101は位置検出装置本体100に設けら
れている撮像手段1の撮像面の中心から垂直に表示画像
上の被検出位置まで延びている光軸である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a conceptual configuration diagram of a position detecting device according to an embodiment. FIG. 1 is a configuration conceptual diagram of a position detection method in which an operator points a detected position Ps of a projected image on a screen plane projected by a projector from an arbitrary position and detects the detected position on the projected image. . 100 is a position detection device main body which is input means for position detection having an image pickup means, 110 is a screen, 1
20 is a personal computer and 130 is a projector. Reference numeral 111 denotes an image projected on a screen as a coordinate detection target. The position detection device main body 100 can indicate the detected position Ps on the projection image at an arbitrary operation posture position with respect to the screen plane 110. A broken line 101 is an optical axis extending vertically from the center of the imaging surface of the imaging unit 1 provided in the position detection device main body 100 to a detected position on a display image.

【0014】また、投影画像上には9個のマークKiが
投影されている。これら複数のマークは、被検出位置を
検出するための基準画像であり、座標検出対象投影画像
111の矩形形状を特徴付ける特徴点である。図2、図
3は本発明の実施の形態に係わる位置検出装置の構成ブ
ロック図、図4は位置検出装置本体100の構成斜視図
である。
On the projected image, nine marks Ki are projected. These marks are reference images for detecting the detected position, and are characteristic points that characterize the rectangular shape of the coordinate detection target projection image 111. 2 and 3 are configuration block diagrams of a position detection device according to an embodiment of the present invention, and FIG. 4 is a configuration perspective view of a position detection device main body 100.

【0015】本実施の形態に係わる位置検出装置本体1
00は、画像処理手段5以外の位置検出装置の構成の全
てを備えている構成とした。図2の構成ブロック図にお
いて、1は撮像手段であり、撮像手段はレンズ光学系と
撮像素子とから構成されている。本実施の形態ではCC
D撮像素子を有するデジタルスチルカメラを用いたが、
ビデオカメラでもよい。
A position detecting device main body 1 according to the present embodiment.
Reference numeral 00 denotes a configuration including all the components of the position detecting device except the image processing unit 5. In the configuration block diagram of FIG. 2, reference numeral 1 denotes an imaging unit, and the imaging unit includes a lens optical system and an imaging element. In the present embodiment, CC
Although a digital still camera having a D imaging device was used,
It may be a video camera.

【0016】また、撮像手段1には被写体である平面上
の被検出位置を特定するため予め基準位置が定められて
いる。本実施の形態では基準位置は撮像面の中心とし、
画像座標系(X−Y座標系)の原点Omとしてある。2
は撮像手段により撮像された画像データをデジタル画像
データとするA/D変換手段である。3はA/D変換さ
れたデジタル画像データはCCD撮像面の各画素に対応
したアドレス毎に一時的に記憶できるフレームメモリで
ある。
Further, a reference position is previously defined in the image pickup means 1 for specifying a position to be detected on a plane which is a subject. In the present embodiment, the reference position is the center of the imaging surface,
It is the origin Om of the image coordinate system (XY coordinate system). 2
A / D conversion means for converting image data picked up by the image pickup means into digital image data. Reference numeral 3 denotes a frame memory capable of temporarily storing A / D converted digital image data for each address corresponding to each pixel on the CCD imaging surface.

【0017】このフレームメモリは連続撮像が記憶でき
るように数十MB程度記憶できる容量を有している。4
は制御手段である。この制御手段4はROM(不図示)
を備えており、透視射影演算処理するプログラムや各種
制御プログラムなどが格納されている。
This frame memory has a capacity capable of storing about several tens of MB so that continuous imaging can be stored. 4
Is control means. The control means 4 is a ROM (not shown)
And stores a program for performing a perspective projection operation process, various control programs, and the like.

【0018】5は画像処理手段である。本実施例では図
7のパソコン側にて画像処理する構成としてある。画像
処理手段5は、撮像され取り込まれた画像データに基づ
いて、3次元空間内の平面上のいずれかに配置された矩
形形状を特徴付ける特徴点を抽出する特徴点抽出手段5
1と、抽出された特徴点の座標位置に基づいて被検出位
置演算処理を行う位置演算手段52とから構成される。
Reference numeral 5 denotes an image processing means. In this embodiment, the image processing is performed on the personal computer side in FIG. The image processing unit 5 extracts feature points that characterize a rectangular shape arranged anywhere on a plane in a three-dimensional space based on image data captured and captured.
1 and a position calculating means 52 for performing a detected position calculating process based on the coordinate positions of the extracted feature points.

【0019】この特徴点抽出手段51には、フレームメ
モリに一時的に呼び込まれた画像データが矩形平面の特
徴点を抽出したか否か判断する抽出判断手段(不図示)
を備えている。 この抽出判断手段を備えることによ
り、もし抽出判断手段において特徴点が抽出できなかっ
た場合に警告音を発し、再度画像の取り込みを操作者に
指示することができる。
The feature point extracting means 51 includes an extraction judging means (not shown) for judging whether or not the image data temporarily called into the frame memory has extracted feature points on a rectangular plane.
It has. By providing the extraction judging means, if the extraction judging means fails to extract a feature point, a warning sound is emitted and the operator can be instructed to take in the image again.

【0020】また、位置演算手段52は3次元空間(X
−Y−Z座標系)内における撮像面に対する所定平面の
姿勢位置を演算する平面姿勢演算手段521と、所定平
面上の被検出位置の座標を演算する座標演算処理手段5
22とから構成される。図3は平面姿勢演算手段522
の詳細構成ブロック図である。
Further, the position calculating means 52 has a three-dimensional space (X
-YZ coordinate system), a plane attitude calculating means 521 for calculating the attitude position of a predetermined plane with respect to the imaging surface, and a coordinate calculation processing means 5 for calculating coordinates of a detected position on the predetermined plane.
22. FIG. 3 shows a plane posture calculating means 522.
FIG. 2 is a detailed block diagram of the configuration of FIG.

【0021】平面姿勢演算手段521は、消失点算出手
段5211、消失直線算出手段5212、消失特徴点算
出手段5213、画像座標系変換手段5214及び透視
射影変換手段5215とから構成されている。6Aは光
ビーム照射手段であり、LED発光素子や半導体レーザ
ー発生器が用いられる。光ビーム照射手段2は被検出位
置を指示する視認性のある光を発するものであればよ
く、プレゼンテーションや会議の際、操作者が指示する
箇所を特定できる汎用のレーザーポインタでよい。
The plane attitude calculating means 521 comprises a vanishing point calculating means 5211, a vanishing line calculating means 5212, a vanishing feature point calculating means 5213, an image coordinate system converting means 5214, and a perspective projection converting means 5215. Reference numeral 6A denotes a light beam irradiation means, which uses an LED light emitting element or a semiconductor laser generator. The light beam irradiating means 2 may be any one that emits visible light that indicates a position to be detected, and may be a general-purpose laser pointer that can specify a position specified by an operator during a presentation or a meeting.

【0022】図5は図4で示した光ビーム照射手段6A
を用いた位置検出装置本体の光学系の第1の例である。
光ビーム照射手段として赤外線レーザーを用いた例であ
る。電源がONされると60光源から61コリメートレ
ンズで平行となったレーザー光は、62ミラーを介し、
撮像光学系の中心軸上に設けられた13ミラーにより反
射され所定平面上に輝点ととして導かれる。撮像光学系
は12は撮像レンズと11はCCDとから構成されてい
る。位置検出装置本体から出射されるポインティング用
レーザーの光軸が、撮像光学系の光軸と一致するような
光学系となっている。ミラー13は赤外線レーザーを反
射させ、可視光を透過するようなハーフミラーである。
FIG. 5 shows the light beam irradiation means 6A shown in FIG.
1 is a first example of an optical system of a position detecting device main body using the present invention.
This is an example in which an infrared laser is used as a light beam irradiation unit. When the power is turned on, the laser light parallelized by the 61 collimating lens from the 60 light sources passes through the 62 mirror,
The light is reflected by 13 mirrors provided on the central axis of the imaging optical system, and is guided as a bright spot on a predetermined plane. The imaging optical system includes an imaging lens 12 and a CCD 11. The optical system is such that the optical axis of the pointing laser emitted from the position detecting device main body coincides with the optical axis of the imaging optical system. The mirror 13 is a half mirror that reflects an infrared laser and transmits visible light.

【0023】ポインティング用レーザーは表示画面上の
被検出位置を確認できればよく、撮像時にはOFFされ
る。従って、ミラー13は撮像する時にはミラーアップ
するような機構にしても良い。光ビーム照射手段6Aに
より照射された所定平面上の被検出位置が撮像面上の基
準位置と合致するように、光ビーム照射手段6Aと撮像
手段1とが予め決められた位置関係で設けられている。
図では撮像レンズの光軸とレーザー照射光学系の光軸と
が一致するようにしてあるが、レーザー光は視認するだ
けであるので、所定平面上の輝点が被検出位置近傍にあ
ればよく、必ずしも一致しなくてもよい。
The pointing laser only needs to be able to confirm the position to be detected on the display screen, and is turned off during imaging. Therefore, the mirror 13 may have a mechanism that raises the mirror when capturing an image. The light beam irradiating means 6A and the imaging means 1 are provided in a predetermined positional relationship such that the detected position on a predetermined plane irradiated by the light beam irradiating means 6A matches the reference position on the imaging surface. I have.
In the figure, the optical axis of the imaging lens and the optical axis of the laser irradiation optical system are made to coincide with each other. However, since the laser light is only visually recognized, it is sufficient that the bright spot on the predetermined plane is near the detected position. , Do not necessarily have to match.

【0024】7はレーザー照射ボタン、8はシャッター
ボタン(第1操作手段)である。7、8は、2段スイッ
チとなっており、1段目を押すと単に赤外線レーザーを
照射するだけで被検出位置を指し示すだけでオフされ
る。さらに2段目を押すことにより、撮像手段のシャッ
ターが切れ、画像を取り込めるようになっている。
Reference numeral 7 denotes a laser irradiation button, and 8 denotes a shutter button (first operation means). Reference numerals 7 and 8 denote two-stage switches, and when the first stage is pressed, they are turned off simply by irradiating the infrared laser and pointing to the detected position. By further pressing the second stage, the shutter of the imaging means is released, and an image can be captured.

【0025】9は出力信号処理部である。本実施例のよ
うに画像処理手段5がパソコン側に備えているので、こ
の出力処理手段では撮像された画像データをパーソナル
コンピュータなどの外部機器へ送出する。出力信号処理
手段9として画像データ出力信号をワイヤレス信号とし
て送出できる送信手段を用いれば、装置の操作性は格段
に広がり効果的である。
Reference numeral 9 denotes an output signal processing unit. Since the image processing means 5 is provided on the personal computer side as in the present embodiment, the output processing means sends the captured image data to an external device such as a personal computer. If a transmission means capable of transmitting an image data output signal as a wireless signal is used as the output signal processing means 9, the operability of the apparatus is greatly expanded and effective.

【0026】図6は、被検出位置に基準位置を合わせる
方法として光照射ビーム手段に代え、視準手段6Bを備
えた位置検出装置本体の光学系の第2の例である。視準
手段6Bには予め撮像面上の基準位置と一致する位置に
十字線74が刻まれており、この十字線の位置を被検出
位置に合わせて、撮像することにより所定平面上の被検
出位置が検出される。 このように撮像時に視準手段を
設けたファインダーや光ビーム照射手段などを用いるこ
とにより、予め定められた撮像面上の基準位置に合って
いる状態で撮像が行われるようにしている。従って、基
準位置は撮像レンズの光軸が撮像面を切る点、すなわ
ち、撮像画像の中心としてあるので、操作者が被検出位
置に基準位置を合わせる操作を行わなくとも、表示画面
を見ながら撮像手段を被検出位置の方向に向けるだけで
も位置検出操作することは可能である。
FIG. 6 shows a second example of the optical system of the position detecting device body provided with the collimating means 6B instead of the light irradiation beam means as a method of adjusting the reference position to the detected position. In the collimating means 6B, a cross line 74 is previously engraved at a position corresponding to the reference position on the imaging surface. The position is detected. By using a finder provided with collimating means, a light beam irradiating means, and the like at the time of image capturing, image capturing is performed in a state where the image matches a predetermined reference position on the image capturing surface. Therefore, the reference position is located at the point where the optical axis of the imaging lens cuts the imaging surface, that is, the center of the captured image. It is possible to perform the position detection operation only by turning the means in the direction of the detected position.

【0027】本実施の形態に係わる位置検出装置本体の
構成は、撮像手段1を備えた位置検出装置本体100と
画像処理手段5とを別体とし、画像処理手段5をパソコ
ンなど外部機器の内部記憶装置や外部記録媒体に備える
ようにしたが、撮像手段と画像処理手段とを一体にした
位置検出装置本体100としても良い。
The configuration of the position detecting device main body according to the present embodiment is such that the position detecting device main body 100 provided with the imaging means 1 and the image processing means 5 are separated from each other, and the image processing means 5 is provided inside an external device such as a personal computer. Although the storage device and the external recording medium are provided, the position detection device main body 100 may include an imaging unit and an image processing unit.

【0028】14、15はコマンド実行出力ボタン(第
2操作手段)及びポップアップメニューボタンである。
第2操作手段14は通常のマウスカーソルの左クリック
ボタンのダブルクリックに相当し、画面上のアイコン、
図、テキストなど動作対象オブジェクトにカーソル位置
を合わせコマンド実行信号を送出するボタンである。
Reference numerals 14 and 15 denote a command execution output button (second operation means) and a pop-up menu button.
The second operation means 14 corresponds to a double click of a normal mouse cursor left click button, and includes an icon on the screen,
This button is used to send a command execution signal by aligning the cursor position with an operation target object such as a figure or text.

【0029】ポップアップメニューボタン15は通常の
マウスカーソルの右クリックボタンに相当する。カーソ
ル表示している位置でポップアップメニュー表示を行う
動作である。本実施の形態では、通常のマウスカーソル
の基本動作であるカーソル位置を決めるシングルクリッ
ク動作と対象オブジェクトにカーソル位置を合わせオブ
ジェクトを移動させるドラッグ動作は、シャッターボタ
ン(第1操作手段)8を用いて行われる。
The pop-up menu button 15 corresponds to a right-click button of a normal mouse cursor. This is an operation for displaying a pop-up menu at the position where the cursor is displayed. In the present embodiment, the shutter button (first operation means) 8 is used for a single click operation for determining a cursor position, which is a basic operation of a normal mouse cursor, and a drag operation for moving an object by aligning the cursor position with a target object. Done.

【0030】次に、位置検出装置本体から出力された撮
像画像データやコマンド実行信号を入力するパーソナル
コンピュータのブロック構成について説明する。図7は
パーソナルコンピュータの構成ブロック図である。画像
処理手段5の詳細な説明は前述したのでここでは省く。
Next, the block configuration of a personal computer for inputting captured image data and command execution signals output from the position detection device body will be described. FIG. 7 is a configuration block diagram of a personal computer. Since the detailed description of the image processing means 5 has been described above, it is omitted here.

【0031】120はパーソナルコンピュータ(以後パ
ソコンと呼ぶ)本体、121はディスプレイと接続され
ている。130はプロジェクタであり、パソコン本体に
接続され、パソコン画面をスクリーン上に投影する。そ
の時、ディスプレイ122はなくても良い。
Reference numeral 120 denotes a main body of a personal computer (hereinafter referred to as a personal computer), and 121 is connected to a display. Reference numeral 130 denotes a projector, which is connected to the personal computer and projects the personal computer screen on the screen. At that time, the display 122 may not be provided.

【0032】121は受信手段であり、位置検出装置本
体から出力された撮像画像データやコマンド実行信号を
受信する。位置検出装置本体から受信した被検出位置信
号が含めれている撮像データは、画像処理手段にて処理
され被検出位置信号として出力される。
Reference numeral 121 denotes a receiving unit that receives the captured image data and the command execution signal output from the position detecting device main body. The imaging data including the detected position signal received from the position detecting device main body is processed by the image processing means and output as the detected position signal.

【0033】124はカーソル動作を制御するためのカ
ーソル制御手段(マウスドライバに相当)である。カー
ソル制御手段124は被検出位置信号をパソコン画面上
の座標系のカーソル位置信号に変換し出力するカーソル
位置制御手段125とカーソルの形状や色などを制御す
るカーソル表示制御手段126とを具備している。
Reference numeral 124 denotes cursor control means (corresponding to a mouse driver) for controlling a cursor operation. The cursor control means 124 includes a cursor position control means 125 for converting a detected position signal into a cursor position signal of a coordinate system on a personal computer screen and outputting the same, and a cursor display control means 126 for controlling the shape and color of the cursor. I have.

【0034】また、 カーソル制御手段126はOS
(オペレーティングシステム)やアプリケーションプロ
グラムに組み込むことができる。次に、本実施の形態に
係わる位置検出装置の基本動作について説明する。図8
は本実施の形態の装置の基本動作を説明するフローチャ
ートである。
The cursor control means 126 is an OS
(Operating system) and application programs. Next, the basic operation of the position detecting device according to the present embodiment will be described. FIG.
5 is a flowchart illustrating a basic operation of the apparatus according to the present embodiment.

【0035】ステップS100で検出装置の電源がON
する。ステップS101において3次元空間内の複数の
特徴点を含む表示平面上において検出しようとする被検
出位置に画像座標系の撮像面に予め定められた基準位置
を合わせる。本実施の形態おいては、この基準位置は撮
像レンズの光軸が撮像面を切る点、すなわち、撮像画像
の中心としてある。
In step S100, the power of the detecting device is turned on.
I do. In step S101, a predetermined reference position on the imaging surface of the image coordinate system is adjusted to a detected position to be detected on a display plane including a plurality of feature points in a three-dimensional space. In the present embodiment, the reference position is a point where the optical axis of the imaging lens cuts off the imaging surface, that is, the center of the captured image.

【0036】ステップS102ではこの合わせた状態で
撮像手段のシャッター8をONにし、画像を取り込む。
取り込まれた画像は画像データ信号処理されフレームメ
モリに格納され、ステップS103において予め抽出し
ようとする幾何学的特徴点が抽出され、画像座標系にお
いて矩形形状を特徴づける4個のマークの重心位置座標
q1,q2,q3,q4が特定される。その時、ステップS
104では予め決められた幾何学的特徴点が正確に抽出
されたか否か判断する。正確に抽出されなかった場合、
ステップS105において警告音を発し、再度撮像手段
により取り込むよう操作者に伝えられる。予め定められ
た幾何学的特徴点が抽出されれば、次のステップS10
6に進む。
In step S102, the shutter 8 of the imaging means is turned on in this state, and an image is taken.
The captured image is subjected to image data signal processing and stored in a frame memory. In step S103, geometric feature points to be extracted in advance are extracted, and the barycentric position coordinates of four marks characterizing a rectangular shape in an image coordinate system. q1, q2, q3, q4 are specified. At that time, step S
At 104, it is determined whether or not a predetermined geometric feature point has been correctly extracted. If not extracted correctly,
In step S105, a warning sound is emitted, and the operator is instructed to take in again by the imaging means. If a predetermined geometric feature point is extracted, the next step S10
Proceed to 6.

【0037】ステップS106では3次元空間内の所定
平面の姿勢位置や被検出位置の座標位置が演算処理され
る。このステップS106の詳細は後述する。ステップ
S107では演算処理処理され算出された値を表示手段
(不図示)や外部機器などに合わせ信号処理され出力さ
れる。
In step S106, the posture position of the predetermined plane in the three-dimensional space and the coordinate position of the detected position are calculated. The details of step S106 will be described later. In step S107, the calculated value is subjected to signal processing according to a display unit (not shown) or an external device, and output.

【0038】次に、画像処理手段5の各構成および動作
について詳細に説明する。 (a)特徴点抽出 まず最初に特徴点抽出手段51の詳細な構成ならびに基
本動作について説明する。ここでは矩形形状を特徴づけ
る複数のマークが特徴点に相当する。
Next, each configuration and operation of the image processing means 5 will be described in detail. (A) Feature point extraction First, the detailed configuration and basic operation of the feature point extraction means 51 will be described. Here, a plurality of marks characterizing a rectangular shape correspond to feature points.

【0039】図2に示すように特徴点抽出手段51は差
分処理手段511,二値化処理手段512、特徴点座標
特定手段513、マーク判別手段514、位置検出用マ
ーク特定手段515から構成される。差分処理手段51
1では輝度又は濃淡の状態が異なる2種類の画像を撮像
し、この2つの画像を差分処理を行う。二値化処理手段
512では差分処理された画像を各画素毎全画素にわた
り、予め決められたしきい値により二値化処理しマーク
を抽出する。
As shown in FIG. 2, the feature point extracting means 51 comprises a difference processing means 511, a binarization processing means 512, a feature point coordinate specifying means 513, a mark discriminating means 514, and a position detecting mark specifying means 515. . Difference processing means 51
In step 1, two types of images having different brightness or gray levels are captured, and the two images are subjected to a difference process. The binarization processing means 512 binarizes the image subjected to the difference processing over all pixels for each pixel by a predetermined threshold value and extracts a mark.

【0040】特徴点座標特定手段513では各マークの
面積、重心を算出し、マーク位置座標を特定するラベリ
ング処理が行われる。さらに、マーク判別手段514で
は算出された全マークの中から撮像画像の中心位置すな
わち被検出位置に最も近いマークの面積を基準として他
のマーク面積と比較し、マークとして選択するか否かを
判別する。
The feature point coordinate specifying means 513 calculates the area and the center of gravity of each mark and performs labeling processing for specifying the mark position coordinates. Further, the mark discriminating unit 514 compares the calculated mark with the area of the mark closest to the center position of the captured image, that is, the mark position closest to the detected position, as a reference, and judges whether or not to select the mark as a mark. I do.

【0041】位置検出用マーク特定手段515では、マ
ーク判別手段により判別された複数のマークの中から透
視射影変換手段で実行される演算のための矩形形状を特
徴付ける4個のマークを特定する。次に、基準画像とし
て用いる濃度(または輝度)の異なるマーク原画像の配
列及び色判別について詳細に説明する。
The position detecting mark specifying means 515 specifies four marks characterizing a rectangular shape for a calculation to be executed by the perspective projection converting means from among the plurality of marks determined by the mark determining means. Next, the arrangement and color discrimination of mark original images having different densities (or luminance) used as reference images will be described in detail.

【0042】(a1)基準画像及びその表示方法 本実施の形態は、予め複数の特徴点(マーク)が配置さ
れた位置検出対象表示画面の一部を撮像する際、少なく
とも4個のマークを含むように撮像し、これら4個のマ
ークの座標を検出することにより位置検出しようとする
ものである。
(A1) Reference Image and Display Method Thereof This embodiment includes at least four marks when capturing a part of a position detection target display screen on which a plurality of feature points (marks) are previously arranged. As described above, the position is detected by capturing an image and detecting the coordinates of these four marks.

【0043】まず最初に、予め所定の位置に配置された
マーク配列及びマークを設けた基準画像の表示方法につ
いて説明する。図9(a),(b)は、複数のマークを
設けた2枚の位置検出用基準画像である。図9(a)は
画面全体に3×3格子状に9個の四角形状のマークK
(i=1〜9)を配置し、これら複数のマークの中から
矩形形状を特徴づける少なくとも4個のマークが撮像で
きるようにしてある第1の位置検出用基準画像(第1フ
レーム基準画像)である。本実施例におけるこれら9個
のマーク配列は、中心位置K5に1個G(緑)色マー
ク、中心列上下位置K2,K8にはB(青)色マーク、
中心行左右位置K4、K6にはR(赤)色マーク、4隅
の位置K1,K3,K7,K9にはマゼンダ(E)を配
置した。図中には、4つの表示画面領域それぞれにτ
1、τ2、τ3、τ4を付した。また、図9(b)は第
1の位置検出用基準画像のマークそれぞれに対応する位
置に9個全てBL(黒色)マークを配置した第2の位置
検出用基準画像である。
First, a description will be given of a method of displaying a reference image provided with a mark array and marks arranged at predetermined positions in advance. 9A and 9B are two position detection reference images provided with a plurality of marks. FIG. 9A shows nine square marks K in a 3 × 3 grid pattern over the entire screen.
(I = 1 to 9), and a first position detection reference image (first frame reference image) in which at least four marks characterizing a rectangular shape can be captured from among the plurality of marks. It is. In the present embodiment, these nine mark arrangements include one G (green) mark at the center position K5, a B (blue) mark at the center column vertical position K2, K8,
An R (red) mark is arranged at the center row left and right positions K4 and K6, and a magenta (E) is arranged at the four corner positions K1, K3, K7 and K9. In the figure, τ is assigned to each of the four display screen areas.
1, τ2, τ3, τ4 are given. FIG. 9B is a second position detection reference image in which all nine BL (black) marks are arranged at positions corresponding to the marks of the first position detection reference image.

【0044】これら2枚の基準画像をを含んだ画像を時
系列的に画像表示し、撮像手段を設けた位置検出装置本
体100により撮像し、これら2枚の撮像画像の差分処
理を行うことにより複数のマークのみを検出しようとす
るものである。なお、基準画像にマークを設ける際、マ
ークの形状、色、個数及び配列を位置検出対象画像の大
きさやカメラ特性、撮像条件などに応じて適宜選択す
る。
An image including these two reference images is displayed in a time-series manner, imaged by the position detecting device main body 100 provided with an image pickup means, and a difference process between these two picked-up images is performed. It is intended to detect only a plurality of marks. When the mark is provided on the reference image, the shape, color, number, and arrangement of the marks are appropriately selected according to the size of the position detection target image, camera characteristics, imaging conditions, and the like.

【0045】このように2つの基準画像の所定の位置に
複数のマークを配置することにより、表示画面全体を撮
像しなくても予め表示画面とマークとの位置関係が既知
である4個のマークを含む一部分を撮像できれば全表示
画面上の被検出位置座標を特定することができる。また
同時に、位置検出しようとしている表示画面に対して位
置検出装置の撮像面がどのような状態で撮像されたかが
特定できる。
By arranging a plurality of marks at predetermined positions of the two reference images in this manner, four marks whose positional relationship between the display screen and the marks is known in advance without having to image the entire display screen. Can be identified, the coordinates of the detected position on the entire display screen can be specified. At the same time, it is possible to specify how the imaging surface of the position detection device is imaged on the display screen whose position is to be detected.

【0046】このような方法によれば、撮像手段に用い
る撮像レンズは超広角レンズを用いることなく、低コス
ト化ができる。さらには、マークの個数、配列方法を工
夫することにより、本実施例にとどまらず、広い分野で
使用可能である。本実施例の基準画像の表示方法は、、
位置検出対象画面上に複数のマーカが配置された基準画
像が表示された状態の表示画面である。
According to such a method, the cost can be reduced without using an ultra-wide-angle lens for the imaging lens used for the imaging means. Further, by devising the number and arrangement method of the marks, the present invention can be used in a wide range of fields other than this embodiment. The display method of the reference image of the present embodiment is as follows.
5 is a display screen in a state where a reference image in which a plurality of markers are arranged is displayed on a position detection target screen.

【0047】本実施例の基準画面の表示方法は、図1に
示すように、パソコンのウインドウ表示画面がプロジェ
クタによりスクリーン上の位置検出をしようとする対象
画像111上に基準画像Kが重畳させて投影表示させて
ある。なお、重畳させて表示させなくとも、位置検出対
象画面を第1のウインドウ画面、基準画像を第2のウイ
ンドウ画面として、撮像動作タイミングに同期させてウ
インドウ画面を切り替えるようにしてもよい。
As shown in FIG. 1, the method of displaying the reference screen of this embodiment is such that the reference image K is superimposed on the target image 111 whose window display screen of the personal computer is to be detected on the screen by the projector. It is projected and displayed. Note that the window screen may be switched in synchronization with the imaging operation timing, with the position detection target screen serving as the first window screen and the reference image serving as the second window screen, without being superimposed and displayed.

【0048】(a2)マーク抽出及び色判別 次に、これら複数のマークの中から位置検出用のマーク
として少なくとも4個のマークを検出する特徴点抽出手
段の動作について説明する。図10は、4個のマークを
撮像し、各マークの色判別及び座標値を特定するまでの
特徴点抽出手段の動作処理フローチャートである。
(A2) Mark Extraction and Color Discrimination Next, the operation of the feature point extracting means for detecting at least four marks as position detection marks from among the plurality of marks will be described. FIG. 10 is a flowchart of the operation of the feature point extracting means from imaging four marks to identifying the color of each mark and specifying the coordinate value.

【0049】ステップS302、S303はスクリーン
上に投影されている基準画像であるマークを撮像画像と
して取り込む動作である。本実施例は差分画像処理方法
を用いているため、色又は輝度の異なるマークを含む2
つのフレーム画像を時系列的に撮像取り込み、矩形形状
を特徴づける位置検出用マークのみを抽出することにあ
る。
Steps S302 and S303 are operations for taking in a mark, which is a reference image projected on the screen, as a captured image. In the present embodiment, since the difference image processing method is used, 2
One frame image is captured and captured in time series, and only a position detection mark characterizing a rectangular shape is extracted.

【0050】ステップS301では1枚目のマークを含
む第1の画像の撮像取込が行われ、ステップS302で
は、2枚目のマークを第2の画像の撮像取込が行われ
る。ステップS303では、取り込まれた2枚の撮像画
像について差分処理し、ステップS304ではRGB各
色毎に予め決められたしきい値により2値化処理し抽出
する。 2値化処理された後、ステップS305で各マ
ークの色、形状を判別し、ステップS306で各マーク
の重心位置を求めるための面積を計算する。
In step S301, the first image including the first mark is captured and captured. In step S302, the second mark is captured and captured in the second image. In step S303, difference processing is performed on the two captured images, and in step S304, binarization processing is performed using a predetermined threshold value for each of the RGB colors and extracted. After the binarization processing, the color and shape of each mark are determined in step S305, and the area for calculating the center of gravity of each mark is calculated in step S306.

【0051】ステップS307は、ステップS306で
各マークの面積が算出された後、抽出されたマークが位
置検出用マークとして用いることができるか否かのマー
ク判別処理を行う。複数のマークを撮像する際、マーク
の一部しか撮像されないことがしばしば生じる。また、
本実施例の撮像面はスクリーン表示面に対し任意な位置
にて操作され検出されるマーク形状も透視効果の影響を
受けることになり、その結果、マークの面積は撮像位置
に応じて様々な値をとることになる。これらの問題に対
処するために、本実施例における判別処理方法では、撮
像画像中心位置に最も隣接したマーク面積(SG)を基
準にして、それぞれ複数の各マーク面積(SKi)に対す
る比率Cを予め決めて判別するようにする方法を用い
た。例えば、Ci(=SKi/SG)が50%以下のときに
は抽出すべきマークとは見なさないようにする。このよ
うな方法によれば、操作位置に伴う透視効果に影響され
ることなく判別が可能となる。
In step S307, after the area of each mark is calculated in step S306, mark determination processing is performed to determine whether or not the extracted mark can be used as a position detection mark. When imaging a plurality of marks, it often happens that only a part of the mark is imaged. Also,
In the imaging surface of this embodiment, the mark shape operated and detected at an arbitrary position with respect to the screen display surface is also affected by the perspective effect. As a result, the area of the mark has various values depending on the imaging position. Will be taken. In order to deal with these problems, in the discrimination processing method according to the present embodiment, a ratio C to a plurality of mark areas (S Ki ) is determined based on the mark area (S G ) closest to the center position of the captured image. Was determined in advance. For example, when Ci (= S Ki / S G ) is 50% or less, it is not regarded as a mark to be extracted. According to such a method, the determination can be made without being affected by the perspective effect accompanying the operation position.

【0052】ステップS308では位置検出するための
マークが4個以上抽出されたか否か判別される。次の、
ステップS309では各マークの重心座標位置、色の判
別及びマーク位置特定が行われる。マーク位置特定処理
については後述する。マーク抽出処理する撮像画像デー
タは、撮像手段から出力信号がビデオ信号である場合、
マーク輝度状態が異なる第1及び第2の画像を2フレー
ム(1フレーム1/30sec)連続して時系列的に2枚
の撮像画像である。
In step S308, it is determined whether four or more marks for position detection have been extracted. next,
In step S309, the barycentric coordinate position and color of each mark are determined, and the mark position is specified. The mark position specifying process will be described later. The picked-up image data to be subjected to the mark extraction processing is, when the output signal from the imaging means is a video signal
The first and second images having different mark luminance states are two captured images in a time series in two frames (1/30 sec per frame).

【0053】本実施の形態ではR(赤)、G(緑)、B
(青)、E(マゼンダ)の各色マークを含んだ第1フレ
ーム画像とBL(黒)色マークを含んだ第2フレーム画
像とが撮像され、差分処理が行われる。その後に色抽出
処理が行われる。ビデオ出力信号は、映像信号と同期信
号とのコンポジットビデオ信号であり、A/D変換手段
によりデジタル信号に変換される。変換された出力信号
はマトリックス回路(不図示)によりRGB出力信号又
は輝度信号/色差信号などに分離される。これら出力信
号を用いて、色判別処理が行われる。本実施例ではRG
B出力信号でも輝度信号/色差信号いずれの出力信号を
用いてもよい。
In this embodiment, R (red), G (green), B
A first frame image including the (blue) and E (magenta) color marks and a second frame image including the BL (black) color mark are captured, and a difference process is performed. Thereafter, a color extraction process is performed. The video output signal is a composite video signal of a video signal and a synchronization signal, and is converted into a digital signal by A / D conversion means. The converted output signal is separated into an RGB output signal or a luminance signal / color difference signal by a matrix circuit (not shown). A color discrimination process is performed using these output signals. In this embodiment, RG
The output signal of either the luminance signal or the color difference signal may be used for the B output signal.

【0054】次に、各色毎得られた差分画像を予め設定
しておいた上限及び下限しきい値Thu、Thbにより2
値化処理し、各色別にマークが検出される。なお、本実
施の形態で用いられる色抽出方法は、従来技術による方
法であるので詳細な説明は省く。
Next, the difference image obtained for each color is calculated based on the preset upper and lower threshold values Thu and Thb.
The value processing is performed, and a mark is detected for each color. Note that the color extraction method used in the present embodiment is a method according to the related art, so a detailed description is omitted.

【0055】どんな色抽出方法であっても、投影又は表
示されているマークを撮像する場合、プロジェクタなど
投影表示する機器や撮像時の使用環境などにより生じる
シェーディング、ホワイトバランス、色ズレなど様々な
問題により、撮像された色と所定の色とが異なることが
多々生じる。このような問題に対応するため、位置検出
動作の初期設定時に、使用環境に応じて上限及び下限し
きい値の設定調整ができるようにしておくとよい。
Regardless of the color extraction method, when capturing an image of a projected or displayed mark, various problems such as shading, white balance, and color misregistration that occur due to a projection display device such as a projector and a use environment at the time of imaging. As a result, the captured color often differs from the predetermined color. In order to cope with such a problem, it is preferable that the setting of the upper and lower thresholds can be adjusted according to the use environment at the time of initial setting of the position detection operation.

【0056】なお、本実施例では4種類の色マークを用
いて位置判別を行っているが、位置判別が可能であれば
複数の色でなくともよい。 (a3)マーク位置特定処理 次に、検出された複数のマークの中から4個の位置検出
用マークの座標値を特定する処理について説明する。
In this embodiment, the position is determined by using four types of color marks. However, if the position can be determined, the colors need not be a plurality of colors. (A3) Mark Position Specifying Process Next, a process of specifying the coordinate values of four position detecting marks from among a plurality of detected marks will be described.

【0057】予め基準画像に設けられた複数のマーク
は、表示画面に対する位置検出する操作位置、レンズ性
能、撮影状態などにより大きく影響され、検出されるマ
ークの形状、面積、個数、位置が変化する。図11、図
12は、ある操作位置から複数のマークを含めて表示画
面の一部を撮像した時の代表的な撮像画像の例である。
The plurality of marks provided in the reference image in advance are greatly affected by the operation position for detecting the position on the display screen, the lens performance, the photographing state, and the like, and the shape, area, number, and position of the detected marks change. . FIG. 11 and FIG. 12 are examples of typical captured images when capturing a part of the display screen including a plurality of marks from a certain operation position.

【0058】図11は、被検出位置Omの位置が表示画
面の表示領域τ2内にあり、撮像画像は表示画面全体が
ほぼ撮像範囲内にあるものの、特徴点としてのマークは
6個検出されているものの2個全く検出されていない。
残りの1個は検出されているもののマークの一部が欠け
ている例である。さらに、被検出位置Omは矩形形状を
特徴づける4個のマークの範囲内にある。 図中には表
示画面の表示領域と非表示領域との境界線として特定さ
れたマーク重心座標間を結ぶ直線gu、gb、hr、hlを
示してある。
FIG. 11 shows that the position of the detected position Om is within the display area τ2 of the display screen, and the captured image is substantially within the imaging range of the entire display screen, but six marks as feature points are detected. However, two were not detected at all.
The remaining one is an example in which a mark is detected but a part of the mark is missing. Furthermore, the detected position Om is within the range of four marks characterizing the rectangular shape. In the figure, straight lines gu, gb, hr, and hl connecting between the coordinates of the center of gravity of the mark specified as the boundary between the display area and the non-display area of the display screen are shown.

【0059】また、図12は、被検出位置Omが矩形形
状を特徴づける4個のマークの範囲外にある例である。
本実施例では、100インチ大画面上の被検出位置を検
出するために、予め定められたG色マーク1個、Rマー
ク2個,Bマーク2個、Eマーク4個の4色9個のマー
ク画像を表示する。撮像される撮像範囲が大画面の一部
を撮像しても確実に4個検出できるようにし、表示画面
全体のどの画面領域を撮像したものなのか、検出された
マークの数、位置、色に基づいて、表示画面に対し位置
検出装置本体がどのような姿勢で撮像されたのかを的確
に判別処理しなければならない。
FIG. 12 shows an example in which the detected position Om is outside the range of the four marks characterizing the rectangular shape.
In the present embodiment, in order to detect a detected position on a large screen of 100 inches, a predetermined G color mark, two R marks, two B marks, and four E marks, nine of four colors and nine, are determined. Display the mark image. Even if the imaging range to be imaged is a part of a large screen, it is possible to reliably detect four areas, and to determine which screen area of the entire display screen has been imaged, the number, position, and color of the detected marks. Based on this, it is necessary to accurately determine the posture of the position detection device main body with respect to the display screen.

【0060】図13は、位置演算のために用いる4個の
マークの位置特定処理するためのマーク特定手段の基本
的な処理を行うフローチャートである。この処理では、
図10のマーク検出処理で検出されたマークのうち同じ
色マークが複数個検出された場合、マークが表示画面上
どの位置のマークであるのかを特定する。 図10の検
出処理において検出マークは、必ず4個以上検出され、
しかも少なくともそれら4個の色は異なる1個が検出さ
れていなければならない。
FIG. 13 is a flowchart showing the basic processing of mark specifying means for performing position specifying processing of four marks used for position calculation. In this process,
When a plurality of marks of the same color are detected among the marks detected in the mark detection processing of FIG. 10, the position of the mark on the display screen is specified. In the detection processing of FIG. 10, four or more detection marks are always detected,
Moreover, at least one of the four colors must be different.

【0061】G色マークは予め基準画像の中心に1個し
か配置していないので、図28にて検出され、座標特定
はされる。しかしながら、検出されたRマーク、Bマーク
及びEマークは、予め基準画像に複数個配置されている
ため、表示画面上のどの位置のマークであるかを特定し
なければならない。
Since only one G color mark is previously arranged at the center of the reference image, it is detected in FIG. 28 and the coordinates are specified. However, since a plurality of detected R marks, B marks, and E marks are previously arranged in the reference image, it is necessary to specify the position of the mark on the display screen.

【0062】ステップS3100は検出されたR色マー
クが表示画面上のどの位置のマークかを特定する処理で
ある。次のステップS3200は、ステップS3100と
同様にB色マークを特定する処理である。ステップS33
00は検出されたE色マークを特定する処理である。こ
れらR,B及びE色マークの特定処理については後述す
る。
Step S3100 is processing for specifying the position of the detected R color mark on the display screen. The next step S3200 is processing for specifying the B-color mark as in step S3100. Step S33
00 is a process for specifying the detected E color mark. The process of specifying the R, B, and E color marks will be described later.

【0063】次のステップS3400は、被検出位置と
して撮像画像の中心が表示画面上のどの領域に属してい
るのかを特定する処理である。図中には9個のマークが
表示された画面を4個のマークで規定される4つの領域
τ1〜τ4を示した。ステップS3500は、複数個検
出されたマークのうち被検出位置演算のためにどの4個
を用いるかを特定する処理である。
The next step S3400 is a process of specifying to which region on the display screen the center of the captured image belongs as the detected position. In the figure, a screen on which nine marks are displayed shows four areas τ1 to τ4 defined by the four marks. Step S3500 is processing for specifying which four of the plurality of detected marks are to be used for calculating the detected position.

【0064】図14、図15は、検出されたR色及びB
色マークの特定処理のフローチャートである。図14は
基準画面に表示されたR色マークは2個であり、そのう
ち少なくとも1個を検出される。そのR色マークが、表
示画面上のどの位置のR色マークなのかを特定処理する
フローチャートである。
FIGS. 14 and 15 show the detected R color and B color.
It is a flowchart of the specification processing of a color mark. FIG. 14 shows two R color marks displayed on the reference screen, and at least one of them is detected. It is a flowchart which specifies the position of the R color mark on the display screen where the R color mark is.

【0065】検出された少なくとも1個のR色マークの
表示画面上の位置を特定する処理について説明する。今
2個のR色マークが検出されたとし、それぞれのマーク
の画像座標上で(Xri,Yri)とする。このときi=
1,2である。2個のR色マークは、スクリーン座標系
のX軸に平行に表示画面中心位置を通る直線上に配置さ
れている。そのため、ステップS323では、表示画面
上の中心位置にあるG色マーカの画像座標(Xg,Yg)
のXg座標を基準にして、Rマークが右側の位置にあるマ
ーカか左側かを判別される。
A process for specifying the position of the detected at least one R color mark on the display screen will be described. Now, it is assumed that two R color marks are detected, and (Xri, Yri) is set on the image coordinates of each mark. At this time, i =
1, 2. The two R color marks are arranged on a straight line passing through the center position of the display screen in parallel with the X axis of the screen coordinate system. Therefore, in step S323, the image coordinates (Xg, Yg) of the G color marker at the center position on the display screen
It is determined whether the R mark is a marker located on the right side or a left side based on the Xg coordinates of.

【0066】ステップS314及びS315においてXg<
XriであればK6の位置するR色マークであり、Xg>Xri
であれば表示画面のK4に位置するR色マークであること
が特定される。図15はB色マークの表示画面上の位置
特定処理のためのフローチャートである。2個のB色マ
ークは、スクリーン座標系のY軸に平行に表示画面中心
位置を通る直線上に配置されている。そのため、ステッ
プS323の判別は、G色マーカの画像座標(Xg,Y
g)のYg座標を基準にして行われる。他の処理は図32
のRマークと同様であるので省略する。
In steps S314 and S315, Xg <
If Xri, it is an R color mark where K6 is located, and Xg> Xri
If so, it is specified that the mark is an R color mark located at K4 on the display screen. FIG. 15 is a flowchart for the process of specifying the position of the B color mark on the display screen. The two B color marks are arranged on a straight line passing through the center position of the display screen in parallel with the Y axis of the screen coordinate system. Therefore, the determination in step S323 is based on the image coordinates (Xg, Y
This is performed based on the Yg coordinate of g). Other processing is shown in FIG.
The description is omitted because it is the same as the R mark.

【0067】図16は表示画面の4隅に位置するように
予め基準画面に設けられたE色のマークのうちどの位置
のE色マークなのかを特定処理するフローチャートであ
る。撮像画像上で得られたE色マークの座標データを
(Xei,Yei)とする。iは検出されたE色マークの個数で
ある。
FIG. 16 is a flow chart for specifying the position of the E-color mark among the E-color marks previously provided on the reference screen so as to be located at the four corners of the display screen. Let the coordinate data of the E-color mark obtained on the captured image be (Xei, Yei). i is the number of detected E-color marks.

【0068】ステップS331は、位置判別のための直
線式を算出するステップである。直線式は、R色マーク
座標とG色マーク座標とを結ぶスクリーン座標系のX軸
に平行な直線gcと B色マーク座標とG色マーク座標と
を結ぶスクリーン座標系のY軸に平行な直線hcとの2
つの式に基づいて、E色マークの位置判別が行われる。
Step S331 is a step of calculating a linear equation for position determination. The linear equation is a straight line parallel to the X axis of the screen coordinate system connecting the R color mark coordinate and the G color mark coordinate, and a straight line parallel to the Y axis of the screen coordinate system connecting the B color mark coordinate and the G color mark coordinate. hc 2
The position of the E-color mark is determined based on the two equations.

【0069】ステップS334では、検出されたEマー
クが表示画面の下側すなわち直線gcの下側にあるか否
かを判別直線gcにより判別する。すなわち、E色マーク
の座標値を判別式に代入し、Yei>acXei+bcである
ならばE色マークは表示画面下側にあると判断されたな
らばステップS336に進み、表示画面右側にあるか否
かを直線hcにより判別する。すなわち、Yei<dcXei+
c(ここでdc>0である)時、そのE色マークは表示
画面の下側の右側、すなわち基準画面の表示領域τ2の
K7に位置するEblであると特定される。また、ステッ
プS334にてYei<acXei+bc 、すなわち表示画面
上側と判別された場合ステップS335に進み、左側か
右側かが直線式hcにより判別される。Yei<dcXei+e
c、すなわち表示画面の上左側と判別されたならば、そ
のE色マークは基準画面K1に位置するEulマークと判
別される。また、Yei>dcXei+ecと判別された場合に
は表示画面の上右側と判別され、E色マークは基準画面
K3に位置するEurマークと特定される。
In step S334, it is determined whether or not the detected E mark is below the display screen, that is, below the straight line gc, based on the determination line gc. That is, by substituting the coordinate values of E color mark discriminant, Yei> proceeds to a c Xei + b If if is c E color marks is determined to be under the display screen side step S336, the display screen right Whether or not there is is determined by the straight line hc. In other words, Yei <d c Xei +
When e c (where d c > 0), the E color mark is specified as Ebl located at the lower right side of the display screen, that is, at K7 of the display area τ2 of the reference screen. Further, the process proceeds at step S334 Yei <a c Xei + b c, that is, when step S335 it is determined that the display screen upper, or left or right is determined by a linear equation hc. Yei <d c Xei + e
c , that is, if it is determined to be the upper left side of the display screen, the E color mark is determined to be the Eul mark located on the reference screen K1. Further, when it is determined that Yei> d c Xei + e c is determined that on the right side of the display screen, E color mark is identified as Eur mark located on the reference screen K3.

【0070】以上の処理により、複数個検出されたR
色、B色及びE色マークは、順次処理特定される。次
に、図13のステップS3400の被検出位置の表示画
面上のどの領域に位置するかを決める処理について説明
する。
By the above processing, a plurality of detected R
The color, B and E color marks are sequentially processed and specified. Next, the process of determining which area on the display screen of the detected position is to be performed in step S3400 of FIG. 13 will be described.

【0071】本実施の形態では検出すべき表示画面上の
被検出位置を撮像画像中心として検出しており、被検出
位置の算出には、その撮像中心を原点Om(0,0)と
する画像座標系を用いて行われる。従って、この原点が
表示画面上のどの領域にあるかの処理は、図16でのE
色マークの表示画面上の位置の特定処理と同じフローチ
ャートを用いることができる。位置判別はステップS3
31直線式の(X,Y)に原点(0,0)を代入した値
にて行われる。 たとえば、ステップS337のEbl
(K7)が特定されるまでのステップは、被検出位置が
K7に位置する表示画面領域τ3内にあると特定され
る。 このようにして、被検出位置としての撮像中心が
表示画面上どの位置であるかが特定される。
In the present embodiment, the detected position on the display screen to be detected is detected as the center of the picked-up image. To calculate the detected position, an image having the center of the picked-up image as the origin Om (0, 0) is calculated. This is performed using a coordinate system. Therefore, the process of determining the area on the display screen where the origin is located is determined by E in FIG.
The same flowchart as that for specifying the position of the color mark on the display screen can be used. Position determination is step S3
31 is performed with a value obtained by substituting the origin (0, 0) into (X, Y) of the linear equation. For example, Ebl in step S337
In the steps until (K7) is specified, it is specified that the detected position is within the display screen area τ3 located at K7. In this way, the position of the imaging center as the detected position on the display screen is specified.

【0072】次に、表示画面上の被検出位置を演算に用
いる位置検出用マーク4個を特定する処理について説明
する。本実施例ではG色、R色、B色及びE色の各色マ
ーク1個ずつ4個のマークが特定できれば、撮像面に対
する表示画面の姿勢が検出でき、被検出位置の特定され
る。すなわち、G色、R色、B色及びE色の4個で規定
される表示画面領域τ1、τ2、τ3、τ4のいずれか
を選択されればよいことになる。図11に示したよう
に、被検出位置が表示画面領域τ3内にあり、τ3を規
定する4個のマークが検出されていなくても、表示画面
領域τ2を規定する4個のマークが検出されていれば被
検出位置の演算は可能である。
Next, a description will be given of a process for specifying four position detection marks used for calculating the detected position on the display screen. In this embodiment, if four marks, one for each of the G, R, B, and E colors, can be specified, the orientation of the display screen with respect to the imaging surface can be detected, and the detected position can be specified. That is, any one of the display screen regions τ1, τ2, τ3, and τ4 defined by the four colors of G, R, B, and E may be selected. As shown in FIG. 11, even if the detected position is within the display screen area τ3 and the four marks defining τ3 are not detected, the four marks defining the display screen area τ2 are detected. If so, the calculation of the detected position is possible.

【0073】次に、被検出位置である画像中心が表示画
面外か否かを判断する処理について図17に基づいて説
明する。ステップS351では特定された複数のマーク
の座標に基づいて、表示画面有効範囲内外の境界線を示
す表示画面のスクリーン座標系X軸に平行な直線式g
b、guとY軸に平行な及びhr、hlを算出する。これら
4つの式に基づいて被検出位置が表示画面内か否かが行
われる。
Next, a process of determining whether or not the center of the image, which is the detected position, is outside the display screen will be described with reference to FIG. In step S351, based on the coordinates of the plurality of specified marks, a straight line formula g parallel to the X axis of the screen coordinate system of the display screen indicating a boundary line inside and outside the effective range of the display screen.
Calculate b, gu, parallel to the Y axis and hr, hl. Whether or not the detected position is within the display screen is determined based on these four equations.

【0074】すでに図16において被検出位置の表示画
面領域が特定されているので、ここではその領域におけ
る表示画面内か否かの判別は2つの直線式にて行われ
る。ステップS352では表示画面領域τ2に被検出位
置があれば、判別式bb≦0かつer≦0であれば表示画
面内τ2にあると判断され、表示画面外と判断される。
ステップS360においてエラー表示や警告音により警
告され、再度撮像取り込み操作を行う処理に進む。
Since the display screen area of the position to be detected is already specified in FIG. 16, it is determined here whether the area is within the display screen by two linear equations. In step S352, if there is a detected position in the display screen area τ2, if the discriminant equation bb ≦ 0 and er ≦ 0, it is determined that it is within τ2 within the display screen, and it is determined that it is outside the display screen.
In step S360, a warning is issued by an error display or a warning sound, and the process proceeds to a process of performing an image capturing operation again.

【0075】被検出位置が表示画面領域τ1、τ3、τ
4にある場合、それぞれステップS354の判別直線式
guとhr、ステップS356の判別直線式gbとhl、ス
テップS358の判別直線式guとhlとに基づいて、そ
れぞれ表示画面外か否かが判断される。
The detected position is the display screen area τ1, τ3, τ
4, the judgment is made based on the discriminant linear formulas gu and hr in step S354, the discriminant linear formulas gb and hl in step S356, and the discriminant linear formulas gu and hl in step S358. You.

【0076】このように表示画面上に格子状の格子点に
マークを配置することにより、表示される画面全体を撮
像しなくても一部分の撮像画像でも被検出位置の座標を
特定できるようになる。また、これらのマークの色、形
状などの配列を工夫することにより、位置検出装置本体
が取り込む撮像画像の上下方向判断ができると共に、位
置検出装置本体の操作範囲が格段に広がる。さらに、撮
像レンズの性能負荷が軽減でき、低コスト化が可能とな
る利点がある。 (b)位置演算処理 矩形状を特徴づける位置検出用マーク4個が特定された
ので、この4個のマークの座標値に基づいて撮像面上の
座標特定とされた結果に基づいて、所定平面上に投影さ
れた表示画像上の被検出位置Psの位置演算を行うこと
ができる。
By arranging the marks at the grid points on the display screen in this manner, the coordinates of the detected position can be specified even in a part of the captured image without capturing the entire displayed screen. . In addition, by devising the arrangement of the colors and shapes of these marks, it is possible to determine the vertical direction of the captured image captured by the position detection device main body, and to significantly expand the operation range of the position detection device main body. Further, there is an advantage that the performance load of the imaging lens can be reduced and the cost can be reduced. (B) Position calculation processing Since four position detection marks characterizing a rectangular shape are specified, a predetermined plane is determined based on the result of specifying the coordinates on the imaging surface based on the coordinate values of the four marks. The position calculation of the detected position Ps on the display image projected above can be performed.

【0077】これら4個のマークに対する被検出位置P
sの座標演算処理について具体的に説明する。図18は
3次元空間内に置かれた所定平面上の被検出位置を演算
処理する具体的な手順を示したフローチャートである。
図8の基本動作フローチャートのステップS106の動
作の詳細である。
The detected position P for these four marks
The coordinate calculation processing of s will be specifically described. FIG. 18 is a flowchart showing a specific procedure for calculating a detected position on a predetermined plane placed in a three-dimensional space.
9 is a detail of the operation of step S106 in the basic operation flowchart of FIG.

【0078】図19は位置検出装置本体100の撮像面
をX−Y座標系(画像座標系と呼ぶ)とし、画像座標系
の中心から垂直に延びる軸をZ軸とするX−Y−Z座標
系を有する3次元空間における画像座標系と所定平面上
のX*−V座標系(平面座標系と呼ぶ)との姿勢位置関
係を示したものである。視点Oは画像座標系の原点Om
から焦点距離fの位置である。X−Y−Z座標系のX軸
回りの角度ψ、Y軸回りの角度γ、Z軸回りの角度αま
たはβとする。これらの角度回りはいずれも時計回りを
正としている。
FIG. 19 shows an XYZ coordinate system in which the imaging surface of the position detecting device main body 100 is an XY coordinate system (referred to as an image coordinate system) and an axis extending vertically from the center of the image coordinate system is a Z axis. FIG. 3 shows a posture positional relationship between an image coordinate system and a X * -V coordinate system (referred to as a plane coordinate system) on a predetermined plane in a three-dimensional space having a coordinate system. Viewpoint O is the origin Om of the image coordinate system
From the focal length f. An angle ψ around the X axis, an angle γ around the Y axis, and an angle α or β around the Z axis in the XYZ coordinate system. Regarding the rotation around these angles, clockwise is defined as positive.

【0079】図20及び図21には、操作者が任意の位
置から位置検出装置本体に設けられた撮像手段100の
撮像方向を矩形形状である所定平面に向けて撮像した撮
像画像qを示した。図には、撮像された画像は平面上の
座標位置である被検出位置Psを撮像面に設定された基
準位置(撮像面の原点Om)に合致させてある。これら
4個の特徴点q1,q2,q3,q4は、図1の平面座標系
X*−Y*座標系におけるQ1、Q2、Q3、Q4に対応す
る。
FIGS. 20 and 21 show a picked-up image q picked up from an arbitrary position by the operator with the image pickup direction of the image pickup means 100 provided on the position detecting device main body directed to a predetermined rectangular plane. . In the figure, the captured image has a detected position Ps, which is a coordinate position on a plane, matched with a reference position (origin Om of the imaging surface) set on the imaging surface. These four feature points q1, q2, q3, q4 correspond to Q1, Q2, Q3, Q4 in the plane coordinate system X * -Y * coordinate system of FIG.

【0080】被検出位置を示す基準位置が4個の特徴点
が形成される形状(矩形形状)の範囲外であっても良
い。図21は、被検出位置とした撮像画像中心が所定平
面上にある4個の特徴点で形成される矩形形状範囲内に
含まない例である。 (b1)平面の姿勢演算処理 被検出位置を演算するための第1のステップである平面
の姿勢算出処理について、図18のフローチャート及び
図3の構成ブロック図、図19〜図26を参考にしなが
ら説明する。
The reference position indicating the detected position may be out of the range (rectangular shape) in which four feature points are formed. FIG. 21 shows an example in which the center of a captured image as a detected position is not included in a rectangular shape range formed by four feature points on a predetermined plane. (B1) Plane posture calculation process The plane posture calculation process, which is the first step for calculating the detected position, will be described with reference to the flowchart of FIG. 18, the block diagram of FIG. 3, and FIGS. explain.

【0081】まず最初に、ステップS111では、すで
に特徴点抽出手段の特徴点特定手段において特定された
q1,q2,q3,q4の座標位置に基づいて、撮像画像q
の相隣接する特徴点を通る直線式I1.I2,I3,I4を
算出する。次に、ステップS112ではこれら直線式を
用いて撮像画像データの消失点T0、S0を算出する。
(ステップS111とS112は図3の構成ブロック図
の消失点算出手段5211の処理に相当する) 矩形形状を有する平面を撮像すると撮像画像には必ず消
失点が存在する。消失点とは平行群が収束する点であ
る。例えば、直線Q1Q2に対応する撮像面上の直線 q1
q2 と直線Q3Q4に対応する直線q3q4、q1q4、ま
た右辺Q1Q4 とq2q3とが完全に平行であれば消失点
は無限遠に存在することになる。無限遠に存在すると
き、その方向には透視射影されても透視効果は現れな
い。
First, in step S111, based on the coordinate positions of q1, q2, q3 and q4 already specified by the feature point specifying means of the feature point extracting means, the captured image q
Of the straight line I1. Calculate I2, I3 and I4. Next, in step S112, vanishing points T0 and S0 of the captured image data are calculated using these linear equations.
(Steps S111 and S112 correspond to the processing of the vanishing point calculation unit 5211 in the configuration block diagram of FIG. 3). When a plane having a rectangular shape is captured, a vanishing point always exists in the captured image. The vanishing point is a point where the parallel group converges. For example, a straight line q1 on the imaging surface corresponding to the straight line Q1 Q2
If q2 and the straight lines q3q4 and q1q4 corresponding to the straight line Q3Q4, and the right side Q1Q4 and q2q3 are completely parallel, the vanishing point will exist at infinity. When present at infinity, no perspective effect appears even if perspective projection is performed in that direction.

【0082】本実施の形態では3次元空間内に置かれた
平面形状は矩形形状である。従って、物体座標系では2
組の平行を有し、画像座標系の撮像画像上ではX軸側、
Y軸側のそれぞれに消失点が1つ存在することになる。
図20には任意の位置で撮像したときの撮像データ上で
消失点の位置を示してある。X軸側に生じる消失点をS
0、Y軸側に生じる消失点をT0としてある。q1q2 と
q3q4との延長した直線の交点が消失点の位置である。
In the present embodiment, the planar shape placed in the three-dimensional space is a rectangular shape. Therefore, in the object coordinate system, 2
A set of parallels, on the X-axis side on the captured image of the image coordinate system,
There will be one vanishing point on each Y-axis side.
FIG. 20 shows the position of the vanishing point on the image data at the time of imaging at an arbitrary position. The vanishing point occurring on the X-axis side is S
0, the vanishing point occurring on the Y-axis side is T0. q1q2 and
The intersection of the extended straight line with q3q4 is the position of the vanishing point.

【0083】ステップS113では消失点S0,T0を求
めた後、これら消失点と撮像画像の中心Omとを結んだ
直線OmS0、OmT0を算出し、これら直線によって特徴
付けられる特徴点qs1、qs2、qt1、qt2を求める処理
を行う。(ステップS113は図3の消失直線算出手段
5112で実行される処理である) 消失点S0、T0と撮像データ中心Omとを結んだ各消失
軸S0Om、T0Omが、相隣接する2つの特徴点を通る直
線q1q2、q3q4、及びq2q3、q1q4と交わる交点q
t1(Xt1,Yt1)、qt2(Xt2,Xt2)、qs1(X
s1,Ys1)、qs2(Xs2,Ys2)を算出する。
qt1、qt2、qs1、qs2が算出された後の説明におい
て、S0Om、T0Om、qt1qt2、qs1qs2いずれも消失
直線と呼ぶことにする。
In step S113, after finding vanishing points S0 and T0, straight lines OmS0 and OmT0 connecting these vanishing points and the center Om of the captured image are calculated, and characteristic points qs1, qs2 and qt1 characterized by these straight lines. , Qt2. (Step S113 is a process executed by the vanishing line calculation unit 5112 in FIG. 3). Each vanishing axis S0Om, T0Om connecting the vanishing points S0, T0 and the imaging data center Om is used to determine two adjacent feature points. Intersection q that intersects the passing straight lines q1q2, q3q4, and q2q3, q1q4
t1 (Xt1, Yt1), qt2 (Xt2, Xt2), qs1 (X
s1, Ys1) and qs2 (Xs2, Ys2) are calculated.
In the description after qt1, qt2, qs1, and qs2 are calculated, S0Om, T0Om, qt1qt2, and qs1qs2 are all referred to as vanishing lines.

【0084】消失直線qt1qt2、qs1qs2は、平面上で
被検出位置Psを基準とする各々互いに直交した直線に
対応し、被検出位置を算出するための基準直線となる。
すなわち、画像座標系(X−Y座標系)の各特徴点qt
1、qt2、qs1、qs2は、図1の平面座標系(X*−Y*
座標系)における所定平面の特徴点T1、T2、S1、S2
に対応する。
The vanishing straight lines qt1qt2 and qs1qs2 correspond to straight lines orthogonal to each other with respect to the detected position Ps on the plane, and serve as reference straight lines for calculating the detected position.
That is, each feature point qt in the image coordinate system (XY coordinate system)
1, qt2, qs1, and qs2 are plane coordinate systems (X * −Y *) in FIG.
Feature points T1, T2, S1, S2 on a predetermined plane in the coordinate system)
Corresponding to

【0085】ステップS112の消失点算出処理におい
て、X−Y画像座標系(X−Y座標系)のX軸方向に消
失点が無限遠に存在すると判断された場合は、消失直線
はX軸と平行な直線となる。 次に、ステップS114
に進む。ステップS114では、画像座標系(X−Y座
標系)のX軸がX軸側の消失直線OmS0に一致するよう
にOmを中心に角度β度回転させ、X’−Y’座標系と
する座標変換処理を行う。このとき、画像座標系のY軸
がY軸側の消失直線OmT0に一致するようにOmを中心
に角度α度回転させ、X’’−Y’’座系とする座標変
換処理でも良い。本実施の形態で用いる処理はいずれか
一方で十分である。(ステップS114は図3の画像座
標系変換手段5214で実行される処理である) 図22は、画像座標系(X−Y座標系)を時計回りを正
としてβ度回転させ、X’−Y’座標系、X’’−
Y’’座標系にそれぞれ画像座標変換処理を説明する図
である。
In the vanishing point calculation processing in step S112, if it is determined that the vanishing point exists at infinity in the X-axis direction of the XY image coordinate system (XY coordinate system), the vanishing line is It becomes a parallel straight line. Next, step S114
Proceed to. In step S114, the coordinates are rotated by an angle β degrees about Om so that the X axis of the image coordinate system (XY coordinate system) coincides with the vanishing line OmS0 on the X axis side, and the coordinates are set to the X′-Y ′ coordinate system. Perform conversion processing. At this time, a coordinate conversion process may be performed by rotating the image coordinate system by an angle α degrees around Om so that the Y axis of the image coordinate system coincides with the vanishing line OmT0 on the Y-axis side to obtain an X ″ -Y ″ coordinate system. Either of the processes used in this embodiment is sufficient. (Step S114 is a process executed by the image coordinate system conversion unit 5214 in FIG. 3). FIG. 22 shows that the image coordinate system (XY coordinate system) is rotated by β degrees with the clockwise direction being positive, and X′-Y 'Coordinate system, X''-
FIG. 14 is a diagram for explaining image coordinate conversion processing for each of the Y ″ coordinate systems.

【0086】これらの画像座標系回転操作は3次元空間
(X−Y−Z座標系)におけるZ軸回りの回転に相当
し、3次元空間内におかれた所定平面の姿勢位置を表す
パラメータの1つを決める操作である。このように消失
直線qs1qs2(またはOmS0)をX軸上に一致させるこ
とにより3次元空間内に置かれた所定平面上の直線Q1
Q2,Q3Q4はX軸と平行な位置関係となる。
These image coordinate system rotation operations correspond to rotations about the Z axis in a three-dimensional space (XYZ coordinate system), and parameters of the posture position of a predetermined plane in the three-dimensional space are used. This is the operation to determine one. By matching the vanishing line qs1qs2 (or OmS0) on the X axis in this manner, the straight line Q1 on a predetermined plane placed in a three-dimensional space
Q2 and Q3Q4 have a positional relationship parallel to the X axis.

【0087】次のステップS115において、得られた
撮像画像上のX−Y座標変換後のX’−Y’座標系にお
ける位置座標を基に、画像座標系X’−Y’系の特徴点
q1,q2,q3,q4及びqt1、qt2、qs1、qs2の座標
位置に対する平面座標系を有する所定平面上の特徴点Q
1,Q2,Q3,Q4及びT1、T2、S1、S2の各座標位置
の対応づけを行う。これらの対応付けは幾何学的手法を
用いた透視射影変換処理を行うことによりなされる。こ
の透視射影処理は、撮像面を基準にした3次元空間(X
−Y−Z座標系)内の撮像面に対する所定平面の姿勢を
算出する処理になり、すなわち、平面の姿勢を決定する
2つのパラメータであるY軸回りの角度ψとX軸回りの
角度γを算出する処理となる。なお、透視射影変換処理
の詳細は(b2)項にて後述する。(ステップS115
は図3の透視射影変換手段5123において実行される
処理である) 次のステップS116は、ステップS115で算出され
た所定平面の姿勢パラメータに基づいて、平面座標系
(X*−Y*座標系)上での被検出位置Psの座標位置を
算出する。被検出位置座標の算出の詳細は(b3)、
(b4)項にて後述する。
In the next step S115, based on the position coordinates in the X′-Y ′ coordinate system after the XY coordinate conversion on the obtained captured image, the characteristic points q1 of the image coordinate system X′-Y ′ system are obtained. , Q2, q3, q4 and feature points Q on a predetermined plane having a plane coordinate system with respect to the coordinate positions of qt1, qt2, qs1, qs2
1, Q2, Q3, Q4 and T1, T2, S1, S2 coordinate positions are associated. These associations are made by performing a perspective projection conversion process using a geometric technique. This perspective projection processing is performed in a three-dimensional space (X
-YZ coordinate system), which is a process of calculating a posture of a predetermined plane with respect to the imaging plane in the imaging plane, that is, an angle ψ around the Y axis and an angle γ around the X axis, which are two parameters for determining the plane posture. This is the process of calculating. The details of the perspective projection conversion process will be described later in section (b2). (Step S115
Is a process executed in the perspective projection conversion means 5123 in FIG. 3) The next step S116 is a plane coordinate system (X * -Y * coordinate system) based on the posture parameters of the predetermined plane calculated in step S115. The coordinate position of the detected position Ps is calculated. Details of the calculation of the detected position coordinates are (b3).
This will be described later in section (b4).

【0088】(b2)透視射影変換処理 ここで、撮像面の画像座標系(X−Y座標系)において
矩形形状を特徴づける4個の特徴点の座標が特定された
結果に基づいて、3次元空間内に置かれた撮像面に対す
る所定平面の姿勢パラメータ(俯角ψ、仰角γ)を算出
するための透視射影変換処理について説明する。
(B2) Perspective projection conversion processing Here, based on the result of specifying the coordinates of four feature points that characterize the rectangular shape in the image coordinate system (XY coordinate system) of the imaging surface, three-dimensional A perspective projection conversion process for calculating posture parameters (depression angle ψ, elevation angle γ) of a predetermined plane with respect to an imaging plane placed in space will be described.

【0089】まず最初に、図23に基づき2次元透視射
影変換について簡単に説明する。図23では横軸をZ
軸、縦軸をY軸としてある。Oは透視射影変換する際の
原点である(以下、透視点と呼ぶ)、1はX−Y座標系
を有する撮像面、2は2次元平面である。図では透視点
Oを原点とし横軸にZ軸、縦軸を撮像面X−Y座標系の
Y軸に一致させてある。いいかえれば、撮像面のX軸は
紙面に垂直方向にあり、撮像面の中心をZ軸に一致させ
てある。この撮像手段が備えているレンズ光学系の焦点
距離をfとする。撮像面1は透視点Oから焦点距離fの
位置にZ軸上に垂直に置かれていることになる。実際に
は撮像面の前面位置にはレンズ光学系が置かれ、撮像面
には2次元平面の倒立像が結像する構成となっている
が、ここでは説明し易くするために便宜上、CCD撮像
面の後方焦点の位置に配置する構成としてある。
First, two-dimensional perspective projection conversion will be briefly described with reference to FIG. In FIG. 23, the horizontal axis is Z
The axis and the vertical axis are the Y axis. O is an origin at the time of perspective projection conversion (hereinafter, referred to as a perspective viewpoint), 1 is an imaging surface having an XY coordinate system, and 2 is a two-dimensional plane. In the figure, the perspective point O is the origin, the horizontal axis is the Z axis, and the vertical axis is the Y axis of the imaging plane XY coordinate system. In other words, the X-axis of the imaging plane is perpendicular to the plane of the paper, and the center of the imaging plane is aligned with the Z-axis. The focal length of the lens optical system provided in this imaging means is f. The imaging plane 1 is located vertically on the Z-axis at a focal length f from the perspective point O. Actually, a lens optical system is placed at the front position of the imaging surface, and an inverted image of a two-dimensional plane is formed on the imaging surface. However, for the sake of simplicity, a CCD imaging system will be described here. It is configured to be arranged at the position of the rear focal point on the surface.

【0090】また、X*−Y*平面座標系を有する所定平
面2が、Y軸に対して角度γ度傾けた姿勢にあるとし
た。X−Y座標系を有する画像座標系の各特徴点各qi
(i=1,2)は、X*−Y*座標系を有する所定平面上の対応
する特徴点Qi(i=1,2)に幾何学的な対応付けにより透視
射影変換される。その変換式は数1で表される。
Further, it is assumed that the predetermined plane 2 having the X * -Y * plane coordinate system is in a posture inclined at an angle γ degrees with respect to the Y axis. Qi for each feature point in an image coordinate system having an XY coordinate system
(i = 1,2) is perspectively transformed by geometrical association with a corresponding feature point Qi (i = 1,2) on a predetermined plane having an X * -Y * coordinate system. The conversion formula is represented by Equation 1.

【0091】[0091]

【数1】 (Equation 1)

【0092】従って、特徴点Qi(Y*i,Z*i)(i=1,2)
の座標位置は、それぞれ次の数2で表される。
Therefore, the feature points Qi (Y * i, Z * i) (i = 1, 2)
Are represented by the following equation (2).

【0093】[0093]

【数2】 (Equation 2)

【0094】次に、3次元空間内に置かれた撮像面に対
する所定平面の位置姿勢を算出する透視射影変換処理に
ついて具体的に説明する。図24は、3次元空間内(X
−Y−Z座標系)に置かれた所定平面の位置姿勢を説明
する斜視図である。図では所定平面の1/4矩形を示し
てあり、撮像面上の所定平面上の特徴点の位置座標Q1
(X*1,Y*1)、Q2(X*2,Y*2)に対応する特徴点座標
点q1(X1、Y1)、q2(X2,Y2)が示されている。
Next, the perspective projection conversion processing for calculating the position and orientation of a predetermined plane with respect to the imaging plane placed in the three-dimensional space will be specifically described. FIG. 24 shows a state in the three-dimensional space (X
FIG. 3 is a perspective view illustrating the position and orientation of a predetermined plane placed on a (YZ coordinate system). In the figure, a quarter rectangle of a predetermined plane is shown, and the position coordinates Q1 of a feature point on the predetermined plane on the imaging surface are shown.
The feature point coordinate points q1 (X1, Y1) and q2 (X2, Y2) corresponding to (X * 1, Y * 1) and Q2 (X * 2, Y * 2) are shown.

【0095】図には平面座標系(X*−Y*座標系)にお
ける被検出位置Psを通り、それぞれの軸に平行な直線
と隣接する2つの特徴点を通る直線との交点であるT
1、T2それにS2の3点の位置座標が示されている。こ
れら図示されている特徴点T1、T2、S2それに不図示
のS1は、撮像画像座標上では消失直線によって特徴付
けられた特徴点qt1、qt2、qs2及びqs1に対応する。
In the figure, T is the intersection of a straight line passing through the detected position Ps in the plane coordinate system (X * -Y * coordinate system) and parallel to each axis and a straight line passing through two adjacent feature points.
Position coordinates of three points, 1, T2 and S2, are shown. These illustrated feature points T1, T2, S2, and S1, not shown, correspond to feature points qt1, qt2, qs2, and qs1 characterized by vanishing lines on the captured image coordinates.

【0096】Q3(X*3,Y*3)、Q4(X*4,Y*4)に対
応する座標点q3(X3,Y3)、q4(X4,Y4)につい
ては省略してある。本実施の形態では、図中の画像座標
系の原点Om(0,0,f)は撮像画像の中心位置とし、この
中心位置は撮像しようとする所定平面上の被検出位置と
してある。3次元空間X−YーZ座標系の原点O(0,0,
0)は、透視射影変換処理する際の透視点としてある。f
は焦点距離である。
The coordinate points q3 (X3, Y3) and q4 (X4, Y4) corresponding to Q3 (X * 3, Y * 3) and Q4 (X * 4, Y * 4) are omitted. In the present embodiment, the origin Om (0,0, f) of the image coordinate system in the figure is the center position of a captured image, and this center position is a detected position on a predetermined plane to be imaged. The origin O (0,0,3) of the three-dimensional space XYZ coordinate system
0) is a perspective point at the time of the perspective projection conversion processing. f
Is the focal length.

【0097】所定平面の撮像面に対する位置関係は、X
軸回りを撮像面の原点Omを中心としてX軸回りに角度
+ψ、Y軸回りに角度+γである。これらいずれの角度
も時計回りを正としてある。この図ではZ軸回りの回転
操作(X−Y座標系を+β度回転)した結果が示してあ
る。
The positional relationship between the predetermined plane and the imaging plane is expressed by X
Around the axis, an angle + ψ around the X axis and an angle + γ around the Y axis around the origin Om of the imaging surface. In each case, clockwise is defined as positive. This figure shows the result of a rotation operation around the Z axis (rotation of the XY coordinate system by + β degrees).

【0098】本実施の形態では、撮像画像(X−Y座標
系)上の特徴点q1、qt1、qs2の座標データに基づい
て、これらの特徴点に対応する所定平面(X*−Y*座標
系)上の特徴点Q1、T1及びS2の座標位置を透視射影
変換により算出した。図25は図24に示した3次元空
間内(X−Y−Z座標系)に置かれた所定平面をX’−
Z’座標投影平面(Y’=0)上に正投影した図であ
る。X’−Y’−Z’座標系はX−Y−Z座標系を回転
座標変換したものである。X’−Z’座標投影平面上
(Y’=0)には直線S1S2のみが存在している(太線
で図示)。X’−Z’座標系の原点Omと透視点Oの距
離は、撮像レンズの焦点距離fの位置である。各特徴点
について透視射影変換により、対応付けを行った、平面
座標系における各特徴点の座標位置をX’−Y’座標系
における位置座標で表現した結果は、数3、数4で表さ
れる。
In this embodiment, based on the coordinate data of the feature points q1, qt1, and qs2 on the captured image (XY coordinate system), a predetermined plane (X * -Y * coordinate) corresponding to these feature points is used. The coordinate positions of the feature points Q1, T1, and S2 on the (system) were calculated by perspective projection transformation. FIG. 25 shows a predetermined plane placed in the three-dimensional space (XYZ coordinate system) shown in FIG.
FIG. 3 is a diagram orthogonally projected on a Z ′ coordinate projection plane (Y ′ = 0). The X'-Y'-Z 'coordinate system is obtained by converting the XYZ coordinate system into rotation coordinates. Only the straight line S1S2 exists on the X'-Z 'coordinate projection plane (Y' = 0) (shown by a thick line). The distance between the origin Om and the perspective point O in the X'-Z 'coordinate system is the position of the focal length f of the imaging lens. The results of expressing the coordinate position of each feature point in the plane coordinate system by the position coordinates in the X′-Y ′ coordinate system, which are associated with each feature point by perspective projection transformation, are expressed by Equations 3 and 4. You.

【0099】[0099]

【数3】 (Equation 3)

【0100】[0100]

【数4】 (Equation 4)

【0101】また、図26は図24に図示した所定平面
をY’−Z’座標投影平面(X’=O)の上に正投影し
た図である。Y’−Z’座標投影平面(X’=0)上に
は直線T1T2のみが存在する。図中には所定平面上の特
徴点T1とQ1に対応する撮像画像上の特徴点qt1とq1
のみを図示してあり、Q2、Q3、Q4に対応する撮像画
像上の特徴点は略してある。Y’−Z’座標投影平面上
における透視射影変換処理は、先に行ったX’−Z’座
標投影平面上での処理と同様な処理を行い、qt1とq1
に対応する平面上の特徴点T1、Q1の座標位置を算出す
る。
FIG. 26 is a diagram obtained by orthogonally projecting the predetermined plane shown in FIG. 24 onto the YZ'-Z 'coordinate projection plane (X' = O). Only the straight line T1T2 exists on the Y'-Z 'coordinate projection plane (X' = 0). In the figure, feature points qt1 and q1 on the captured image corresponding to feature points T1 and Q1 on a predetermined plane are shown.
Only the illustration is shown, and the feature points on the captured image corresponding to Q2, Q3, Q4 are omitted. The perspective projection conversion processing on the Y'-Z 'coordinate projection plane performs the same processing as the processing on the X'-Z' coordinate projection plane performed earlier, and qt1 and q1
Are calculated for the coordinate positions of the feature points T1, Q1 on the plane corresponding to.

【0102】数5には、T1、Q1の座標位置を示した。Equation 5 shows the coordinate positions of T1 and Q1.

【0103】[0103]

【数5】 (Equation 5)

【0104】図25,図26の平面座標系の特徴点T1
及びQ1の座標算出処理に着目する。X’−Z’座標投
影平面とY’−Z’座標投影平面の2つの座標面に対し
て透視射影変換処理した結果、特徴点qt1とq1に対応
する平面座標上の特徴点T1及びQ1の座標値が得られ
る。
The feature point T1 of the plane coordinate system shown in FIGS.
And the coordinate calculation process of Q1. As a result of performing perspective projection processing on two coordinate planes of the X'-Z 'coordinate projection plane and the Y'-Z' coordinate projection plane, characteristic points qt1 and characteristic points T1 and Q1 on the plane coordinates corresponding to q1 are obtained. The coordinate value is obtained.

【0105】図25からはT1(X*t1,Z*t1|x)とQ
1(X*1,Z*1|x)、図26からはT1(Y*t1,Z*t1
|y)とQ1(Y*1,Z*1|y)がそれぞれ得られる。3
次元空間内(X’−Y’−Z’座標系)に置かれた所定
平面を正投影したX’Z’投影平面(図25)、Y’
Z’投影平面(図26)において、Z’軸に関する座標
値は各投影平面座標では同じ値をとり、次の関係にあ
る。
FIG. 25 shows that T1 (X * t1, Z * t1 | x) and Q
1 (X * 1, Z * 1 | x), and from FIG. 26, T1 (Y * t1, Z * t1)
| Y) and Q1 (Y * 1, Z * 1 | y) are obtained. Three
X'Z 'projection plane (FIG. 25) orthogonally projecting a predetermined plane placed in a dimensional space (X'-Y'-Z' coordinate system), Y '
In the Z ′ projection plane (FIG. 26), the coordinate values regarding the Z ′ axis take the same value in each projection plane coordinate, and have the following relationship.

【0106】Z*1|x=Z*1|y Z*t1|x=Z*t1|y 上記の条件式から次の2つの関係式数6,数7を得るこ
とができる。
Z * 1 | x = Z * 1 | y Z * t1 | x = Z * t1 | y The following two relational expressions 6 and 7 can be obtained from the above conditional expressions.

【0107】[0107]

【数6】 (Equation 6)

【0108】[0108]

【数7】 (Equation 7)

【0109】上記結果、3次元空間内に置かれた所定平
面の姿勢パラメータが画像座標系の特徴点の座標qi、
qtiまたはqsiと撮像レンズの焦点距離とにより簡単な
関係式で表現されることがわかった。平面の位置姿勢を
表す関係式は、数6及び数7に代え、次の関係式数8及
び数9であっても良い。
As a result, the posture parameters of the predetermined plane placed in the three-dimensional space are the coordinates qi,
It was found that qti or qsi and the focal length of the imaging lens can be expressed by a simple relational expression. The relational expressions representing the position and orientation of the plane may be the following relational expressions 8 and 9 instead of the expressions 6 and 7.

【0110】数8及び数9示したY軸回りの角度ψの回
転方向は、数6及び数7と逆である。
The rotation direction of the angle ψ around the Y axis shown in Expressions 8 and 9 is opposite to Expressions 6 and 7.

【0111】[0111]

【数8】 (Equation 8)

【0112】[0112]

【数9】 (Equation 9)

【0113】これらの関係式に用いられている特徴点q
iは、撮像画像で得られた特徴点qi(i=1〜4)の1点とこ
れら4この特徴点から算出された消失点を用いて決定さ
れた特徴点qtiまたはqsiを用いて表現されている。本
実施の形態の手順では撮像手段により得られた画像デー
タから得られた消失直線qs1qs2をX軸に一致するよう
に、X−Y座標系をβ度回転させX’−Y’座標系に変
換した場合について説明した。もう一方の消失直線qt1
qt2をY軸に一致するように、X−Y座標系をX’’−
Y’’座標系に変換して行っても、数式表現は異なるが
同様な結果が得られる。
The feature point q used in these relational expressions
i is expressed using one of the characteristic points qi (i = 1 to 4) obtained in the captured image and the characteristic points qti or qsi determined using the vanishing points calculated from these four characteristic points. ing. In the procedure of the present embodiment, the XY coordinate system is rotated by β degrees to convert the vanishing line qs1qs2 obtained from the image data obtained by the imaging means to the X'-Y 'coordinate system so as to coincide with the X axis. The case has been described. The other vanishing line qt1
The XY coordinate system is changed to X ''-so that qt2 coincides with the Y axis.
Even if the expression is converted to the Y ″ coordinate system, the same result is obtained although the mathematical expression is different.

【0114】途中の式は省略し結果のみを数10、数1
1に示した。
Expressions in the middle are omitted, and only the result is given by Equations 10 and 1.
1 is shown.

【0115】[0115]

【数10】 (Equation 10)

【0116】[0116]

【数11】 [Equation 11]

【0117】数10、数11では位置姿勢角度パラメー
タψはq1とqs2の2つの座標値のみで表現されたもの
を示した。一般に、画像座標系の特徴点の座標位置は画
素数で表現され、数6〜数11式中に換算係数としてC
CD撮像素子の画素サイズが必要となることはいうまで
もない。
In Equations 10 and 11, the position / orientation angle parameter ψ is represented by only two coordinate values q1 and qs2. In general, the coordinate position of a feature point in an image coordinate system is represented by the number of pixels, and C eq.
It goes without saying that the pixel size of the CD image sensor is required.

【0118】以上、説明したように、平面座標系の平面
の姿勢パラメータである角度算出式は撮像画像から算出
された特徴点の座標データと撮像手段のパラメータであ
る焦点距離fだけで表現された簡単な関係式となってい
る。従来のような煩雑な座標変換行列式を用いることな
く、平面の姿勢パラメータを算出する式が、簡単な式で
表現されているため、演算処理能力が低くてもよい、演
算誤差が少なくなり精度的に有利などの利点がある。強
いては、装置の低コスト化にもつながる。
As described above, the angle calculation formula, which is the orientation parameter of the plane in the plane coordinate system, is expressed only by the coordinate data of the feature point calculated from the captured image and the focal length f, which is the parameter of the imaging means. It is a simple relational expression. The expression for calculating the orientation parameter of the plane is expressed by a simple expression without using a complicated coordinate transformation determinant as in the past, so that the arithmetic processing capability may be low. There are advantages, such as an economic advantage. If this is the case, the cost of the device will be reduced.

【0119】さらに、平面の相対姿勢を算出する場合に
は、平面座標系における平面形状が定性的に矩形形状で
あるということが既知であればよく、矩形形状のアスペ
クト比や矩形形状を特徴付ける座標位置データ、撮像面
と所定平面までの距離データなど平面に関する位置デー
タは必要ないという利点がある。
Further, when calculating the relative orientation of the plane, it is sufficient that the plane shape in the plane coordinate system is qualitatively rectangular, and the aspect ratio of the rectangle and the coordinates characterizing the rectangle are known. There is an advantage that position data relating to a plane, such as position data and data on the distance between the imaging plane and a predetermined plane, is not required.

【0120】(b3)座標位置演算処理 透視射影変換処理により算出された3次元空間内の所定
平面の姿勢パラメータに基づいて、平面座標系(X*−
Y*座標系)における所定平面上の被検出位置座標を座
標演算処理手段522により演算する。
(B3) Coordinate position calculation processing Based on the posture parameters of a predetermined plane in the three-dimensional space calculated by the perspective projection conversion processing, a plane coordinate system (X * −
The coordinates of the detected position on the predetermined plane in the Y * coordinate system are calculated by the coordinate calculation processing means 522.

【0121】平面座標系X*−Y*座標系における所定平
面上の被検出位置は、横軸比mi=|S1Ps|/|S2P
s|、縦軸比ni=|T1Ps|/|T2Ps|で算出され
る。数6及び数7の姿勢パラメータに対応した所定平面
の被検出位置Ps(X*i,Y*i)の算出式は、X軸比m
及びY軸比nで表現すると、数12,数13で表され
る。これらいずれの式を用いても良い。
The position to be detected on a predetermined plane in the plane coordinate system X * -Y * coordinate system is represented by the horizontal axis ratio mi = | S1Ps | / | S2P
s | and the vertical axis ratio ni = | T1Ps | / | T2Ps |. The equation for calculating the detected position Ps (X * i, Y * i) on the predetermined plane corresponding to the attitude parameters of Equations 6 and 7 is represented by the X-axis ratio m
And expressed in terms of the Y-axis ratio n, Any of these equations may be used.

【0122】数12は軸比nx、mxを用いた式であり、
X−Y画像座標系をβ度回転しX’−Y’座標系に変換
した場合である。
Equation 12 is an equation using the axial ratios nx and mx.
This is a case where the XY image coordinate system is rotated by β degrees and converted into the X′-Y ′ coordinate system.

【0123】[0123]

【数12】 (Equation 12)

【0124】また数13は、軸比ny、myを用いた式で
あり、X−Y座標系をα度回転しX’’−Y’’座標系
に変換した場合である。
Equation 13 is an equation using the axial ratios ny and my, and is obtained when the XY coordinate system is rotated by α degrees and converted to the X ″ -Y ″ coordinate system.

【0125】[0125]

【数13】 (Equation 13)

【0126】このように、被検出位置の座標は、平面姿
勢パラメータψもしくはγのいずれか一方が算出できれ
ば、求めることができる。 (b4)全表示画像上における被検出位置Psの座標演
算 以上説明した位置演算は、4個のマーク(特徴点)を特
定し、これら4個ので規定される平面座標における被検
出位置を特定することができた。
As described above, the coordinates of the detected position can be obtained if either the plane orientation parameter ψ or γ can be calculated. (B4) Coordinate calculation of detected position Ps on all display images The position calculation described above specifies four marks (feature points) and specifies a detected position in plane coordinates defined by these four marks. I was able to.

【0127】次に、これら撮像面上にて特定された位置
検出用の4個のマーク(特徴点)が、複数のマークが配
置されている所定平面(例えば、スクリーン平面、壁
面)上のどのマークに対応しているかが決定できれば、
全投影画像上のスクリーン座標系における被検出位置の
座標が簡単に算出できる。
Next, the four marks (feature points) for position detection specified on these imaging planes are placed on a predetermined plane (eg, screen plane, wall surface) on which a plurality of marks are arranged. If you can determine whether it corresponds to the mark,
The coordinates of the detected position in the screen coordinate system on the entire projection image can be easily calculated.

【0128】図27は、図27(a)投影画像のX*ーY*
座標系と図27(b)パソコン原画像のU−V座標系と
の関係を説明する図である。図27(a)にはスクリー
ン画像の一部を位置検出装置本体の撮像手段にて撮像さ
れた範囲、すなわち撮像画像qを示してある。この図で
は説明を簡単にするため、スクリーン画像に対し、位置
検出装置本体の撮像面は正位置(仰角0度、俯角0度)
に向けて撮像された例とした。従って、スクリーン画像
の座標系であるX*ーY*座標系と撮像面上での座標系X−
Y座標系とは被検出位置Psを原点Omとして重なって
図示されている。
FIG. 27 shows the X * -Y * of the projected image of FIG.
FIG. 27B is a diagram illustrating the relationship between the coordinate system and the UV coordinate system of the original image of the personal computer in FIG. FIG. 27A shows a range in which a part of the screen image is captured by the imaging unit of the position detection device main body, that is, a captured image q. In this figure, for simplicity of description, the imaging surface of the position detection device main body is at the correct position (0 ° elevation, 0 ° depression) with respect to the screen image
The example was taken toward. Therefore, the X * -Y * coordinate system which is the coordinate system of the screen image and the coordinate system X-
The Y coordinate system is illustrated by overlapping the detected position Ps with the origin Om.

【0129】すでに、これらの関係から撮像面上で特定
されたK3(Q1),K6(Q2)、K5(Q3)、K
2(Q4)の4個のマーク座標値に基づいて、スクリー
ン座標系での被検出位置Ps(X*,Y*)は、原画像のカ
ーソル座標系であるU−V座標系における被検出位置P
s(Ui,Vi)へと次式により簡単に変換できる。
K3 (Q1), K6 (Q2), K5 (Q3), and K3 (Q1), K6 (Q2),
The detected position Ps (X *, Y *) in the screen coordinate system is determined based on the four mark coordinate values of 2 (Q4) in the UV coordinate system which is the cursor coordinate system of the original image. P
s (Ui, Vi) can be easily converted by the following equation.

【0130】[0130]

【数14】 [Equation 14]

【0131】ここでスクリーン座標系上で横軸比m=|
S1Ps|/|S2Ps|、縦軸比n=|T1Ps|/|T2
Ps|である。 また、被検出位置が4個のマークによっ
て規定される表示画面領域τ1にある場合であったが、
他の表示画面領域τ2,τ3,τ4いずれの領域であっ
ても、同様な処理が可能である。
Here, the horizontal axis ratio m = | on the screen coordinate system
S1Ps | / | S2Ps |, vertical axis ratio n = | T1Ps | / | T2
Ps |. Also, the detected position is in the display screen area τ1 defined by the four marks,
The same processing can be performed in any of the other display screen regions τ2, τ3, τ4.

【0132】このように全表示画面のどの領域を用いた
かマーク識別から判別して特定する方法は、本実施の形
態で説明した表示画像に限らず、予め所定の位置に配置
された複数の特徴点を有する平面上の一部を検出し、全
体の位置を算出する幅広い用途に用いることが可能であ
る。
The method of determining which area of the entire display screen has been used by identifying the mark from the mark identification is not limited to the display image described in the present embodiment, but may include a plurality of features previously arranged at predetermined positions. It can be used for a wide range of applications in which a part on a plane having points is detected and the entire position is calculated.

【0133】[0133]

【発明の効果】以上の説明したように、本実施の形態に
おいて、撮像面の基準位置を中心位置に設けたので、撮
像レンズの焦点距離と矩形形状を特徴づける4個の画像
位置データとの少ないパラメータを用いた簡単な関係式
により、3次元空間内の矩形平面の位置姿勢及び被検出
位置の算出を可能とした。そのため、位置検出精度の高
い位置検出が、非常に早い演算処理で、容易に実現でき
る。しかも簡単な装置構成であるので、場所を選ばず手
軽に位置検出が行える。
As described above, in the present embodiment, since the reference position of the image pickup surface is provided at the center position, the focal length of the image pickup lens and the four image position data characterizing the rectangular shape are obtained. With a simple relational expression using a small number of parameters, the position and orientation of a rectangular plane in a three-dimensional space and the position to be detected can be calculated. For this reason, position detection with high position detection accuracy can be easily realized by very fast arithmetic processing. Moreover, since the apparatus has a simple configuration, position detection can be easily performed regardless of the location.

【0134】また、本発明の実施の形態によれば、3次
元空間内の表示画面の基準画像に設けられた全てのマー
クを撮像しなくても、矩形形状を特徴づけるマークの個
数が最小個数で規定される表示画面領域の一部分を撮像
できれば、それらの特徴点の画像データから被検出位置
を簡単に算出できる。そのため、表示画面の大きさに応
じて矩形形状を特徴づける最小単位格子形状の大きさを
決めることにより、本発明の位置検出装置の操作範囲は
格段に広がるとともに撮像レンズ性能の負担も軽減され
る。
Further, according to the embodiment of the present invention, the number of marks characterizing a rectangular shape can be minimized without capturing all the marks provided in the reference image on the display screen in the three-dimensional space. If a part of the display screen area defined by the above can be imaged, the detected position can be easily calculated from the image data of those characteristic points. Therefore, by determining the size of the minimum unit lattice shape that characterizes the rectangular shape according to the size of the display screen, the operation range of the position detection device of the present invention is significantly expanded and the burden on the imaging lens performance is reduced. .

【0135】さらに、本実施の形態の位置検出装置は、
予め表示画面上にセンサを設けることなく位置検出が可
能であるため、壁面に投影された画像の位置検出が実現
できた。また、本実施の形態の位置検出装置は、表示画
面に対しどのような位置からも位置検出が可能な従来に
ない新しい位置検出方法であるため、様々な分野におけ
る用途の拡大が期待できる。
Further, the position detecting device of the present embodiment
Since the position can be detected without providing a sensor on the display screen in advance, the position of the image projected on the wall surface can be detected. Further, the position detection device of the present embodiment is a new position detection method that can detect a position on a display screen from any position, and thus can be expected to expand applications in various fields.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本実施の形態に係わる位置検出装置の概念構
成図。
FIG. 1 is a conceptual configuration diagram of a position detection device according to the present embodiment.

【図2】 本実施の形態に係わる位置検出装置の構成ブ
ロック図。
FIG. 2 is a configuration block diagram of a position detection device according to the present embodiment.

【図3】 本実施の形態に係わる位置検出装置の平面姿
勢演算演算手段の構成ブロック図。
FIG. 3 is a block diagram illustrating a configuration of a plane posture calculation operation unit of the position detection device according to the present embodiment.

【図4】 本実施の形態に係わる位置検出装置本体の構
成斜視図。
FIG. 4 is a configuration perspective view of a position detection device main body according to the present embodiment.

【図5】 本実施の形態に係わる位置検出装置の第1の
光学系。
FIG. 5 is a first optical system of the position detection device according to the present embodiment.

【図6】 本実施の形態に係わる位置検出装置の第2の
光学系。
FIG. 6 shows a second optical system of the position detection device according to the present embodiment.

【図7】 本実施の形態に係わる位置検出装置からの信
号を受信するパソコン側のブロック構成図。
FIG. 7 is a block diagram of a personal computer that receives a signal from the position detection device according to the present embodiment.

【図8】 本実施の形態に係わる位置検出装置の基本動
作を説明するフローチャート。
FIG. 8 is a flowchart illustrating a basic operation of the position detection device according to the present embodiment.

【図9】 複数のマークを配置した位置検出用基準画像
を説明する図、図9(a)は第1の基準画像、図9
(b)は第2の基準画像
9A and 9B are views for explaining a position detection reference image in which a plurality of marks are arranged, and FIG. 9A is a first reference image; FIG.
(B) is the second reference image

【図10】 本実施の形態に係わる位置検出装置の特徴
点抽出手段の動作を説明するフローチャート。
FIG. 10 is a flowchart illustrating the operation of a feature point extracting unit of the position detection device according to the present embodiment.

【図11】撮像画像上のマーク配列の第1の例FIG. 11 shows a first example of a mark array on a captured image.

【図12】撮像画像上のマーク配列の第2の例FIG. 12 shows a second example of a mark array on a captured image.

【図13】本実施の形態に係わる位置検出装置のマーク
特定手段の基本動作を説明するフローチャート。
FIG. 13 is a flowchart illustrating a basic operation of a mark specifying unit of the position detection device according to the present embodiment.

【図14】本実施の形態に係わる位置検出装置の検出さ
れた複数のRマークの特定処理を説明するフローチャー
ト。
FIG. 14 is a flowchart illustrating a process of specifying a plurality of detected R marks by the position detection device according to the embodiment;

【図15】本実施の形態に係わる位置検出装置の検出さ
れた複数のBマークの特定処理を説明するフローチャー
ト。
FIG. 15 is a flowchart illustrating a process of specifying a plurality of B marks detected by the position detecting device according to the embodiment;

【図16】本実施の形態に係わる位置検出装置の検出さ
れた複数のEマークの特定処理を説明するフローチャー
ト。
FIG. 16 is a flowchart illustrating a process of specifying a plurality of detected E marks by the position detection device according to the present embodiment.

【図17】被検出位置が表示画面外か否かを判別するフ
ローチャート。
FIG. 17 is a flowchart for determining whether a detected position is outside a display screen.

【図18】所定平面(スクリーン平面)上の被検出位置
を演算処理するための基本動作を説明するフローチャー
ト。
FIG. 18 is a flowchart illustrating a basic operation for calculating a detected position on a predetermined plane (screen plane).

【図19】撮像画像座標系と平面座標系との関係を説明
する図。
FIG. 19 is a diagram illustrating a relationship between a captured image coordinate system and a plane coordinate system.

【図20】矩形形状を特徴づける特徴点(マーク)が撮
像された撮像画像の第1の例。
FIG. 20 is a first example of a captured image in which characteristic points (marks) characterizing a rectangular shape are captured.

【図21】矩形形状を特徴づける特徴点(マーク)が撮
像された撮像画像の第2の例。
FIG. 21 is a second example of a captured image in which characteristic points (marks) characterizing a rectangular shape are captured.

【図22】撮像された画像面上の座標系を説明する図。FIG. 22 is a diagram illustrating a coordinate system on a captured image plane.

【図23】2次元透視射影を説明する図。FIG. 23 is a view for explaining two-dimensional perspective projection.

【図24】3次元透視射影を説明する斜視図。FIG. 24 is a perspective view illustrating three-dimensional perspective projection.

【図25】図24におけるスクリーンのX’−Z’座標
面上への正投影図。
FIG. 25 is an orthographic view of the screen in FIG. 24 on an X′-Z ′ coordinate plane.

【図26】図24におけるスクリーンのY’−Z’座標
面上への正投影図。
FIG. 26 is an orthographic view of the screen in FIG. 24 on the YZ′-Z coordinate plane.

【図27】(a)スクリーン画像上の撮像画像座標系と
(b)パソコン原画像の座標系との関係を説明する図。
FIGS. 27A and 27B are diagrams for explaining the relationship between a coordinate system of a captured image on a screen image and a coordinate system of an original image of a personal computer;

【符号の説明】 1 撮像手段 2 A/D変換手段 3 フレームメモリ 4 制御手段 5 画像処理手段 6A 光照射手段 6B 視準手段 7 第1ボタン(シャッターボタン) 8 第2ボタン(光照射ボタン) 9 出力信号処理手段 10 電源 11 第3ボタン(左クリックボタン) 12 第4ボタン(右クリックボタン) 51 特徴点抽出手段 52 透視射影変換手段 53 位置演算手段 100 本実施の形態に係わる位置検出装置本体 110 スクリーン平面(所定平面) 111 スクリーン面上に投影されている画像 120 パソコン 130 プロジェクタ[Description of Signs] 1 imaging means 2 A / D conversion means 3 frame memory 4 control means 5 image processing means 6A light irradiation means 6B collimation means 7 first button (shutter button) 8 second button (light irradiation button) 9 Output signal processing means 10 Power supply 11 Third button (left click button) 12 Fourth button (right click button) 51 Feature point extraction means 52 Perspective projection conversion means 53 Position calculation means 100 Position detection device body 110 according to the present embodiment 110 Screen plane (predetermined plane) 111 Image projected on screen surface 120 Personal computer 130 Projector

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 3次元空間内に置かれた所定平面上の被
検出位置を検出する位置検出装置であって、前記所定平
面上の予め所定の位置に表示された複数のマークと、前
記所定平面上の被検出位置を撮像画像の中心に合わせ、
前記複数のマークを撮像する撮像手段と、前記撮像手段
により撮像された前記マークを抽出するマーク抽出手段
と、前記マーク抽出手段から抽出された複数のマークの
中から表示されたマークより少ないマークを特定するマ
ーク特定手段と、前記マーク特定手段により特定された
マークの位置に基づいて前記所定平面の被検出位置を算
出する位置姿勢算出手段とを備えたことを特徴とする位
置検出装置。
1. A position detecting device for detecting a position to be detected on a predetermined plane placed in a three-dimensional space, comprising: a plurality of marks displayed at predetermined positions on the predetermined plane; Align the detected position on the plane with the center of the captured image,
Imaging means for imaging the plurality of marks; mark extraction means for extracting the mark imaged by the imaging means; and a mark less than the displayed mark among the plurality of marks extracted from the mark extraction means. A position detecting device comprising: a mark specifying means for specifying; and a position and orientation calculating means for calculating a detected position on the predetermined plane based on the position of the mark specified by the mark specifying means.
【請求項2】 前記複数のマークの配列は格子状に配置
されていることを特徴とする請求項1記載の位置検出装
置。
2. The position detecting device according to claim 1, wherein the arrangement of the plurality of marks is arranged in a grid pattern.
【請求項3】前記複数のマークは少なくとも4種類の色
又は幾何学的形状を用いていることを特徴とする請求項
1又は2記載の位置検出装置。
3. The position detecting device according to claim 1, wherein said plurality of marks use at least four kinds of colors or geometric shapes.
【請求項4】 前記マーク特定手段におけるマーク特定
は撮像画像中心を原点として特定することを特徴とする
請求項1記載の位置検出装置。
4. The position detecting apparatus according to claim 1, wherein the mark specification by said mark specification means is performed by specifying a center of a captured image as an origin.
【請求項5】 前記マーク特定手段により特定された複
数のマークにより、前記撮像手段の撮像面の所定平面に
対する上下左右方向を判別することを特徴とする請求項
1〜4記載の位置検出装置。
5. The position detecting device according to claim 1, wherein a vertical direction and a horizontal direction with respect to a predetermined plane of an image pickup surface of the image pickup unit are determined based on the plurality of marks specified by the mark specifying unit.
【請求項6】 前記所定平面は外部機器から画像表示す
る表示手段であることを特徴とする請求項1記載の位置
検出装置。
6. The position detecting device according to claim 1, wherein said predetermined plane is a display means for displaying an image from an external device.
【請求項7】 前記外部機器はプロジェクタであること
を特徴とする請求項6記載の位置検出装置。
7. The position detecting device according to claim 6, wherein the external device is a projector.
【請求項8】 前記マーク抽出手段は前記撮像手段より
時系列的に撮像された画像間の差分処理に基づいてマー
ク抽出を行うことを特徴とする請求項1または3記載の
位置検出装置。
8. The position detecting apparatus according to claim 1, wherein said mark extracting means performs mark extraction based on a difference process between images taken in time series by said image taking means.
【請求項9】 前記平面位置姿勢算出手段は透視射影変
換手段であることを特徴とする請求項1記載の位置検出
装置。
9. The position detecting apparatus according to claim 1, wherein said plane position / posture calculating means is a perspective projection converting means.
【請求項10】 画像を表示された表示画面上の被検出
位置を検出する位置検出装置であって、被検出位置を検
出する画像上に予め設けられた基準画像を含めて表示す
る表示手段と、前記被検出位置を検出する画像を撮像画
像中心に合わせて、前記基準画像を含めて撮像する撮像
手段と、前記撮像手段により撮像された基準画像に基づ
いて、被検出位置を検出する画像処理手段を備えたこと
を特徴とする位置検出装置。
10. A position detecting device for detecting a detected position on a display screen on which an image is displayed, a display means for displaying a reference image provided in advance on the image for detecting the detected position, and Image pickup means for picking up the image for detecting the detected position at the center of the picked-up image and including the reference image, and image processing for detecting the detected position based on the reference image picked up by the image pickup means A position detecting device comprising means.
【請求項11】 画像を表示された表示画面上の被検出
位置を検出する位置検出装置であって、被検出位置を検
出する画像である第1の画面と前記第1の画面に対応す
る位置に基準画像である第2の画面とを表示する表示手
段と、前記第1の画面の被検出位置を画像中心に合わせ
て、前記第2の画面に表示された基準画像を含めて撮像
する撮像手段と、前記撮像手段により撮像された第2の
画面の基準画像に基づいて第1の画面上の被検出位置を
検出する画像処理手段を備えたことを特徴とする位置検
出装置。
11. A position detecting device for detecting a detected position on a display screen on which an image is displayed, wherein the first screen is an image for detecting the detected position and a position corresponding to the first screen. Display means for displaying a second screen, which is a reference image, and an image pickup device for picking up an image including the reference image displayed on the second screen by adjusting a detected position of the first screen to the center of the image. Means for detecting a position to be detected on the first screen based on a reference image of the second screen imaged by the imaging means.
【請求項12】 前記基準画像は格子状の格子点にマー
クを配列したことを特徴とする請求項10及び11記載
の位置検出装置。
12. The position detecting device according to claim 10, wherein the reference image has marks arranged at grid points.
【請求項13】 前記基準画像に設けられたマークは
R、G、B色の3原色に基づいて構成されていることを
特徴とする請求項12記載の位置検出装置。
13. The position detecting device according to claim 12, wherein the mark provided on the reference image is configured based on three primary colors of R, G, and B colors.
【請求項14】 前記第2の画面は前記撮像手段により
撮像されるときには輝度状態の異なる2種類の画面を表
示することを特徴とする請求項11記載の位置検出装
置。
14. The position detecting device according to claim 11, wherein the second screen displays two types of screens having different luminance states when the second screen is picked up by the image pickup means.
【請求項15】 前記第2の画面は前記第1の画面に重
畳されていることを特徴とする請求項11記載の位置検
出装置
15. The position detecting device according to claim 11, wherein the second screen is superimposed on the first screen.
【請求項16】 前記第2の画面の表示切替動作は第1
の画面上の被検出位置と前記撮像手段の撮像画像中心位
置と合ったとき送出される信号によって実行されること
を特徴とする請求項11記載の位置検出装置。
16. The display switching operation of the second screen is the first screen switching operation.
12. The position detection apparatus according to claim 11, wherein the position detection apparatus is executed by a signal transmitted when a detected position on the screen of the image pickup apparatus coincides with a center position of a captured image of the imaging unit.
【請求項17】 3次元空間内に置かれた所定平面上の
被検出位置を検出する位置検出方法であって、前記所定
平面上の予め所定の位置に複数のマークを表示する表示
ステップと、前記所定平面上の被検出位置を撮像画像の
中心に合わせる位置合わせステップと、前記表示された
複数のマークの中から少なくとも4個を含めて撮像する
撮像する撮像ステップと、前記撮像された前記マークを
抽出する抽出ステップと、前記抽出ステップにて抽出さ
れた複数のマークの中から前記所定平面の位置姿勢を算
出するためのマークを特定する特定ステップと、前記特
定ステップにて特定されたマーク位置に基づいて前記所
定平面の被検出位置を演算する演算ステップとを含むこ
とを特徴とする位置検出方法。
17. A position detecting method for detecting a detected position on a predetermined plane placed in a three-dimensional space, comprising: a display step of displaying a plurality of marks at predetermined positions on the predetermined plane in advance; An alignment step of aligning a detected position on the predetermined plane with a center of a captured image; an imaging step of capturing an image including at least four of the displayed marks; and the captured mark An extraction step of extracting a mark, an identification step of identifying a mark for calculating the position and orientation of the predetermined plane from among the plurality of marks extracted in the extraction step, and a mark position identified by the identification step Calculating a detected position on the predetermined plane based on the calculated position.
【請求項18】 前記所定平面は画像表示画面であるこ
とを特徴とする請求項17記載の位置検出方法。
18. The position detecting method according to claim 17, wherein the predetermined plane is an image display screen.
【請求項19】 前記抽出ステップは前記撮像手段によ
り時系列に撮像された複数の画像間の差分処理によりマ
ーク抽出を行うことを特徴とする請求項17及び18記
載の位置検出方法。
19. The position detecting method according to claim 17, wherein said extracting step performs mark extraction by a difference process between a plurality of images taken in time series by said image pickup means.
JP2001062848A 2000-03-07 2001-03-07 Device and method for detecting position Pending JP2001325069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001062848A JP2001325069A (en) 2000-03-07 2001-03-07 Device and method for detecting position

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000067129 2000-03-07
JP2000-67129 2000-03-07
JP2001062848A JP2001325069A (en) 2000-03-07 2001-03-07 Device and method for detecting position

Publications (1)

Publication Number Publication Date
JP2001325069A true JP2001325069A (en) 2001-11-22

Family

ID=26587216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001062848A Pending JP2001325069A (en) 2000-03-07 2001-03-07 Device and method for detecting position

Country Status (1)

Country Link
JP (1) JP2001325069A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004081783A1 (en) * 2003-03-14 2004-09-23 Fujitsu Limited Pointer area detecting device, method, and program, image relating device, method, and program, content distributing server, and content distributing method
WO2005013115A1 (en) * 2003-08-01 2005-02-10 Sony Corporation Position-detecting system
WO2005096130A1 (en) * 2004-03-31 2005-10-13 Tamura Corporation Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
WO2005096129A1 (en) * 2004-03-31 2005-10-13 Tamura Corporation Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
JP2006522967A (en) * 2003-04-08 2006-10-05 スマート テクノロジーズ インコーポレイテッド Automatic alignment touch system and method
US7196721B2 (en) 2002-02-14 2007-03-27 Canon Kabushiki Kaisha Information processing method and apparatus, and recording medium
JP2007252915A (en) * 2006-03-21 2007-10-04 Avago Technologies General Ip (Singapore) Private Ltd Active referencing method with interleaved crosshair navigation frames
JP2007257438A (en) * 2006-03-24 2007-10-04 Casio Comput Co Ltd Pointing device, external information processor, instruction position specifying device and instruction position specifying method
JP2007322429A (en) * 2006-06-01 2007-12-13 Micro-Nits Co Ltd Calibration method in image processing of point input system and tracing method in image processing of point input system
WO2008099564A1 (en) * 2007-01-12 2008-08-21 Capcom Co., Ltd. Display control device, program for implementing the display control device, and recording medium containing the program
JP2008198111A (en) * 2007-02-15 2008-08-28 Namco Bandai Games Inc Instructed position calculation system, instruction object, and game system
JP2008198112A (en) * 2007-02-15 2008-08-28 Namco Bandai Games Inc Indication position operation system, indication body, and game system
JP2008242512A (en) * 2007-03-23 2008-10-09 Saxa Inc Setting device for detection area and setting method therefor
JP2009048616A (en) * 2007-08-14 2009-03-05 Fuji Xerox Co Ltd Method, system, and program for dynamically controlling cursor on screen when using video camera as pointing device
JP2009064409A (en) * 2007-03-26 2009-03-26 Avago Technologies Ecbu Ip (Singapore) Pte Ltd System and method for tracking input device using display screen in captured frames of image data
JP2010237913A (en) * 2009-03-31 2010-10-21 Pentel Corp Coordinate correction method
US7956842B2 (en) 2004-06-11 2011-06-07 Micro-Nits Co., Ltd. Pointing input system and method using one or more array sensors
US7974462B2 (en) 2006-08-10 2011-07-05 Canon Kabushiki Kaisha Image capture environment calibration method and information processing apparatus
JP2012133808A (en) * 2006-12-28 2012-07-12 Pixart Imaging Inc Cursor control method and device
JP2012230702A (en) * 2007-05-26 2012-11-22 Moon Key Lee Pointing device with camera and mark output
JP2014010609A (en) * 2012-06-29 2014-01-20 Casio Comput Co Ltd Projection device, pointer device and projection system
JP2014010128A (en) * 2012-07-03 2014-01-20 Ihi Corp Concentration measurement device and concentration measurement method
JP2015043066A (en) * 2013-07-25 2015-03-05 株式会社リコー Image projection device
JP2015537417A (en) * 2012-10-22 2015-12-24 ムン キ イ, Video processing device using difference camera
US9324295B2 (en) 2012-09-10 2016-04-26 Seiko Epson Corporation Display device and method of controlling display device
WO2016084435A1 (en) * 2014-11-27 2016-06-02 ソニー株式会社 Information processing device, information processing method and information processing system
JP2016126762A (en) * 2015-01-08 2016-07-11 原相科技股▲ふん▼有限公司 Relative position determination method, display control method, and system applying the same method
US9778755B2 (en) 2012-10-11 2017-10-03 Moon Key Lee Image processing system using polarization difference camera
US9785253B2 (en) 2007-05-26 2017-10-10 Moon Key Lee Pointing device using camera and outputting mark
JP2021114343A (en) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ Display system and display control method for display system
US11402927B2 (en) 2004-05-28 2022-08-02 UltimatePointer, L.L.C. Pointing device
US11841997B2 (en) 2005-07-13 2023-12-12 UltimatePointer, L.L.C. Apparatus for controlling contents of a computer-generated image using 3D measurements
JP7458281B2 (en) 2020-09-30 2024-03-29 日本放送協会 Color correction device and its program

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7196721B2 (en) 2002-02-14 2007-03-27 Canon Kabushiki Kaisha Information processing method and apparatus, and recording medium
US7341352B2 (en) 2003-03-14 2008-03-11 Fujitsu Limited Apparatus, method and program for detecting a pointer region, apparatus, method and program for associating images, content-distributing server, and content-distributing method
WO2004081783A1 (en) * 2003-03-14 2004-09-23 Fujitsu Limited Pointer area detecting device, method, and program, image relating device, method, and program, content distributing server, and content distributing method
JP2006522967A (en) * 2003-04-08 2006-10-05 スマート テクノロジーズ インコーポレイテッド Automatic alignment touch system and method
JP4820285B2 (en) * 2003-04-08 2011-11-24 スマート テクノロジーズ ユーエルシー Automatic alignment touch system and method
WO2005013115A1 (en) * 2003-08-01 2005-02-10 Sony Corporation Position-detecting system
WO2005096130A1 (en) * 2004-03-31 2005-10-13 Tamura Corporation Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
WO2005096129A1 (en) * 2004-03-31 2005-10-13 Tamura Corporation Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
US11402927B2 (en) 2004-05-28 2022-08-02 UltimatePointer, L.L.C. Pointing device
US11755127B2 (en) 2004-05-28 2023-09-12 UltimatePointer, L.L.C. Multi-sensor device with an accelerometer for enabling user interaction through sound or image
US11416084B2 (en) 2004-05-28 2022-08-16 UltimatePointer, L.L.C. Multi-sensor device with an accelerometer for enabling user interaction through sound or image
US11409376B2 (en) 2004-05-28 2022-08-09 UltimatePointer, L.L.C. Multi-sensor device with an accelerometer for enabling user interaction through sound or image
US7956842B2 (en) 2004-06-11 2011-06-07 Micro-Nits Co., Ltd. Pointing input system and method using one or more array sensors
US11841997B2 (en) 2005-07-13 2023-12-12 UltimatePointer, L.L.C. Apparatus for controlling contents of a computer-generated image using 3D measurements
JP2007252915A (en) * 2006-03-21 2007-10-04 Avago Technologies General Ip (Singapore) Private Ltd Active referencing method with interleaved crosshair navigation frames
JP2007257438A (en) * 2006-03-24 2007-10-04 Casio Comput Co Ltd Pointing device, external information processor, instruction position specifying device and instruction position specifying method
JP4725383B2 (en) * 2006-03-24 2011-07-13 カシオ計算機株式会社 Pointing device, external information processing device, pointing position specifying device, and pointing position specifying method
JP2007322429A (en) * 2006-06-01 2007-12-13 Micro-Nits Co Ltd Calibration method in image processing of point input system and tracing method in image processing of point input system
US7974462B2 (en) 2006-08-10 2011-07-05 Canon Kabushiki Kaisha Image capture environment calibration method and information processing apparatus
JP2012133808A (en) * 2006-12-28 2012-07-12 Pixart Imaging Inc Cursor control method and device
JP5355097B2 (en) * 2007-01-12 2013-11-27 株式会社カプコン Display control apparatus, control method, program, and computer-readable recording medium recording the program
US8451215B2 (en) 2007-01-12 2013-05-28 Capsom Co., Ltd. Display control device, program for implementing the display control device, and recording medium containing the program
WO2008099564A1 (en) * 2007-01-12 2008-08-21 Capcom Co., Ltd. Display control device, program for implementing the display control device, and recording medium containing the program
US8290214B2 (en) 2007-02-15 2012-10-16 Namco Bandai Games Inc. Indication position calculation system, indicator for indication position calculation system, game system, and indication position calculation method for user input in dynamic gaming systems
JP2008198112A (en) * 2007-02-15 2008-08-28 Namco Bandai Games Inc Indication position operation system, indication body, and game system
JP2008198111A (en) * 2007-02-15 2008-08-28 Namco Bandai Games Inc Instructed position calculation system, instruction object, and game system
JP2008242512A (en) * 2007-03-23 2008-10-09 Saxa Inc Setting device for detection area and setting method therefor
JP2009064409A (en) * 2007-03-26 2009-03-26 Avago Technologies Ecbu Ip (Singapore) Pte Ltd System and method for tracking input device using display screen in captured frames of image data
US8438480B2 (en) 2007-03-26 2013-05-07 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for tracking an input device using a display screen in captured frames of image data
US9785253B2 (en) 2007-05-26 2017-10-10 Moon Key Lee Pointing device using camera and outputting mark
JP2012230702A (en) * 2007-05-26 2012-11-22 Moon Key Lee Pointing device with camera and mark output
JP2015187884A (en) * 2007-05-26 2015-10-29 キィ リー、ムーン Pointing device with camera and mark output
JP2009048616A (en) * 2007-08-14 2009-03-05 Fuji Xerox Co Ltd Method, system, and program for dynamically controlling cursor on screen when using video camera as pointing device
JP2010237913A (en) * 2009-03-31 2010-10-21 Pentel Corp Coordinate correction method
JP2014010609A (en) * 2012-06-29 2014-01-20 Casio Comput Co Ltd Projection device, pointer device and projection system
JP2014010128A (en) * 2012-07-03 2014-01-20 Ihi Corp Concentration measurement device and concentration measurement method
US9324295B2 (en) 2012-09-10 2016-04-26 Seiko Epson Corporation Display device and method of controlling display device
US9778755B2 (en) 2012-10-11 2017-10-03 Moon Key Lee Image processing system using polarization difference camera
US9727973B2 (en) 2012-10-22 2017-08-08 Moon Key Lee Image processing device using difference camera
JP2015537417A (en) * 2012-10-22 2015-12-24 ムン キ イ, Video processing device using difference camera
JP2015043066A (en) * 2013-07-25 2015-03-05 株式会社リコー Image projection device
US10452158B2 (en) 2014-11-27 2019-10-22 Sony Corporation Information processing device, information processing method, and information processing system
WO2016084435A1 (en) * 2014-11-27 2016-06-02 ソニー株式会社 Information processing device, information processing method and information processing system
JP2016126762A (en) * 2015-01-08 2016-07-11 原相科技股▲ふん▼有限公司 Relative position determination method, display control method, and system applying the same method
JP7064040B2 (en) 2017-07-11 2022-05-09 株式会社日立エルジーデータストレージ Display system and display control method of display system
JP2021114343A (en) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ Display system and display control method for display system
JP7458281B2 (en) 2020-09-30 2024-03-29 日本放送協会 Color correction device and its program

Similar Documents

Publication Publication Date Title
JP2001325069A (en) Device and method for detecting position
KR101187500B1 (en) Light projection device and illumination device
US11039121B2 (en) Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
US8272746B2 (en) Projection display apparatus and display method
US8251524B2 (en) Projection display apparatus and display method
US20050036117A1 (en) Image processing system, projector, program, information storage medium and image processing method
CN103279313B (en) Display device and display control method
JP3969363B2 (en) Projector and projection image correction method for projector
JP6205777B2 (en) Projection apparatus, projection method, and program for projection
US20170163949A1 (en) Apparatus using a projector, method, and storage medium
JP4710734B2 (en) Pointing device, pointing position detection method, and program
JP2000357055A (en) Method and device for correcting projection image and machine readable medium
CN112399158B (en) Projection image calibration method and device and projection equipment
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP2003219324A (en) Image correction data calculation method, image correction data calculation apparatus, and multi- projection system
JP2008134793A (en) Electronic handwriting input device
CN111694528A (en) Method for identifying typesetting of display wall and electronic device using same
KR100702534B1 (en) Id judgment method by using extension type visual marker including direrction information
JP2001166881A (en) Pointing device and its method
JPWO2005096130A1 (en) Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus
US20190295277A1 (en) Projection control device, marker detection method, and storage medium
JP2012220602A (en) Projection device, control device, and control method
JP2005303493A (en) Obstacle-adaptive projection type display
JP2000081950A (en) Image processor, image processing method, presentation medium, and presentation system
JP2005250628A (en) Pattern, device and method for camera calibration