JP5195041B2 - Pointing device, object recognition device, and program - Google Patents

Pointing device, object recognition device, and program Download PDF

Info

Publication number
JP5195041B2
JP5195041B2 JP2008143313A JP2008143313A JP5195041B2 JP 5195041 B2 JP5195041 B2 JP 5195041B2 JP 2008143313 A JP2008143313 A JP 2008143313A JP 2008143313 A JP2008143313 A JP 2008143313A JP 5195041 B2 JP5195041 B2 JP 5195041B2
Authority
JP
Japan
Prior art keywords
reference point
image
points
pointing device
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008143313A
Other languages
Japanese (ja)
Other versions
JP2009288172A (en
Inventor
宏之 堀田
保次 瀬古
泰之 佐口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2008143313A priority Critical patent/JP5195041B2/en
Publication of JP2009288172A publication Critical patent/JP2009288172A/en
Application granted granted Critical
Publication of JP5195041B2 publication Critical patent/JP5195041B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、三次元空間において対象物を指示する指示装置等に関する。   The present invention relates to a pointing device or the like for pointing an object in a three-dimensional space.

所定の対象物の三次元空間における位置を計測する手段として、2台のカメラで対象物を撮影し、カメラ同士の間の距離を基線とした三角測量によって対象物の位置座標を算出する方法がよく用いられる。また、リモコンに取り付けられた発光素子の光量等を検出し、リモコンの姿勢角度を検出する技術が存在する。   As a means for measuring the position of a predetermined object in a three-dimensional space, there is a method of photographing the object with two cameras and calculating the position coordinates of the object by triangulation using the distance between the cameras as a base line. Often used. In addition, there is a technique for detecting a light amount of a light emitting element attached to a remote controller and detecting a posture angle of the remote controller.

例えば、特許文献1には、レーザポインタで形成される光点により指示される被計測点を含む領域を複数のカメラで撮影し、この画像信号はカメラ識別信号発生器によって生成されたカメラ識別信号が付加された上で、ホストコンピュータに入力され、ホストコンピュータは、入力された画像からカメラ識別信号を検出し、画像の撮影元のカメラを特定する。そして1対の画像について、画像内の光点位置と撮影元カメラの位置等のデータに基づき三角測量演算を行って被計測点の三次元位置を算出する三次元位置計測システムが開示されている。   For example, in Patent Document 1, a region including a measurement point indicated by a light spot formed by a laser pointer is photographed by a plurality of cameras, and this image signal is a camera identification signal generated by a camera identification signal generator. Is added to the host computer, and the host computer detects a camera identification signal from the input image and identifies the camera from which the image was taken. A three-dimensional position measurement system is disclosed that calculates a three-dimensional position of a point to be measured by performing triangulation calculation on a pair of images based on data such as a light spot position in the image and a position of a photographing source camera. .

また、特許文献2には、複数の異なる方向に取り付けられた赤外発光素子の内の一つより機器の位置方向確認信号を送信し、機器からの応答信号の有無を確認することを、複数の赤外発光素子全てに対して順次行うことにより機器の位置方向を判断し記憶する双方向リモコンシステムが開示されている。   Further, Patent Document 2 discloses that a device direction / direction confirmation signal is transmitted from one of a plurality of infrared light emitting elements attached in different directions, and the presence / absence of a response signal from the device is confirmed. A bidirectional remote control system is disclosed in which the position and direction of an apparatus is determined and stored by sequentially performing processing for all the infrared light emitting elements.

また更に、特許文献3には、発光素子を順次変位させ、各変位位置で発光素子に発光用信号を供給して位置検出用光信号を発光出力させ、受光装置の位置検出用受光素子で受光入力した受光信号を順次検出して、検出した受光信号を適宜演算処理することにより、基準軸変位角θsの変位状態を検出する。そして、基準軸変位角θsの変位状態をポインタに対する指示信号としてポインタの移動を制御する遠隔制御装置が開示されている。   Further, in Patent Document 3, the light emitting elements are sequentially displaced, light emission signals are supplied to the light emitting elements at the respective displacement positions, and light signals for position detection are emitted and output, and the light receiving elements for position detection of the light receiving device receive the light. By sequentially detecting the received light reception signal and appropriately calculating the detected light reception signal, the displacement state of the reference axis displacement angle θs is detected. A remote control device that controls the movement of the pointer using the displacement state of the reference axis displacement angle θs as an instruction signal for the pointer is disclosed.

また更に、特許文献4には、基準受信装置から発光された基準放射光を集光レンズを用いずに直接リモコン送信装置の4分割フォトダイオードの受光面へ導光するリモコン送信装置の姿勢角度検出システムが開示されている。   Furthermore, Patent Document 4 discloses the attitude angle detection of the remote control transmitter that guides the reference radiated light emitted from the reference receiver directly to the light receiving surface of the four-division photodiode of the remote control transmitter without using the condenser lens. A system is disclosed.

特開平11−23262号公報Japanese Patent Laid-Open No. 11-23262 特開2000−4199号公報JP 2000-4199 A 特開2006−155346号公報JP 2006-155346 A 特開平8−210825号公報JP-A-8-210825

このような指示装置においては、指示装置を操作するユーザの使い方によっては、対象物を正確に特定できないことがあり、ユーザの使い方に依存せずに指示装置が指示する対象物を高精度に計測できることが望まれる。
本発明の目的は、対象物を特定するのに、操作するユーザの使い方に依存しにくい指示装置等を提供することにある。
In such a pointing device, depending on how the user who operates the pointing device is used, the target may not be accurately identified, and the target indicated by the pointing device can be measured with high accuracy without depending on the user's usage. It is hoped that it can be done.
An object of the present invention is to provide a pointing device or the like that is less dependent on how a user operates to specify an object.

請求項1に係る発明は、発光点からなる複数の基準点集合と、前記発光点を前記基準点集合毎に点灯し、1つの基準点集合の発光点が点灯するときは、当該1つの基準点集合以外の発光点は消灯する制御手段と、を有し、前記基準点集合は、互いの位置関係が特定されている平面上の3つ以上の第1基準点と当該第1基準点との位置関係が特定されている1つの第2基準点とからなり、他の装置にて撮影された当該基準点集合の当該第1基準点の画像および当該第2基準点の画像の位置関係から対象物が特定されることを特徴とする指示装置である。   In the invention according to claim 1, when a plurality of reference point sets composed of light emitting points and the light emitting points are turned on for each reference point set, and the light emitting points of one reference point set are turned on, the one reference point set Control means for turning off the light emitting points other than the point set, and the reference point set includes three or more first reference points on a plane in which the mutual positional relationship is specified, and the first reference point From the positional relationship between the image of the first reference point and the image of the second reference point of the reference point set photographed by another device. The pointing device is characterized in that an object is specified.

請求項2に係る発明は、前記第2基準点は、前記第1基準点が配される前記平面上には配置されないことを特徴とする請求項1に記載の指示装置である。
請求項3に係る発明は、前記第1基準点および前記第2基準点の配置は、前記基準点集合毎に異なることを特徴とする請求項1に記載の指示装置である。
請求項4に係る発明は、前記指示装置が指示する箇所と同一の箇所に可視光線を照射する可視光線照射手段を更に有することを特徴とする請求項1に記載の指示装置である。
The invention according to claim 2 is the pointing device according to claim 1, wherein the second reference point is not arranged on the plane on which the first reference point is arranged.
The invention according to claim 3 is the pointing device according to claim 1, wherein the arrangement of the first reference point and the second reference point is different for each set of reference points.
The invention according to claim 4 is the pointing device according to claim 1, further comprising visible light irradiation means for irradiating visible light to the same location indicated by the pointing device.

請求項5に係る発明は、平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点が複数組配置された指示装置を撮影する撮影部と、前記第1基準点の互いの位置関係、前記第2基準点の当該第1基準点との位置関係および対象物の三次元位置を記憶する記憶部と、前記記憶部から前記第1基準点の互いの位置関係および前記第2基準点の当該第1基準点との位置関係を読み出し、前記撮影部により撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する判別部と、前記記憶部から対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する演算部と、を備えることを特徴とする対象物認識装置である。 According to a fifth aspect of the present invention, there is provided a photographing unit for photographing a pointing device in which a plurality of first reference points including three or more points on a plane and a plurality of second reference points including one point are arranged, and the first A storage unit that stores a mutual positional relationship of reference points, a positional relationship of the second reference point with the first reference point, and a three-dimensional position of an object, and a mutual position of the first reference point from the storage unit The relationship and the positional relationship between the second reference point and the first reference point are read out, and the image of the first reference point and the image of the second reference point photographed by the photographing unit is which set of images. Based on the positional relationship between the image of the first reference point and the image of the second reference point captured by the image capturing unit , the three-dimensional position of the object is read from the determination unit and the storage unit. The point image and the second reference point image are identified, and the identified image And a computing unit for identifying the object instructing of the pointing device by the image of the image and the second reference point of the first reference point to determine the three-dimensional position, three-axis angle and pointing direction of the pointing device This is an object recognition apparatus characterized by the above.

請求項に係る発明は、前記判別部は、前記第1基準点および前記第2基準点の配置の違いにより当該第1基準点および当該第2基準点の画像が何れの組の画像であるかを判別することを特徴とする請求項5に記載の対象物認識装置である。
請求項に係る発明は、前記第1基準点の画像および前記第2基準点の画像が複数組撮影されたときは、前記指示装置が指示する対象物を特定するのに適当な組の選択を行う選択部を更に有することを特徴とする請求項5に記載の対象物認識装置である。
In the invention according to claim 6 , the determination unit is any set of images of the first reference point and the second reference point due to a difference in arrangement of the first reference point and the second reference point. It is discriminate | determining, It is a target object recognition apparatus of Claim 5 characterized by the above-mentioned.
According to a seventh aspect of the present invention, when a plurality of sets of the first reference point image and the second reference point image are taken, selection of an appropriate set for specifying the object indicated by the pointing device The object recognition apparatus according to claim 5, further comprising a selection unit that performs the operation.

請求項に係る発明は、コンピュータに、指示装置上に複数組配置された平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点の互いの位置関係をメモリから読み出し、撮影部により撮影された当該第1基準点の画像および当該第2基準点の画像が何れの組の画像であるかを判別する機能と、メモリから対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する機能と、を実現させるプログラムである。 According to an eighth aspect of the present invention, a positional relationship between a first reference point composed of three or more points on a plane and a second reference point composed of one point is arranged on a computer. A function for determining which set of images the image of the first reference point and the image of the second reference point read out from the memory and imaged by the photographing unit, and the three-dimensional position of the object are read out from the memory The image of the first reference point and the image of the second reference point are identified and identified from the positional relationship between the image of the first reference point and the image of the second reference point captured by the photographing unit. A function for specifying an object indicated by the pointing device by obtaining a three-dimensional position, a three-axis angle, and a pointing direction of the pointing device from the image of the first reference point and the image of the second reference point. This is a program to be realized.

請求項1の発明によれば、本構成を採用しない場合に比較して、発光点の撮影をする際に、指示装置の向きや三次元位置に対する影響を受けにくくすることができる。
請求項2の発明によれば、本構成を採用しない場合に比較して、指示装置の三次元位置および三軸角度をより高精度に計測できる。
請求項3の発明によれば、本構成を採用しない場合に比較して、第1基準点の画像および第2基準点の画像が何れの組の画像であるかをより簡単に判別することができる。
請求項4の発明によれば、本構成を採用しない場合に比較して、指示装置の操作をより容易に行うことができる。
請求項5の発明によれば、本構成を採用しない場合に比較して、より簡易な構成で、撮影部により撮影された第1基準点の画像および第2基準点の画像から、指示装置が指示する対象物を高精度に特定できる対象物認識装置を得ることができる。このとき第1基準点の画像および第2基準点の画像から、第1基準点が配置された平面とその向きが特定されることによって、この平面が設定された指示装置の三次元位置および三軸角度を計測できる。また、第2基準点の第1基準点との位置関係により指示装置の指示する対象物を特定することができる。
請求項の発明によれば、本構成を採用しない場合に比較して、第1基準点の画像および第2基準点の画像が何れの組の画像であるかをより簡単に判別することができる。
請求項の発明によれば、本構成を採用しない場合に比較して、指示装置が指示する対象物をより高精度に特定することができる。
請求項の発明によれば、本構成を採用しない場合に比較して、撮影部により撮影された第1基準点の画像および第2基準点の画像から、指示装置が指示する対象物を高精度に特定できる機能を、コンピュータにより実現できる。このとき第1基準点の画像および第2基準点の画像から、第1基準点が配置された平面とその向きが特定されることによって、この平面が設定された指示装置の三次元位置および三軸角度を計測できる。また、第2基準点の第1基準点との位置関係により指示装置の指示する対象物を特定することができる。
According to the first aspect of the present invention, it is possible to make it less susceptible to the orientation of the pointing device and the three-dimensional position when photographing the light emitting point, as compared with the case where this configuration is not adopted.
According to invention of Claim 2, compared with the case where this structure is not employ | adopted, the three-dimensional position and triaxial angle of a pointing device can be measured with high precision.
According to the invention of claim 3, it is possible to more easily determine which set of images the image of the first reference point and the image of the second reference point are compared to the case where this configuration is not adopted. it can.
According to the fourth aspect of the present invention, the pointing device can be operated more easily than when the present configuration is not adopted.
According to the fifth aspect of the present invention, the pointing device has a simpler configuration than the case where the present configuration is not employed, and the pointing device uses the first reference point image and the second reference point image captured by the photographing unit. It is possible to obtain an object recognition apparatus that can specify an object to be indicated with high accuracy. At this time, by specifying the plane on which the first reference point is arranged and its orientation from the image of the first reference point and the image of the second reference point, the three-dimensional position and three points of the pointing device on which the plane is set are specified. Axis angle can be measured. In addition, the object indicated by the pointing device can be specified by the positional relationship between the second reference point and the first reference point.
According to the sixth aspect of the present invention, it is possible to more easily determine which set of images the image of the first reference point and the image of the second reference point are compared to the case where this configuration is not adopted. it can.
According to the seventh aspect of the present invention, it is possible to specify the target object indicated by the pointing device with higher accuracy than when the present configuration is not adopted.
According to the eighth aspect of the present invention, compared with the case where the present configuration is not adopted, the object pointed to by the pointing device is increased from the first reference point image and the second reference point image captured by the photographing unit. Functions that can be specified with accuracy can be realized by a computer. At this time, by specifying the plane on which the first reference point is arranged and its orientation from the image of the first reference point and the image of the second reference point, the three-dimensional position and three points of the pointing device on which the plane is set are specified. Axis angle can be measured. In addition, the object indicated by the pointing device can be specified by the positional relationship between the second reference point and the first reference point.

以下、添付図面を参照して、本発明の実施形態について詳細に説明する。
<システム構成>
図1は、本実施形態が適用される対象物認識装置、指示装置、および対象物を含む対象物認識システムの全体構成を示す図である。
図1に示す対象物認識システムは、撮影対象である指示装置100と、指示装置100の三次元位置、三軸角度、および指示方向を計算し、これらの情報から指示装置100が指示する対象物300を特定する対象物認識装置200から構成されている。そして、対象物認識装置200は、指示装置100を撮影する撮影部の一例としてのカメラ20と、カメラ20により撮影された画像に基づいて指示装置100の三次元位置、三軸角度、および指示方向を演算する演算装置30とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<System configuration>
FIG. 1 is a diagram illustrating an overall configuration of an object recognition system including an object recognition device, an instruction device, and an object to which the present embodiment is applied.
The target object recognition system shown in FIG. 1 calculates a pointing device 100 that is a subject to be imaged, a three-dimensional position, a three-axis angle, and a pointing direction of the pointing device 100, and the target device that the pointing device 100 points from these information. The object recognition device 200 that identifies 300 is configured. Then, the object recognition apparatus 200 includes a camera 20 as an example of a photographing unit that photographs the pointing device 100, and a three-dimensional position, a three-axis angle, and a pointing direction of the pointing device 100 based on an image captured by the camera 20. And an arithmetic unit 30 that calculates

図2(A)〜(B)は、本実施形態が適用される指示装置100の構成を示す図である。
指示装置100は、直方体形状を成し、その4つの各側面に第1基準点と第2基準点とからなる基準点集合をそれぞれ4組備える。
ここで、図2(A)は、指示装置100を1つの側面上から見た図である。図2(A)に示すように、指示装置100の1つの側面には、指示装置100の三次元位置および三軸角度を計算するために用いられる第1基準点11a〜14aと、所定の情報を付加するために用いられる第2基準点15aとが設けられている。第1基準点11a〜14aおよび第2基準点15aは、互いの位置関係が予め特定されており、LED(Light Emitting Diode)等の発光点で構成される。
2A to 2B are diagrams illustrating the configuration of the pointing device 100 to which the present embodiment is applied.
The pointing device 100 has a rectangular parallelepiped shape, and includes four sets of reference points each including a first reference point and a second reference point on each of its four side surfaces.
Here, FIG. 2A is a view of the pointing device 100 as viewed from one side. As shown in FIG. 2A, on one side surface of the pointing device 100, first reference points 11a to 14a used for calculating a three-dimensional position and a three-axis angle of the pointing device 100, and predetermined information And a second reference point 15a used for adding. The first reference points 11a to 14a and the second reference point 15a have a predetermined positional relationship with each other, and are configured by light emitting points such as LEDs (Light Emitting Diodes).

また他の3つの側面には、第1基準点11b〜14bおよび第2基準点15bと、第1基準点11c〜14cおよび第2基準点15cと、第1基準点11d〜14dおよび第2基準点15dとからなる基準点集合がそれぞれ設けられている。   The other three side surfaces include the first reference points 11b to 14b and the second reference point 15b, the first reference points 11c to 14c and the second reference point 15c, the first reference points 11d to 14d and the second reference point. A set of reference points each including a point 15d is provided.

また指示装置100は、このLEDの点灯を制御する制御手段としての発光制御装置16を内部に備える。発光制御装置16は、上述した4組の基準点集合を基準点集合毎に点灯させる。点灯の順番は、任意であり、順番に規則性があっても不規則であってもよい。但し、何れか1つの基準点集合の発光点が点灯するときは、この1つの基準点集合以外の発光点は消灯することが好ましい。このようにすればカメラ20に撮影される基準点集合が1組のものになりやすく、後で詳述する演算がより簡単になる。また、どの基準点集合も点灯しない時間帯があってもよい。特に各基準点集合の点灯の合間に発光しない時間帯を設ければ、残光の影響などを回避しやすくなるため好ましい。   In addition, the pointing device 100 includes a light emission control device 16 as a control unit that controls lighting of the LED. The light emission control device 16 turns on the four reference point sets described above for each reference point set. The order of lighting is arbitrary, and the order may be regular or irregular. However, when the light emitting point of any one reference point set is turned on, it is preferable that the light emitting points other than this one reference point set are turned off. In this way, the set of reference points photographed by the camera 20 is likely to be one set, and the calculation described in detail later becomes easier. Moreover, there may be a time zone in which no reference point set is lit. In particular, it is preferable to provide a time zone in which no light is emitted between the lighting of each reference point set, because it becomes easy to avoid the influence of afterglow.

ここで、基準点集合として、第1基準点11a〜14aおよび第2基準点15aよりなる基準点集合を例にとり、以下に各基準点の配置等の説明を行う。但し、他の基準点集合である第1基準点11b〜14bおよび第2基準点15b、第1基準点11c〜14cおよび第2基準点15c、第1基準点11d〜14dおよび第2基準点15dを選択した場合でも同様のことが言える。   Here, as a reference point set, a reference point set including the first reference points 11a to 14a and the second reference point 15a is taken as an example, and the arrangement of the reference points will be described below. However, the first reference points 11b to 14b and the second reference point 15b, which are other reference point sets, the first reference points 11c to 14c and the second reference point 15c, the first reference points 11d to 14d and the second reference point 15d. The same can be said when selecting.

第1基準点11a〜14aは、指示装置100の表面に設けられる。一方、第2基準点15aは、指示装置100に取り付けられた脚の先端に設けられる。
第1基準点11a〜14aにより形成される四角形の形状は、例えば平行四辺形とすることができる。図2(A)〜(B)に示す例では、平行四辺形の一形態である正方形の形状とし、その一辺を51mm(図示しない)とした。
また、第2基準点15aは、後に詳述する第1基準点11a〜14aと第2基準点15aとの識別の必要性から、配置に対し一定の条件を満たす必要がある。例えば、第1基準点11a〜14aおよび第2基準点15aからなる5つの点の重心から最も遠い位置に配置することが考えられる。ここでは、この平行四辺形の対角線の交点から第1基準点12aと第1基準点13aを結ぶ線分の中点の方向へ46mm(図示しない)離れた箇所に長さ7mm(図示しない)の脚を付け、その先端に第2基準点15aを設けた。
The first reference points 11 a to 14 a are provided on the surface of the pointing device 100. On the other hand, the second reference point 15 a is provided at the tip of a leg attached to the pointing device 100.
The quadrangular shape formed by the first reference points 11a to 14a can be, for example, a parallelogram. In the example shown in FIGS. 2A to 2B, a square shape which is one form of the parallelogram is used, and one side thereof is 51 mm (not shown).
Further, the second reference point 15a needs to satisfy a certain condition with respect to the arrangement because of the necessity of identifying the first reference points 11a to 14a and the second reference point 15a, which will be described in detail later. For example, it can be considered that the first reference points 11a to 14a and the second reference point 15a are arranged at positions farthest from the center of gravity of five points. Here, a length of 7 mm (not shown) is provided at a location 46 mm (not shown) away from the intersection of the diagonal lines of the parallelogram in the direction of the midpoint of the line segment connecting the first reference point 12 a and the first reference point 13 a. A leg was attached, and a second reference point 15a was provided at the tip of the leg.

第2基準点15aが設けられる脚の長さは任意であるが、指示装置100がカメラ20の撮像面に対して傾いた場合でも、第2基準点15aの画像(カメラ20(図1参照)により撮影された点の画像、以下、他の点についても同じ)が第1基準点11a〜14aおよび第2基準点15aの画像により形成される各点の重心に最も遠い位置を保持できることが条件となる。したがって、実際の使用において、指示装置100がカメラ20の撮像面に対してどの程度傾けることがあり得るかに応じて定めれば良い。   The length of the leg on which the second reference point 15a is provided is arbitrary, but the image of the second reference point 15a (camera 20 (see FIG. 1)) even when the pointing device 100 is tilted with respect to the imaging surface of the camera 20. The image of the point photographed by the first reference point 11a to 14a and the second reference point 15a can be held at a position farthest from the center of gravity of each point formed by the images of the first reference point 11a to 14a and the second reference point 15a. It becomes. Therefore, it may be determined according to how much the pointing device 100 can be tilted with respect to the imaging surface of the camera 20 in actual use.

またここでは、第2基準点15aは、脚を設けその先端に配置することで、第1基準点11a〜14aが配置される平面上に配置しなかったが、特にこれに限られるものではなく第1基準点11a〜14aと同一の平面上に配置してもかまわない。但し、後に詳述する第1基準点11a〜14aと第2基準点15aとの識別が、より精度良くできることから上述したように第2基準点15aは、第1基準点11a〜14aが配される平面上に配置されない方が好ましい。   Further, here, the second reference point 15a is not arranged on the plane on which the first reference points 11a to 14a are arranged by providing a leg and arranging it at the tip thereof, but is not particularly limited thereto. You may arrange | position on the same plane as the 1st reference points 11a-14a. However, since the first reference points 11a to 14a and the second reference point 15a, which will be described in detail later, can be identified with higher accuracy, the second reference point 15a is provided with the first reference points 11a to 14a as described above. It is preferable that they are not arranged on a flat surface.

第2基準点15aには、指示装置100であるデバイスの用途に応じて所定の情報が付加され任意の役割が与えられる。例えば、指示装置100で指示する対象物300の電源のON−OFF等の操作を行う意味を、第2基準点15aの点滅で表現することが可能である。   Predetermined information is added to the second reference point 15a according to the use of the device that is the pointing device 100, and an arbitrary role is given. For example, the meaning of performing an operation such as turning on / off the power supply of the object 300 indicated by the pointing device 100 can be expressed by blinking the second reference point 15a.

なお、図1および図2(A)〜(B)には、指示装置100として第1基準点11a〜14a、第2基準点15aが設けられた直方体形状のものが記載されている。しかし、本実施形態では、カメラ20により撮影された第1基準点11a〜14aの画像に基づいて指示装置100の三次元位置および三軸角度を計算するものであるから、第1基準点11a〜14aおよび第2基準点15aが上記の位置関係をなすのであれば良く、指示装置100自体の形状は何ら限定されない。また、第2基準点15aは、上述の例では第1基準点11a〜14aが含まれる平面に対して一定の高さに配置されれば良いので、必ずしも図2(B)に示すような脚を設けて配置しなくても良い。例えば、指示装置100の表面が、第1基準点11a〜14aが含まれる平面に対して凸状に隆起した形状を有するならば、指示装置100の表面に直接第2基準点15aを配置しても良い。   In FIG. 1 and FIGS. 2A to 2B, a pointing device 100 having a rectangular parallelepiped shape provided with first reference points 11a to 14a and a second reference point 15a is described. However, in this embodiment, since the three-dimensional position and the three-axis angle of the pointing device 100 are calculated based on the images of the first reference points 11a to 14a photographed by the camera 20, the first reference points 11a to 11a are calculated. As long as 14a and the second reference point 15a have the above positional relationship, the shape of the pointing device 100 itself is not limited. Further, in the above example, the second reference point 15a has only to be arranged at a certain height with respect to the plane including the first reference points 11a to 14a, so that the leg as shown in FIG. It is not necessary to provide and arrange. For example, if the surface of the pointing device 100 has a shape protruding in a convex shape with respect to the plane including the first reference points 11a to 14a, the second reference point 15a is arranged directly on the surface of the pointing device 100. Also good.

図3は、カメラ20の構成例を示す図である。
カメラ20は、第1基準点11a〜14aおよび第2基準点15aから発射された光を収束する光学系21と、光学系21により収束された光を検出する撮像手段であるイメージセンサ22とを備える。
FIG. 3 is a diagram illustrating a configuration example of the camera 20.
The camera 20 includes an optical system 21 that converges light emitted from the first reference points 11a to 14a and the second reference point 15a, and an image sensor 22 that is an imaging unit that detects light converged by the optical system 21. Prepare.

光学系21は、単一のレンズまたは複数のレンズを組み合わせて構成される。例えば、2つの半球レンズを使用し、その球面側を向かい合わせに組み合わせたツインレンズが用いられる。レンズの組み合わせおよびレンズ表面に施されたコーティング等により、各種の不要な収差は適切に除去されている。   The optical system 21 is configured by combining a single lens or a plurality of lenses. For example, a twin lens is used in which two hemispherical lenses are used and their spherical surfaces are combined face to face. Various unnecessary aberrations are appropriately removed by the combination of lenses and the coating applied to the lens surface.

イメージセンサ22は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を配列して構成される。このイメージセンサ22の表面がカメラ20の撮像面となる。イメージセンサ22の前面に、第1基準点11a〜14aおよび第2基準点15aに用いられるLEDの発光波長に応じたフィルタを設置することにより、余計な光が排除され、第1基準点11a〜14aおよび第2基準点15aのみが撮影されることとなる。具体的には例えば、第1基準点11a〜14aおよび第2基準点15aに用いられるLEDの発光波長を900nmとした場合、イメージセンサ22の前面に850nmよりも長い波長だけを透過するフィルタを設置する。   The image sensor 22 is configured by arranging image pickup elements such as a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS). The surface of the image sensor 22 becomes the imaging surface of the camera 20. By installing a filter according to the emission wavelength of the LED used for the first reference points 11a to 14a and the second reference point 15a on the front surface of the image sensor 22, unnecessary light is eliminated, and the first reference points 11a to 11a are used. Only 14a and the second reference point 15a are photographed. Specifically, for example, when the emission wavelength of the LED used for the first reference points 11a to 14a and the second reference point 15a is 900 nm, a filter that transmits only a wavelength longer than 850 nm is installed on the front surface of the image sensor 22. To do.

図4は、演算装置30の構成を説明した図である。
演算装置30は、図4に示したように、第1基準点(図2参照)の互いの位置関係、第2基準点(図2参照)の第1基準点との位置関係、および対象物300(図1参照)の三次元位置を記憶する記憶部31、カメラ20により撮影された入力画像を取り込み、第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する判別部32、第1基準点の画像および第2基準点の画像が複数組撮影されたときは、指示装置100(図1参照)が指示する対象物300を特定するのに適当な組の選択を行う選択部33と、記憶部31から対象物300の三次元位置を読み出し、第1基準点の画像および第2基準点の画像から指示装置100が指示する対象物300を特定し、認識結果を出力する演算部34とからなる。
FIG. 4 is a diagram illustrating the configuration of the arithmetic device 30.
As shown in FIG. 4, the arithmetic unit 30 determines the positional relationship between the first reference points (see FIG. 2), the second reference point (see FIG. 2) with the first reference point, and the object. The storage unit 31 that stores the three-dimensional position of 300 (see FIG. 1), the input image taken by the camera 20 is taken in, and which set of images is the image of the first reference point and the image of the second reference point When a plurality of sets of the first reference point image and the second reference point image are photographed, the determination unit 32 for determining the object is suitable for specifying the object 300 indicated by the pointing device 100 (see FIG. 1). The selection unit 33 that selects a set, and the three-dimensional position of the target object 300 are read from the storage unit 31, and the target object 300 indicated by the pointing device 100 is specified from the first reference point image and the second reference point image. And a calculation unit 34 for outputting a recognition result.

また、図5は、演算装置30の動作を説明したフローチャートである。
以下、図4と図5に基づき、演算装置30の動作の概略を説明する。
判別部32は、カメラ20により撮影された入力画像を取得する(ステップ101)。そして、第1基準点の互いの位置関係、および第2基準点の第1基準点との位置関係を記憶部31から読み出し(ステップ102)、撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する(ステップ103)。
次に、第1基準点の画像および第2基準点の画像が複数組撮影されたときは、選択部33が、指示装置100が指示する対象物300を特定するのに適当な組の選択を行う(ステップ104)。
次に、演算部34が、記憶部31から対象物300の三次元位置を読み出し(ステップ105)、第1基準点の画像および第2基準点の画像から指示装置100が指示する対象物300を特定する(ステップ106)。この演算は、第1基準点の画像および第2基準点の画像の位置関係から、第1基準点の画像と第2基準点の画像とを識別し、識別された第1基準点の画像と第2基準点の画像から指示装置100の三次元位置、三軸角度および指示方向を求めることで行い、これにより指示装置100の指示する対象物300を特定することができる。
FIG. 5 is a flowchart for explaining the operation of the arithmetic unit 30.
Hereinafter, an outline of the operation of the arithmetic device 30 will be described with reference to FIGS. 4 and 5.
The determination unit 32 acquires an input image taken by the camera 20 (step 101). Then, the positional relationship between the first reference points and the positional relationship between the second reference point and the first reference point are read from the storage unit 31 (step 102), and the image of the photographed first reference point and the second reference point are read out. It is determined which set of images the image of the point is (step 103).
Next, when a plurality of sets of images of the first reference point and the second reference point are photographed, the selection unit 33 selects an appropriate set for specifying the object 300 indicated by the pointing device 100. Perform (step 104).
Next, the calculation unit 34 reads the three-dimensional position of the object 300 from the storage unit 31 (step 105), and the object 300 indicated by the pointing device 100 from the image of the first reference point and the image of the second reference point. Specify (step 106). This calculation identifies the image of the first reference point and the image of the second reference point from the positional relationship between the image of the first reference point and the image of the second reference point, and the image of the identified first reference point This is performed by obtaining the three-dimensional position, the three-axis angle, and the pointing direction of the pointing device 100 from the image of the second reference point, whereby the target object 300 pointed to by the pointing device 100 can be specified.

なお、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、演算装置30は、例えばパーソナルコンピュータ等であり、パーソナルコンピュータ等内部の図示しないCPUが、記憶部31、判別部32、選択部33、演算部34の各機能を実現するプログラムを、例えばハードディスク等の外部記憶装置からメインメモリに読み込んで、演算装置30内にこれらの各機能を実現する。   Note that these functions are realized by cooperation of software and hardware resources. That is, the arithmetic device 30 is, for example, a personal computer, and a CPU (not shown) inside the personal computer or the like stores programs for realizing the functions of the storage unit 31, the determination unit 32, the selection unit 33, and the calculation unit 34, for example, a hard disk. These functions are realized in the arithmetic unit 30 by reading the data from the external storage device such as the main memory.

<画像における組の判別>
次に、撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する方法を説明する。
この判別を行うために、例えば、本実施の形態において4組ある第1基準点と第2基準点を全て異なるように配置することが考えられる。このように基準点集合毎に異なるように配置することで、判別部32は、第1基準点および第2基準点の配置の違いにより第1基準点および第2基準点の画像が何れの組の画像であるかを判別することができる。他の方法としては、第1基準点の個数を各基準点毎に異なるようにしてもよい。また、配置を全て同一にした場合であっても、例えば、点滅させるLEDを各組毎に異ならせ、そのLEDの位置を特定することで、判別部32は、何れの組のものかを判別することも可能である。
<Distinction of set in image>
Next, a method for discriminating which set of images the first reference point image and the second reference point image that have been taken will be described.
In order to make this determination, for example, in the present embodiment, it is conceivable to arrange the first reference point and the second reference point that are four sets different from each other. In this way, by arranging differently for each reference point set, the determination unit 32 can determine which set of images of the first reference point and the second reference point depending on the arrangement of the first reference point and the second reference point. It is possible to determine whether the image is an image. As another method, the number of first reference points may be different for each reference point. Further, even when all the arrangements are the same, for example, by distinguishing the LED to be blinked for each group and specifying the position of the LED, the determination unit 32 determines which group it belongs to It is also possible to do.

ここで、撮影された第1基準点の画像と第2基準点の画像は2組以上取得し、その中から上述した選択部33により適当な組を選択するのが好ましい。この選択は、例えば、指示装置100の三次元位置、三軸角度、および指示方向についてより高精度に演算できる組であることや、または撮影された第1基準点の画像と第2基準点の画像の合計の光量が大きいことなどを基準として行えばよい。このようにすることで、より高精度に指示装置100が指示する対象物300を特定できるようになる。   Here, it is preferable that two or more sets of captured images of the first reference point and the second reference point are acquired, and an appropriate set is selected by the selection unit 33 described above. This selection is, for example, a set that can be calculated with higher accuracy for the three-dimensional position, the three-axis angle, and the pointing direction of the pointing device 100, or the image of the photographed first reference point and the second reference point. What is necessary is just to perform based on the fact that the total light quantity of the image is large. By doing in this way, the target object 300 to which the pointing device 100 points can be specified with higher accuracy.

<画像における第1識別点と第2識別点の識別>
次に、カメラ20により撮影された画像から、第1基準点および第2基準点の各々の画像を識別する方法を説明する。
図6は、3点の第1基準点と1点の第2基準点を備える指示装置100の例である。
図6に示した指示装置100は、3つの第1基準点11a〜13aが、指示装置100の上面に三角形(a1a2a3)の形状をなすように配置されている。この三角形(a1a2a3)は特別の特徴を有する必要はないが、図6に示した三角形(a1a2a3)の場合は、辺a2a3と辺a1a3の長さが等しい二等辺三角形とした。
そして、第2基準点15aは、第1基準点11a〜13a、第2基準点15aの4点の重心から最も遠い位置に配置される。また、第2基準点15aは、第1基準点11a〜13aが含まれる平面から一定の高さだけ高い位置(例えば図6における紙面の手前方向)に配置されている。ただし、図6は第1基準点11a〜13aが含まれる平面に垂直な方向から見た図なので、第2基準点15aの高さは図示されていない。
<Identification of first discrimination point and second discrimination point in image>
Next, a method for identifying each image of the first reference point and the second reference point from the image taken by the camera 20 will be described.
FIG. 6 is an example of the pointing device 100 including three first reference points and one second reference point.
In the pointing device 100 shown in FIG. 6, the three first reference points 11a to 13a are arranged on the upper surface of the pointing device 100 so as to form a triangle (a1a2a3). The triangle (a1a2a3) does not need to have a special feature, but in the case of the triangle (a1a2a3) shown in FIG. 6, it is an isosceles triangle in which the lengths of the sides a2a3 and a1a3 are equal.
The second reference point 15a is arranged at a position farthest from the center of gravity of the four points of the first reference points 11a to 13a and the second reference point 15a. Further, the second reference point 15a is arranged at a position (for example, the front side of the paper surface in FIG. 6) that is higher than the plane including the first reference points 11a to 13a by a certain height. However, since FIG. 6 is a view seen from a direction perpendicular to the plane including the first reference points 11a to 13a, the height of the second reference point 15a is not shown.

以上のように配置した場合、第1基準点11a〜13aと第2基準点15aとの位置関係における幾何学的特徴は、カメラ20により撮影された画像上の各基準点の画像の位置関係においても保存される。したがって、この幾何学的特徴に基づいて各基準点の画像が第1基準点11a〜13aおよび第2基準点15aのいずれのものかを特定すれば良い。具体的には、第2基準点15aは、4点の重心から最も遠い位置にあるという位置関係を利用することにより第2基準点15aを識別できる。   When arranged as described above, the geometric feature in the positional relationship between the first reference points 11a to 13a and the second reference point 15a is the positional relationship between the images of the reference points on the image captured by the camera 20. Is also saved. Therefore, it is only necessary to specify whether the image of each reference point is one of the first reference points 11a to 13a and the second reference point 15a based on this geometric feature. Specifically, the second reference point 15a can be identified by utilizing the positional relationship that the second reference point 15a is located farthest from the center of gravity of the four points.

なお、第2基準点15aは上述のように、第1基準点11a〜13aにより形成される三角形(a1a2a3)の重心ではなく、重心から一定の高さの位置にある。そのため、厳密には、第1基準点11a〜13aに対する第2基準点15aの位置の幾何学的特徴は、対応する点画像の位置において保存されない。しかし、第1基準点11a〜13aを含む平面と第2基準点15aとの間の距離が十分に短ければ、指示装置100の三軸角度が変化しても、第2基準点15aの位置は三角形(a1a2a3)の重心からそれほど大きくは離れない。したがって、三角形(a1a2a3)の重心に最も遠い位置にある点画像を第2基準点15aの画像として良い。   As described above, the second reference point 15a is not at the center of gravity of the triangle (a1a2a3) formed by the first reference points 11a to 13a, but at a certain height from the center of gravity. Therefore, strictly speaking, the geometric feature of the position of the second reference point 15a with respect to the first reference points 11a to 13a is not stored at the position of the corresponding point image. However, if the distance between the plane including the first reference points 11a to 13a and the second reference point 15a is sufficiently short, even if the triaxial angle of the pointing device 100 changes, the position of the second reference point 15a is It is not so far from the center of gravity of the triangle (a1a2a3). Therefore, the point image that is farthest from the center of gravity of the triangle (a1a2a3) may be used as the image of the second reference point 15a.

一方、図7は、4点の第1基準点と1点の第2基準点を備える指示装置100の例である。
上述した図6に示した指示装置100は、3点の第1基準点と1点の第2基準点を備えた例であったが、図7に示した指示装置100では、第1基準点が1つ増え4点としている。
図7に示した指示装置100は、第1基準点11a〜14aが平行四辺形の形状(a1a2a3a4)の形状をなすように配置されている。この場合、辺a1a2と辺a3a4とは平行であり、また辺a2a3とa4a1とは平行である。
そして、第2基準点15aは、第1基準点11a〜14aが含まれる平面から一定の高さだけ高い位置に配置されている。
以上のように配置した場合、第1基準点11a〜14aの辺a1a2と辺a3a4とが平行で、また辺a2a3とa4a1とが平行であるという位置関係は、カメラ20により撮影された画像上の各点の画像の位置関係においても保存される。したがって、この幾何学的特徴に基づいて各基準点の画像が第1基準点11a〜14aおよび第2基準点15aのいずれのものかを特定すれば良い。
On the other hand, FIG. 7 is an example of the pointing device 100 including four first reference points and one second reference point.
The pointing device 100 shown in FIG. 6 described above is an example having three first reference points and one second reference point, but the pointing device 100 shown in FIG. Increased by one to 4 points.
The pointing device 100 shown in FIG. 7 is arranged such that the first reference points 11a to 14a have a parallelogram shape (a1a2a3a4). In this case, the side a1a2 and the side a3a4 are parallel, and the side a2a3 and a4a1 are parallel.
The second reference point 15a is arranged at a position that is a certain height higher than the plane including the first reference points 11a to 14a.
When arranged as described above, the positional relationship that the sides a1a2 and a3a4 of the first reference points 11a to 14a are parallel and the sides a2a3 and a4a1 are parallel is on the image photographed by the camera 20. It is also stored in the positional relationship of the image of each point. Therefore, it is only necessary to specify whether the image of each reference point is one of the first reference points 11a to 14a and the second reference point 15a based on this geometric feature.

以上、第1基準点が3点の場合と4点の場合で説明したが、第1基準点が5点以上の場合においても上述した幾何学的特徴に基づき第1基準点と第2基準点を配置することにより、第1基準点と第2基準点との識別を行うことが可能である。   As described above, the case where the first reference point is 3 points and the case where the first reference point is 4 points has been described. However, even when the first reference point is 5 points or more, the first reference point and the second reference point are based on the above-described geometric features. By arranging, it is possible to identify the first reference point and the second reference point.

<指示装置100の三次元位置、三軸角度、指示方向の計算>
次に、第1基準点と第2基準点の位置に基づいて指示装置100の三次元位置、三軸角度、および指示方向を計算する方法について説明するが、第1基準点が3点の場合と4点以上の場合とで算出の方法が異なるので別々に説明を行う。
<Calculation of three-dimensional position, three-axis angle, and pointing direction of pointing device 100>
Next, a method for calculating the three-dimensional position, the three-axis angle, and the pointing direction of the pointing device 100 based on the positions of the first reference point and the second reference point will be described. When the first reference point is three points Since the calculation method is different for the case of 4 points or more, it will be described separately.

図8は、第1基準点が3点の場合に指示装置100の三次元位置および三軸角度を計算する方法を説明する図である。
まず、図8に示すように、カメラ20により撮影された画像上(イメージセンサ22上)の第1基準点11a〜13aの点画像に基づいて、カメラ20の光学中心Oから第1基準点11a〜13aの各々への方向di(i=1、2、3)を算出する。diは、カメラ20の撮像面における第1基準点11a〜13aの各点画像と光学中心Oとを結ぶ直線上にあり、光学中心Oを始点とする規格化された単位ベクトルである。また、第1基準点11aへの方向をベクトルd1(=[x1,y1,z1])、第1基準点12aへの方向をベクトルd2(=[x2,y2,z2])、第1基準点13aへの方向をベクトルd3(=[x3,y3,z3])とする。
FIG. 8 is a diagram for explaining a method of calculating the three-dimensional position and the three-axis angle of the pointing device 100 when the first reference point is three points.
First, as shown in FIG. 8, the first reference point 11a from the optical center O of the camera 20 based on the point images of the first reference points 11a to 13a on the image taken by the camera 20 (on the image sensor 22). The direction di (i = 1, 2, 3) to each of ˜13a is calculated. di is a standardized unit vector that is on a straight line connecting the point images of the first reference points 11a to 13a and the optical center O on the imaging surface of the camera 20 and starts from the optical center O. The direction to the first reference point 11a is a vector d1 (= [x1, y1, z1]), the direction to the first reference point 12a is a vector d2 (= [x2, y2, z2]), and the first reference point Let the direction to 13a be a vector d3 (= [x3, y3, z3]).

カメラ20の光学中心Oを基準として、第1基準点11aの位置ベクトルをa1、第1基準点12aの位置ベクトルをa2、第1基準点13aの位置ベクトルをa3とする。これらの位置ベクトルaiは、それぞれ上記のベクトルdiと重なる。そこで、各位置ベクトルaiの長さを表す係数をt1、t2、t3とすると、各位置ベクトルaiは次式で表せる。   With reference to the optical center O of the camera 20, the position vector of the first reference point 11a is a1, the position vector of the first reference point 12a is a2, and the position vector of the first reference point 13a is a3. Each of these position vectors ai overlaps the above-mentioned vector di. Therefore, if the coefficients representing the length of each position vector ai are t1, t2, and t3, each position vector ai can be expressed by the following equation.

Figure 0005195041
Figure 0005195041

第1基準点11a〜13aが形成する三角形の形状は予めわかっているので、三角形の各辺の長さ(各第1基準点11a〜13a間の長さ)を、a1a2=L1、a2a3=L2、a3a1=L3とすると、次式が得られる。   Since the shape of the triangle formed by the first reference points 11a to 13a is known in advance, the length of each side of the triangle (the length between the first reference points 11a to 13a) is set to a1a2 = L1 and a2a3 = L2. , A3a1 = L3, the following equation is obtained.

Figure 0005195041
Figure 0005195041

これを整理すると、次式が得られ、   Arranging this, the following formula is obtained,

Figure 0005195041
Figure 0005195041

さらに次式が得られる。   Furthermore, the following equation is obtained.

Figure 0005195041
ただし、
A1=x1x2+y1y2+z1z2、
A2=x2x3+y2y3+z2z3、
A3=x3x1+y3y1+z3z1
である。
Figure 0005195041
However,
A1 = x1x2 + y1y2 + z1z2,
A2 = x2x3 + y2y3 + z2z3,
A3 = x3x1 + y3y1 + z3z1
It is.

実数解を持つために、次式の条件を満たす実数t1、t2、t3をそれぞれ上記の数4式に代入し、数4式が成立する全てのt1、t2、t3を求める。   In order to have a real number solution, real numbers t1, t2, and t3 satisfying the following equation are substituted into the above equation 4, and all t1, t2, and t3 that satisfy equation 4 are obtained.

Figure 0005195041
Figure 0005195041

通常、数5式が成立するt1、t2、t3の組は複数存在する。そこで、第2基準点15aの位置に基づいて、複数のt1、t2、t3の組(候補)の中から特定の係数t1、t2、t3の組を選択する。
具体的には、まず、算出した全ての係数t1、t2、t3の組に対応する位置ベクトルa1、a2、a3の組をそれぞれ算出し、a1、a2、a3の組で構成される三角形の三次元位置と三軸角度を求める。そして、各三角形の三次元位置および三軸角度に基づき、各三角形に対する第2基準点15aの位置を計算し、位置ベクトルa4とする。次に、位置ベクトルa4の点をカメラ20で撮影した場合の画像上の位置(画像位置)を計算し、計算値と実際に撮影された第2基準点15aの画像位置とを比較する。そして、実際の画像位置との差が最も小さい位置ベクトルa4に対応する三角形を抽出し、この三角形に対応するt1、t2、t3の組を正解とする。
Usually, there are a plurality of sets of t1, t2, and t3 in which Expression 5 is established. Therefore, a specific set of coefficients t1, t2, and t3 is selected from a plurality of sets (candidates) of t1, t2, and t3 based on the position of the second reference point 15a.
Specifically, first, a set of position vectors a1, a2, and a3 corresponding to all of the calculated sets of coefficients t1, t2, and t3 are calculated, respectively, and a triangular cubic composed of the sets of a1, a2, and a3 is calculated. Find the original position and triaxial angle. Based on the three-dimensional position and the triaxial angle of each triangle, the position of the second reference point 15a with respect to each triangle is calculated and set as a position vector a4. Next, a position (image position) on the image when the point of the position vector a4 is captured by the camera 20 is calculated, and the calculated value is compared with the image position of the second reference point 15a actually captured. Then, a triangle corresponding to the position vector a4 having the smallest difference from the actual image position is extracted, and a set of t1, t2, and t3 corresponding to this triangle is taken as a correct answer.

以上のようにして、第1基準点11a〜13aの方向d1、d2、d3および距離t1、t2、t3が特定されたため、第1基準点11a〜13aで形成される三角形(およびこれを含む指示装置100)の三次元位置および三軸角度が求まることとなる。また第1基準点11a〜13aと第2基準点15aとの位置関係により、指示装置100の指示方向が定まることになる。
なお、第1基準点11a〜13aおよび第2基準点15aを用いた指示装置100の三次元位置および三軸角度の計算方法は、上記の手順に限定されるものではない。例えば、上記の手順では複数のt1、t2、t3の組を求めた後に第2基準点15aの画像位置に基づいて1つの解を抽出したが、初めから第1基準点11a〜13aの各々の画像位置と第2基準点15aの画像位置との関係を考慮して第1基準点11a〜13aおよび第2基準点15aまでの距離t1、t2、t3を求めるようにしても良い。
As described above, since the directions d1, d2, and d3 and the distances t1, t2, and t3 of the first reference points 11a to 13a are specified, the triangle formed by the first reference points 11a to 13a (and the instruction including this) The three-dimensional position and the three-axis angle of the device 100) are obtained. In addition, the pointing direction of the pointing device 100 is determined by the positional relationship between the first reference points 11a to 13a and the second reference point 15a.
Note that the calculation method of the three-dimensional position and the three-axis angle of the pointing device 100 using the first reference points 11a to 13a and the second reference point 15a is not limited to the above procedure. For example, in the above procedure, one solution is extracted based on the image position of the second reference point 15a after obtaining a plurality of sets of t1, t2, and t3. From the beginning, each of the first reference points 11a to 13a is extracted. The distances t1, t2, and t3 to the first reference points 11a to 13a and the second reference point 15a may be obtained in consideration of the relationship between the image position and the image position of the second reference point 15a.

次に、第1基準点が4点の場合について指示装置100の三次元位置、三軸角度、および指示方向を算出する方法について説明を行う。
第1基準点11aの位置について、指示装置100を基準とした座標系における座標を[X,Y,Zとする。また、カメラ20により撮影された画像上(イメージセンサ22上)(図3参照)の座標系における第1基準点11aの点の像の座標を[u,v]とする。なお以下の説明で、カメラの位置を原点とした座標系をカメラ座標系とし、このカメラ座標系における第1基準点11aの座標を[Xc1,Yc1,Zc1とする。
この場合、射影行列Pとして3行4列の行列を用いて、以下の関係式が成り立つ。
Next, a method for calculating the three-dimensional position, the three-axis angle, and the pointing direction of the pointing device 100 when the first reference point is four will be described.
For the position of the first reference point 11a, the coordinates in the coordinate system with reference to the pointing device 100 are [X 1 , Y 1 , Z 1 ] T. Further, the coordinates of the image of the point of the first reference point 11a in the coordinate system on the image photographed by the camera 20 (on the image sensor 22) (see FIG. 3) are set to [u 1 , v 1 ]. In the following description, a coordinate system with the camera position as the origin is referred to as a camera coordinate system, and the coordinates of the first reference point 11a in the camera coordinate system are referred to as [X c1 , Y c1 , Z c1 ] T.
In this case, using the 3 × 4 matrix as the projection matrix P, the following relational expression is established.

Figure 0005195041
Figure 0005195041

数6式の中の射影行列Pは定数倍の不定性があり、これが数6式の左辺の係数hによって吸収される。よって、P34=1とおくことができる。また、第1基準点11a〜14aは同一平面上にあるために、Z座標を0とすることができる。そこで、Z=0とすると、数6式のZに対応する射影行列の第3列を省略することができる。そのため数6式は、以下のように変形できる。この場合の射影行列の未知数は8個となる。 The projection matrix P in Equation 6 has a constant multiple indefiniteness, which is absorbed by the coefficient h on the left side of Equation 6. Accordingly, P 34 = 1 can be set. Further, since the first reference points 11a to 14a are on the same plane, the Z coordinate can be set to zero. Therefore, if Z 1 = 0, the third column of the projection matrix corresponding to Z 1 in Equation 6 can be omitted. Therefore, Equation 6 can be modified as follows. In this case, there are 8 unknown projection matrices.

Figure 0005195041
Figure 0005195041

この数7式から次の2つの拘束式が得られる。   The following two constraint equations can be obtained from the equation (7).

Figure 0005195041
Figure 0005195041

数8式で示した関係は、第1基準点12a〜14aについても同様に成り立つ。即ち、第1基準点12a〜14aに対して、以下の関係式が成り立つ。なお、ここで、第1基準点12a〜14aの指示装置100を基準とした座標系における座標をそれぞれ、[X,Y,Z、[X,Y,Z、[X,Y,Zとし、カメラ20により撮影された画像上の座標系における第1基準点12a〜14aの点の像の座標をそれぞれ、[u,v]、[u,v]、[u,v]としている。また第1基準点11aと同様にZ=Z=Z=0としている。 The relationship expressed by Equation 8 is similarly established for the first reference points 12a to 14a. That is, the following relational expressions hold for the first reference points 12a to 14a. Here, the coordinates of the first reference points 12a to 14a in the coordinate system based on the pointing device 100 are respectively [X 2 , Y 2 , Z 2 ] T , [X 3 , Y 3 , Z 3 ] T. , [X 4 , Y 4 , Z 4 ] T, and the coordinates of the images of the first reference points 12 a to 14 a in the coordinate system on the image taken by the camera 20 are [u 2 , v 2 ], [U 3 , v 3 ], [u 4 , v 4 ]. Further, similarly to the first reference point 11a, Z 2 = Z 3 = Z 4 = 0.

Figure 0005195041
Figure 0005195041

数8式および数9式を整理すると次式が得られる。   The following formula is obtained by rearranging formula 8 and formula 9.

Figure 0005195041
数10式において左辺第1項をAとし、また左辺第2項は射影行列Pの3列目がない行列の要素を表していることからP3とし、右辺をBとして書き表すと、以下の式となる。
Figure 0005195041
In Equation 10, the first term on the left side is A, and the second term on the left side is P3 because it represents an element of the matrix without the third column of the projection matrix P. Become.

Figure 0005195041
Figure 0005195041

数11式の両辺にAの逆行列を左からかけると、   Multiplying both sides of Equation 11 by the inverse matrix of A from the left,

Figure 0005195041
Figure 0005195041

となり、P3を求めることができる。
また、射影行列Pは、カメラ内部行列Cとカメラ外部行列[r1 r2 r3 t]との積で表すことができる。
Thus, P3 can be obtained.
The projection matrix P can be represented by the product of the camera inner matrix C and the camera outer matrix [r1 r2 r3 t].

Figure 0005195041
Figure 0005195041

ここで、r1、r2、r3は、指示装置100上の座標系をカメラ座標系に変換する回転ベクトルであり、tは、平行移動ベクトルである。そして、これらのベクトルは全て3つの要素を有する列ベクトルとして表される。P3は射影行列Pの第3列目がない行列であるので、   Here, r1, r2, and r3 are rotation vectors for converting the coordinate system on the pointing device 100 into a camera coordinate system, and t is a translation vector. These vectors are all represented as column vectors having three elements. Since P3 is a matrix without the third column of the projection matrix P,

Figure 0005195041
Figure 0005195041

となる。よって、   It becomes. Therefore,

Figure 0005195041
Figure 0005195041

となり、列ベクトルr1、r2、tを算出することができる。また、r3は、r1、r2と直交することから、   Thus, the column vectors r1, r2, and t can be calculated. Since r3 is orthogonal to r1 and r2,

Figure 0005195041
Figure 0005195041

と表すことができる。よって数16式よりr3を算出することができる。以上のようにして回転ベクトルr1、r2、r3と、平行移動ベクトルtが全て算出できたことになる。そこで、R=[r1 r2 r3]とすると、第1基準点11a〜14aの三次元位置は、カメラ座標系を使用して、以下のように表すことができる。なおここで、カメラ座標系における第1基準点12a〜14aの座標をそれぞれ[Xc2,Yc2,Zc2、[Xc3,Yc3,Zc3、[Xc4,Yc4,Zc4としている。 It can be expressed as. Therefore, r3 can be calculated from equation (16). As described above, all the rotation vectors r1, r2, and r3 and the translation vector t can be calculated. Therefore, assuming R = [r1 r2 r3], the three-dimensional positions of the first reference points 11a to 14a can be expressed as follows using the camera coordinate system. Note here, the coordinates of the first reference point 12a~14a in the camera coordinate system, respectively [X c2, Y c2, Z c2] T, [X c3, Y c3, Z c3] T, [X c4, Y c4, Z c4 ] T.

Figure 0005195041
Figure 0005195041

数17の関係式から、第1基準点11a〜14aのカメラ座標が特定できるため、指示装置100の三次元位置および三軸角度が求まることとなる。また第1基準点11a〜14aと第2基準点15aとの位置関係により、指示装置100の指示方向が定まることになる。
なお、以上の説明は、第1基準点が4点の場合を説明したが、5点以上になった場合も同様の手法を用いて算出可能である。
Since the camera coordinates of the first reference points 11a to 14a can be specified from the relational expression (17), the three-dimensional position and the three-axis angle of the pointing device 100 are obtained. The pointing direction of the pointing device 100 is determined by the positional relationship between the first reference points 11a to 14a and the second reference point 15a.
In the above description, the case where the first reference point is four points has been described. However, the calculation can be performed using the same method when the first reference point is five points or more.

<対象物の特定>
上述のようにして求めた指示装置100の三次元位置、三軸角度、および指示方向より、指示装置100が指示する対象物300(図1参照)を特定することができる。即ち、記憶部31(図4参照)には種々の対象物300の三次元位置が記憶されており、その三次元位置を読み出して対比することにより、どの対象物300が指示されているかを算出し、特定することができる。
この場合例えば、対象物300として部屋の中にあるテレビの画面を指示装置100が指示していたとする。ここで、対象物認識装置200(図1参照)から別途設けた制御装置に情報を送ることでテレビに対し特定の動作を行わせることができる。例えば、電源のON−OFFなどである。また、他の場所を指示装置100により指示することで、チャンネルの切り替えや音量の調整など他の動作を行わせることもできる。指示する場所はテレビの画面等に限られるものではなく、例えば、テレビ横の壁面の特定の場所を上記のような動作を行わせるための場所として指定してもよい。この際に指示装置100の先端に可視光線を出射する可視光線照射手段としてのレーザポインタなどを取り付け、指示装置100が指示する箇所と同一の箇所に可視光線であるレーザを照射し、指示装置100が指示する箇所を指示装置100を操作するユーザにわかるようにしてもよい。この場合、ユーザは、より的確に対象物300を指定できるようになる。そして、第1基準点および第2基準点は複数組設置されているので、ユーザが指示装置100を様々な角度や三次元位置で使用してもカメラ20により何れかの組の第1基準点および第2基準点がカメラ20に捉えやすくなる。即ち、ユーザの使い方に依存しにくい指示装置100が実現でき、カメラ20が何れの組の画像を捉えても同一の対象物300を認識することができる。
<Identification of object>
The object 300 (see FIG. 1) indicated by the pointing device 100 can be specified from the three-dimensional position, the three-axis angle, and the pointing direction of the pointing device 100 obtained as described above. That is, the three-dimensional positions of various objects 300 are stored in the storage unit 31 (see FIG. 4), and which object 300 is instructed is calculated by reading and comparing the three-dimensional positions. And can be identified.
In this case, for example, it is assumed that the instruction device 100 indicates a television screen in the room as the object 300. Here, it is possible to cause the television to perform a specific operation by sending information from the object recognition device 200 (see FIG. 1) to a separately provided control device. For example, power ON / OFF. In addition, other operations such as channel switching and volume adjustment can be performed by instructing other places with the instruction device 100. The location to be instructed is not limited to a television screen or the like. For example, a specific location on the wall surface of the television may be designated as a location for performing the above-described operation. At this time, a laser pointer or the like as a visible light irradiating unit that emits visible light is attached to the tip of the pointing device 100, and a laser that is visible light is irradiated to the same location as the location indicated by the pointing device 100. The user operating the pointing device 100 may be made aware of the location pointed to by the user. In this case, the user can specify the object 300 more accurately. Since a plurality of sets of the first reference point and the second reference point are installed, even if the user uses the pointing device 100 at various angles or three-dimensional positions, any set of the first reference point is set by the camera 20. In addition, the camera 20 can easily capture the second reference point. That is, the pointing device 100 that is less dependent on how the user is used can be realized, and the same object 300 can be recognized regardless of which set of images the camera 20 captures.

なお、本実施形態では、第1基準点および第2基準点をLEDにより構成される発光点としたが、これに限定するものではない。例えば、第1基準点および第2基準点としてLEDの代わりに再帰反射板を設け、カメラ20の近くに設けられた照明装置から光を照射し、再帰反射板による反射光をカメラ20により撮影するようにしても良い。   In the present embodiment, the first reference point and the second reference point are light emitting points constituted by LEDs. However, the present invention is not limited to this. For example, a retroreflecting plate is provided instead of the LED as the first reference point and the second reference point, light is emitted from an illumination device provided near the camera 20, and the reflected light from the retroreflecting plate is photographed by the camera 20. You may do it.

本実施形態が適用される対象物認識装置、指示装置、および対象物を含む対象物認識システムの全体構成を示す図である。It is a figure which shows the whole structure of the target object recognition system containing the target object recognition apparatus, instruction | indication apparatus, and target object to which this embodiment is applied. 本実施形態が適用される指示装置の構成を示す図である。It is a figure which shows the structure of the instruction | indication apparatus to which this embodiment is applied. カメラの構成例を示す図である。It is a figure which shows the structural example of a camera. 演算装置の構成を説明した図である。It is a figure explaining the structure of the arithmetic unit. 演算装置の動作を説明したフローチャートである。It is the flowchart explaining operation | movement of the arithmetic unit. 3点の第1基準点と1点の第2基準点を備える指示装置の例である。It is an example of a pointing device provided with three first reference points and one second reference point. 4点の第1基準点と1点の第2基準点を備える指示装置の例である。It is an example of a pointing device provided with four first reference points and one second reference point. 第1基準点が3点の場合に指示装置の三次元位置および三軸角度を計算する方法を説明する図である。It is a figure explaining the method to calculate the three-dimensional position and three-axis angle of a pointing device when the first reference point is three points.

符号の説明Explanation of symbols

11a〜14a,11b〜14b,11c〜14c,11d〜14d…第1基準点、15a,15b,15c,15d…第2基準点、20…カメラ、30…演算装置、31…記憶部、32…判別部、33…選択部、34…演算部、100…指示装置、200…対象物認識装置、300…対象物 11a-14a, 11b-14b, 11c-14c, 11d-14d ... first reference point, 15a, 15b, 15c, 15d ... second reference point, 20 ... camera, 30 ... arithmetic unit, 31 ... storage unit, 32 ... Discriminating unit 33 ... selecting unit 34 ... calculating unit 100 ... indicating device 200 ... object recognizing device 300 ... object

Claims (8)

発光点からなる複数の基準点集合と、
前記発光点を前記基準点集合毎に点灯し、1つの基準点集合の発光点が点灯するときは、当該1つの基準点集合以外の発光点は消灯する制御手段と、を有し、
前記基準点集合は、互いの位置関係が特定されている平面上の3つ以上の第1基準点と当該第1基準点との位置関係が特定されている1つの第2基準点とからなり、他の装置にて撮影された当該基準点集合の当該第1基準点の画像および当該第2基準点の画像の位置関係から対象物が特定されることを特徴とする指示装置。
A plurality of reference point sets consisting of luminous points;
The light emitting points are turned on for each reference point set, and when the light emitting points of one reference point set are turned on, the light emitting points other than the one reference point set are turned off, and control means,
The set of reference points includes three or more first reference points on a plane in which the mutual positional relationship is specified and one second reference point in which the positional relationship between the first reference points is specified. A pointing device characterized in that an object is specified from a positional relationship between an image of the first reference point and an image of the second reference point of the reference point set photographed by another device.
前記第2基準点は、前記第1基準点が配される前記平面上には配置されないことを特徴とする請求項1に記載の指示装置。   The pointing device according to claim 1, wherein the second reference point is not arranged on the plane on which the first reference point is arranged. 前記第1基準点および前記第2基準点の配置は、前記基準点集合毎に異なることを特徴とする請求項1に記載の指示装置。   The pointing device according to claim 1, wherein an arrangement of the first reference point and the second reference point is different for each reference point set. 前記指示装置が指示する箇所と同一の箇所に可視光線を照射する可視光線照射手段を更に有することを特徴とする請求項1に記載の指示装置。   The pointing device according to claim 1, further comprising visible light irradiating means for irradiating visible light to the same location indicated by the pointing device. 平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点が複数組配置された指示装置を撮影する撮影部と、
前記第1基準点の互いの位置関係、前記第2基準点の当該第1基準点との位置関係および対象物の三次元位置を記憶する記憶部と、
前記記憶部から前記第1基準点の互いの位置関係および前記第2基準点の当該第1基準点との位置関係を読み出し、前記撮影部により撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する判別部と、
前記記憶部から対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する演算部と、
を備えることを特徴とする対象物認識装置。
A photographing unit that photographs a pointing device in which a plurality of first reference points including three or more points on a plane and a plurality of second reference points including one point are arranged;
A storage unit for storing the mutual positional relationship of the first reference points, the positional relationship of the second reference point with the first reference point, and the three-dimensional position of the object;
The positional relationship between the first reference points and the positional relationship of the second reference point with the first reference point is read from the storage unit, and an image of the first reference point and the second reference captured by the imaging unit. A discriminator for discriminating which set of images the image of the points is;
The three-dimensional position of the object is read from the storage unit, and the first reference point image and the second reference point image are obtained from the positional relationship between the first reference point image and the second reference point image captured by the imaging unit. The pointing device is identified by identifying the image of the two reference points and obtaining the three-dimensional position, the three-axis angle and the pointing direction of the pointing device from the identified image of the first reference point and the image of the second reference point. A computing unit for identifying the target indicated by ;
An object recognition apparatus comprising:
前記判別部は、前記第1基準点および前記第2基準点の配置の違いにより当該第1基準点および当該第2基準点の画像が何れの組の画像であるかを判別することを特徴とする請求項5に記載の対象物認識装置。   The discriminating unit discriminates which set of images the images of the first reference point and the second reference point are based on a difference in arrangement of the first reference point and the second reference point. The object recognition apparatus according to claim 5. 前記第1基準点の画像および前記第2基準点の画像が複数組撮影されたときは、前記指示装置が指示する対象物を特定するのに適当な組の選択を行う選択部を更に有することを特徴とする請求項5に記載の対象物認識装置。   When a plurality of sets of the image of the first reference point and the image of the second reference point are photographed, the image processing apparatus further includes a selection unit that selects an appropriate group for specifying the target object indicated by the pointing device. The object recognition apparatus according to claim 5. コンピュータに、
指示装置上に複数組配置された平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点の互いの位置関係をメモリから読み出し、撮影部により撮影された当該第1基準点の画像および当該第2基準点の画像が何れの組の画像であるかを判別する機能と、
メモリから対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する機能と、
を実現させるプログラム。
On the computer,
The positional relationship between the first reference point consisting of three or more points on the plane arranged on the pointing device and the second reference point consisting of one point is read from the memory, and the image taken by the photographing unit A function of determining which set of images the image of the first reference point and the image of the second reference point are;
The three-dimensional position of the object is read from the memory, and the image of the first reference point and the second reference point are determined from the positional relationship between the image of the first reference point and the image of the second reference point taken by the photographing unit. A point image is identified, and the three-dimensional position, the three-axis angle and the pointing direction of the pointing device are obtained from the identified image of the first reference point and the image of the second reference point. A function to identify the target object ,
A program that realizes
JP2008143313A 2008-05-30 2008-05-30 Pointing device, object recognition device, and program Expired - Fee Related JP5195041B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008143313A JP5195041B2 (en) 2008-05-30 2008-05-30 Pointing device, object recognition device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008143313A JP5195041B2 (en) 2008-05-30 2008-05-30 Pointing device, object recognition device, and program

Publications (2)

Publication Number Publication Date
JP2009288172A JP2009288172A (en) 2009-12-10
JP5195041B2 true JP5195041B2 (en) 2013-05-08

Family

ID=41457516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008143313A Expired - Fee Related JP5195041B2 (en) 2008-05-30 2008-05-30 Pointing device, object recognition device, and program

Country Status (1)

Country Link
JP (1) JP5195041B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7006714B2 (en) * 2020-03-23 2022-01-24 カシオ計算機株式会社 Positioning system, position measuring device, position measuring method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3017183B1 (en) * 1998-10-15 2000-03-06 株式会社ファンテックス Automatic tracking lighting control system for moving objects
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
JP3374175B2 (en) * 2000-01-27 2003-02-04 名古屋大学長 Data transmission device with data transmission function for position display
JP2004348442A (en) * 2003-05-22 2004-12-09 Fuji Photo Optical Co Ltd Light pen for material presenting device
JP4532856B2 (en) * 2003-07-08 2010-08-25 キヤノン株式会社 Position and orientation measurement method and apparatus
JP2007071782A (en) * 2005-09-08 2007-03-22 Canon Inc System for measuring position attitude and method of measuring, same and control program
CN101427153B (en) * 2006-04-20 2013-02-27 法罗技术股份有限公司 Camera based six degree-of-freedom target measuring and target tracking device

Also Published As

Publication number Publication date
JP2009288172A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
KR101661714B1 (en) Object tracking with projected reference patterns
JP4142460B2 (en) Motion detection device
CN105393079B (en) Depth transducer control based on context
JP3859574B2 (en) 3D visual sensor
JP3950837B2 (en) Projector, electronic blackboard system using projector, and indication position acquisition method
US20150309174A1 (en) Method and handheld distance measuring device for creating a spatial model
JP2009068968A (en) Position measuring system
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
US20020085097A1 (en) Computer vision-based wireless pointing system
US20090296991A1 (en) Human interface electronic device
WO2019012770A1 (en) Imaging device and monitoring device
JP6601489B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
US20210231810A1 (en) Camera apparatus
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
US11009887B2 (en) Systems and methods for remote visual inspection of a closed space
JP5874252B2 (en) Method and apparatus for measuring relative position with object
CN102401901B (en) Distance measurement system and distance measurement method
JP2001166881A (en) Pointing device and its method
JP5195041B2 (en) Pointing device, object recognition device, and program
WO1999060469A1 (en) Control device and method of controlling an object
JP2008070208A (en) Light position detection system, light id tag device, position detection device, and light position detection method
KR101956035B1 (en) Interactive display device and controlling method thereof
US20140327617A1 (en) Method and Locating Device for Locating a Pointing Device
JP2009199247A (en) Object recognition apparatus, indicating device and program
JP2010079458A (en) Handwriting display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5195041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees