JP5195041B2 - Pointing device, object recognition device, and program - Google Patents
Pointing device, object recognition device, and program Download PDFInfo
- Publication number
- JP5195041B2 JP5195041B2 JP2008143313A JP2008143313A JP5195041B2 JP 5195041 B2 JP5195041 B2 JP 5195041B2 JP 2008143313 A JP2008143313 A JP 2008143313A JP 2008143313 A JP2008143313 A JP 2008143313A JP 5195041 B2 JP5195041 B2 JP 5195041B2
- Authority
- JP
- Japan
- Prior art keywords
- reference point
- image
- points
- pointing device
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、三次元空間において対象物を指示する指示装置等に関する。 The present invention relates to a pointing device or the like for pointing an object in a three-dimensional space.
所定の対象物の三次元空間における位置を計測する手段として、2台のカメラで対象物を撮影し、カメラ同士の間の距離を基線とした三角測量によって対象物の位置座標を算出する方法がよく用いられる。また、リモコンに取り付けられた発光素子の光量等を検出し、リモコンの姿勢角度を検出する技術が存在する。 As a means for measuring the position of a predetermined object in a three-dimensional space, there is a method of photographing the object with two cameras and calculating the position coordinates of the object by triangulation using the distance between the cameras as a base line. Often used. In addition, there is a technique for detecting a light amount of a light emitting element attached to a remote controller and detecting a posture angle of the remote controller.
例えば、特許文献1には、レーザポインタで形成される光点により指示される被計測点を含む領域を複数のカメラで撮影し、この画像信号はカメラ識別信号発生器によって生成されたカメラ識別信号が付加された上で、ホストコンピュータに入力され、ホストコンピュータは、入力された画像からカメラ識別信号を検出し、画像の撮影元のカメラを特定する。そして1対の画像について、画像内の光点位置と撮影元カメラの位置等のデータに基づき三角測量演算を行って被計測点の三次元位置を算出する三次元位置計測システムが開示されている。 For example, in Patent Document 1, a region including a measurement point indicated by a light spot formed by a laser pointer is photographed by a plurality of cameras, and this image signal is a camera identification signal generated by a camera identification signal generator. Is added to the host computer, and the host computer detects a camera identification signal from the input image and identifies the camera from which the image was taken. A three-dimensional position measurement system is disclosed that calculates a three-dimensional position of a point to be measured by performing triangulation calculation on a pair of images based on data such as a light spot position in the image and a position of a photographing source camera. .
また、特許文献2には、複数の異なる方向に取り付けられた赤外発光素子の内の一つより機器の位置方向確認信号を送信し、機器からの応答信号の有無を確認することを、複数の赤外発光素子全てに対して順次行うことにより機器の位置方向を判断し記憶する双方向リモコンシステムが開示されている。 Further, Patent Document 2 discloses that a device direction / direction confirmation signal is transmitted from one of a plurality of infrared light emitting elements attached in different directions, and the presence / absence of a response signal from the device is confirmed. A bidirectional remote control system is disclosed in which the position and direction of an apparatus is determined and stored by sequentially performing processing for all the infrared light emitting elements.
また更に、特許文献3には、発光素子を順次変位させ、各変位位置で発光素子に発光用信号を供給して位置検出用光信号を発光出力させ、受光装置の位置検出用受光素子で受光入力した受光信号を順次検出して、検出した受光信号を適宜演算処理することにより、基準軸変位角θsの変位状態を検出する。そして、基準軸変位角θsの変位状態をポインタに対する指示信号としてポインタの移動を制御する遠隔制御装置が開示されている。 Further, in Patent Document 3, the light emitting elements are sequentially displaced, light emission signals are supplied to the light emitting elements at the respective displacement positions, and light signals for position detection are emitted and output, and the light receiving elements for position detection of the light receiving device receive the light. By sequentially detecting the received light reception signal and appropriately calculating the detected light reception signal, the displacement state of the reference axis displacement angle θs is detected. A remote control device that controls the movement of the pointer using the displacement state of the reference axis displacement angle θs as an instruction signal for the pointer is disclosed.
また更に、特許文献4には、基準受信装置から発光された基準放射光を集光レンズを用いずに直接リモコン送信装置の4分割フォトダイオードの受光面へ導光するリモコン送信装置の姿勢角度検出システムが開示されている。 Furthermore, Patent Document 4 discloses the attitude angle detection of the remote control transmitter that guides the reference radiated light emitted from the reference receiver directly to the light receiving surface of the four-division photodiode of the remote control transmitter without using the condenser lens. A system is disclosed.
このような指示装置においては、指示装置を操作するユーザの使い方によっては、対象物を正確に特定できないことがあり、ユーザの使い方に依存せずに指示装置が指示する対象物を高精度に計測できることが望まれる。
本発明の目的は、対象物を特定するのに、操作するユーザの使い方に依存しにくい指示装置等を提供することにある。
In such a pointing device, depending on how the user who operates the pointing device is used, the target may not be accurately identified, and the target indicated by the pointing device can be measured with high accuracy without depending on the user's usage. It is hoped that it can be done.
An object of the present invention is to provide a pointing device or the like that is less dependent on how a user operates to specify an object.
請求項1に係る発明は、発光点からなる複数の基準点集合と、前記発光点を前記基準点集合毎に点灯し、1つの基準点集合の発光点が点灯するときは、当該1つの基準点集合以外の発光点は消灯する制御手段と、を有し、前記基準点集合は、互いの位置関係が特定されている平面上の3つ以上の第1基準点と当該第1基準点との位置関係が特定されている1つの第2基準点とからなり、他の装置にて撮影された当該基準点集合の当該第1基準点の画像および当該第2基準点の画像の位置関係から対象物が特定されることを特徴とする指示装置である。 In the invention according to claim 1, when a plurality of reference point sets composed of light emitting points and the light emitting points are turned on for each reference point set, and the light emitting points of one reference point set are turned on, the one reference point set Control means for turning off the light emitting points other than the point set, and the reference point set includes three or more first reference points on a plane in which the mutual positional relationship is specified, and the first reference point From the positional relationship between the image of the first reference point and the image of the second reference point of the reference point set photographed by another device. The pointing device is characterized in that an object is specified.
請求項2に係る発明は、前記第2基準点は、前記第1基準点が配される前記平面上には配置されないことを特徴とする請求項1に記載の指示装置である。
請求項3に係る発明は、前記第1基準点および前記第2基準点の配置は、前記基準点集合毎に異なることを特徴とする請求項1に記載の指示装置である。
請求項4に係る発明は、前記指示装置が指示する箇所と同一の箇所に可視光線を照射する可視光線照射手段を更に有することを特徴とする請求項1に記載の指示装置である。
The invention according to claim 2 is the pointing device according to claim 1, wherein the second reference point is not arranged on the plane on which the first reference point is arranged.
The invention according to claim 3 is the pointing device according to claim 1, wherein the arrangement of the first reference point and the second reference point is different for each set of reference points.
The invention according to claim 4 is the pointing device according to claim 1, further comprising visible light irradiation means for irradiating visible light to the same location indicated by the pointing device.
請求項5に係る発明は、平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点が複数組配置された指示装置を撮影する撮影部と、前記第1基準点の互いの位置関係、前記第2基準点の当該第1基準点との位置関係および対象物の三次元位置を記憶する記憶部と、前記記憶部から前記第1基準点の互いの位置関係および前記第2基準点の当該第1基準点との位置関係を読み出し、前記撮影部により撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する判別部と、前記記憶部から対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する演算部と、を備えることを特徴とする対象物認識装置である。 According to a fifth aspect of the present invention, there is provided a photographing unit for photographing a pointing device in which a plurality of first reference points including three or more points on a plane and a plurality of second reference points including one point are arranged, and the first A storage unit that stores a mutual positional relationship of reference points, a positional relationship of the second reference point with the first reference point, and a three-dimensional position of an object, and a mutual position of the first reference point from the storage unit The relationship and the positional relationship between the second reference point and the first reference point are read out, and the image of the first reference point and the image of the second reference point photographed by the photographing unit is which set of images. Based on the positional relationship between the image of the first reference point and the image of the second reference point captured by the image capturing unit , the three-dimensional position of the object is read from the determination unit and the storage unit. The point image and the second reference point image are identified, and the identified image And a computing unit for identifying the object instructing of the pointing device by the image of the image and the second reference point of the first reference point to determine the three-dimensional position, three-axis angle and pointing direction of the pointing device This is an object recognition apparatus characterized by the above.
請求項6に係る発明は、前記判別部は、前記第1基準点および前記第2基準点の配置の違いにより当該第1基準点および当該第2基準点の画像が何れの組の画像であるかを判別することを特徴とする請求項5に記載の対象物認識装置である。
請求項7に係る発明は、前記第1基準点の画像および前記第2基準点の画像が複数組撮影されたときは、前記指示装置が指示する対象物を特定するのに適当な組の選択を行う選択部を更に有することを特徴とする請求項5に記載の対象物認識装置である。
In the invention according to claim 6 , the determination unit is any set of images of the first reference point and the second reference point due to a difference in arrangement of the first reference point and the second reference point. It is discriminate | determining, It is a target object recognition apparatus of Claim 5 characterized by the above-mentioned.
According to a seventh aspect of the present invention, when a plurality of sets of the first reference point image and the second reference point image are taken, selection of an appropriate set for specifying the object indicated by the pointing device The object recognition apparatus according to claim 5, further comprising a selection unit that performs the operation.
請求項8に係る発明は、コンピュータに、指示装置上に複数組配置された平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点の互いの位置関係をメモリから読み出し、撮影部により撮影された当該第1基準点の画像および当該第2基準点の画像が何れの組の画像であるかを判別する機能と、メモリから対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する機能と、を実現させるプログラムである。 According to an eighth aspect of the present invention, a positional relationship between a first reference point composed of three or more points on a plane and a second reference point composed of one point is arranged on a computer. A function for determining which set of images the image of the first reference point and the image of the second reference point read out from the memory and imaged by the photographing unit, and the three-dimensional position of the object are read out from the memory The image of the first reference point and the image of the second reference point are identified and identified from the positional relationship between the image of the first reference point and the image of the second reference point captured by the photographing unit. A function for specifying an object indicated by the pointing device by obtaining a three-dimensional position, a three-axis angle, and a pointing direction of the pointing device from the image of the first reference point and the image of the second reference point. This is a program to be realized.
請求項1の発明によれば、本構成を採用しない場合に比較して、発光点の撮影をする際に、指示装置の向きや三次元位置に対する影響を受けにくくすることができる。
請求項2の発明によれば、本構成を採用しない場合に比較して、指示装置の三次元位置および三軸角度をより高精度に計測できる。
請求項3の発明によれば、本構成を採用しない場合に比較して、第1基準点の画像および第2基準点の画像が何れの組の画像であるかをより簡単に判別することができる。
請求項4の発明によれば、本構成を採用しない場合に比較して、指示装置の操作をより容易に行うことができる。
請求項5の発明によれば、本構成を採用しない場合に比較して、より簡易な構成で、撮影部により撮影された第1基準点の画像および第2基準点の画像から、指示装置が指示する対象物を高精度に特定できる対象物認識装置を得ることができる。このとき第1基準点の画像および第2基準点の画像から、第1基準点が配置された平面とその向きが特定されることによって、この平面が設定された指示装置の三次元位置および三軸角度を計測できる。また、第2基準点の第1基準点との位置関係により指示装置の指示する対象物を特定することができる。
請求項6の発明によれば、本構成を採用しない場合に比較して、第1基準点の画像および第2基準点の画像が何れの組の画像であるかをより簡単に判別することができる。
請求項7の発明によれば、本構成を採用しない場合に比較して、指示装置が指示する対象物をより高精度に特定することができる。
請求項8の発明によれば、本構成を採用しない場合に比較して、撮影部により撮影された第1基準点の画像および第2基準点の画像から、指示装置が指示する対象物を高精度に特定できる機能を、コンピュータにより実現できる。このとき第1基準点の画像および第2基準点の画像から、第1基準点が配置された平面とその向きが特定されることによって、この平面が設定された指示装置の三次元位置および三軸角度を計測できる。また、第2基準点の第1基準点との位置関係により指示装置の指示する対象物を特定することができる。
According to the first aspect of the present invention, it is possible to make it less susceptible to the orientation of the pointing device and the three-dimensional position when photographing the light emitting point, as compared with the case where this configuration is not adopted.
According to invention of Claim 2, compared with the case where this structure is not employ | adopted, the three-dimensional position and triaxial angle of a pointing device can be measured with high precision.
According to the invention of claim 3, it is possible to more easily determine which set of images the image of the first reference point and the image of the second reference point are compared to the case where this configuration is not adopted. it can.
According to the fourth aspect of the present invention, the pointing device can be operated more easily than when the present configuration is not adopted.
According to the fifth aspect of the present invention, the pointing device has a simpler configuration than the case where the present configuration is not employed, and the pointing device uses the first reference point image and the second reference point image captured by the photographing unit. It is possible to obtain an object recognition apparatus that can specify an object to be indicated with high accuracy. At this time, by specifying the plane on which the first reference point is arranged and its orientation from the image of the first reference point and the image of the second reference point, the three-dimensional position and three points of the pointing device on which the plane is set are specified. Axis angle can be measured. In addition, the object indicated by the pointing device can be specified by the positional relationship between the second reference point and the first reference point.
According to the sixth aspect of the present invention, it is possible to more easily determine which set of images the image of the first reference point and the image of the second reference point are compared to the case where this configuration is not adopted. it can.
According to the seventh aspect of the present invention, it is possible to specify the target object indicated by the pointing device with higher accuracy than when the present configuration is not adopted.
According to the eighth aspect of the present invention, compared with the case where the present configuration is not adopted, the object pointed to by the pointing device is increased from the first reference point image and the second reference point image captured by the photographing unit. Functions that can be specified with accuracy can be realized by a computer. At this time, by specifying the plane on which the first reference point is arranged and its orientation from the image of the first reference point and the image of the second reference point, the three-dimensional position and three points of the pointing device on which the plane is set are specified. Axis angle can be measured. In addition, the object indicated by the pointing device can be specified by the positional relationship between the second reference point and the first reference point.
以下、添付図面を参照して、本発明の実施形態について詳細に説明する。
<システム構成>
図1は、本実施形態が適用される対象物認識装置、指示装置、および対象物を含む対象物認識システムの全体構成を示す図である。
図1に示す対象物認識システムは、撮影対象である指示装置100と、指示装置100の三次元位置、三軸角度、および指示方向を計算し、これらの情報から指示装置100が指示する対象物300を特定する対象物認識装置200から構成されている。そして、対象物認識装置200は、指示装置100を撮影する撮影部の一例としてのカメラ20と、カメラ20により撮影された画像に基づいて指示装置100の三次元位置、三軸角度、および指示方向を演算する演算装置30とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<System configuration>
FIG. 1 is a diagram illustrating an overall configuration of an object recognition system including an object recognition device, an instruction device, and an object to which the present embodiment is applied.
The target object recognition system shown in FIG. 1 calculates a
図2(A)〜(B)は、本実施形態が適用される指示装置100の構成を示す図である。
指示装置100は、直方体形状を成し、その4つの各側面に第1基準点と第2基準点とからなる基準点集合をそれぞれ4組備える。
ここで、図2(A)は、指示装置100を1つの側面上から見た図である。図2(A)に示すように、指示装置100の1つの側面には、指示装置100の三次元位置および三軸角度を計算するために用いられる第1基準点11a〜14aと、所定の情報を付加するために用いられる第2基準点15aとが設けられている。第1基準点11a〜14aおよび第2基準点15aは、互いの位置関係が予め特定されており、LED(Light Emitting Diode)等の発光点で構成される。
2A to 2B are diagrams illustrating the configuration of the
The
Here, FIG. 2A is a view of the
また他の3つの側面には、第1基準点11b〜14bおよび第2基準点15bと、第1基準点11c〜14cおよび第2基準点15cと、第1基準点11d〜14dおよび第2基準点15dとからなる基準点集合がそれぞれ設けられている。
The other three side surfaces include the
また指示装置100は、このLEDの点灯を制御する制御手段としての発光制御装置16を内部に備える。発光制御装置16は、上述した4組の基準点集合を基準点集合毎に点灯させる。点灯の順番は、任意であり、順番に規則性があっても不規則であってもよい。但し、何れか1つの基準点集合の発光点が点灯するときは、この1つの基準点集合以外の発光点は消灯することが好ましい。このようにすればカメラ20に撮影される基準点集合が1組のものになりやすく、後で詳述する演算がより簡単になる。また、どの基準点集合も点灯しない時間帯があってもよい。特に各基準点集合の点灯の合間に発光しない時間帯を設ければ、残光の影響などを回避しやすくなるため好ましい。
In addition, the
ここで、基準点集合として、第1基準点11a〜14aおよび第2基準点15aよりなる基準点集合を例にとり、以下に各基準点の配置等の説明を行う。但し、他の基準点集合である第1基準点11b〜14bおよび第2基準点15b、第1基準点11c〜14cおよび第2基準点15c、第1基準点11d〜14dおよび第2基準点15dを選択した場合でも同様のことが言える。
Here, as a reference point set, a reference point set including the
第1基準点11a〜14aは、指示装置100の表面に設けられる。一方、第2基準点15aは、指示装置100に取り付けられた脚の先端に設けられる。
第1基準点11a〜14aにより形成される四角形の形状は、例えば平行四辺形とすることができる。図2(A)〜(B)に示す例では、平行四辺形の一形態である正方形の形状とし、その一辺を51mm(図示しない)とした。
また、第2基準点15aは、後に詳述する第1基準点11a〜14aと第2基準点15aとの識別の必要性から、配置に対し一定の条件を満たす必要がある。例えば、第1基準点11a〜14aおよび第2基準点15aからなる5つの点の重心から最も遠い位置に配置することが考えられる。ここでは、この平行四辺形の対角線の交点から第1基準点12aと第1基準点13aを結ぶ線分の中点の方向へ46mm(図示しない)離れた箇所に長さ7mm(図示しない)の脚を付け、その先端に第2基準点15aを設けた。
The
The quadrangular shape formed by the
Further, the
第2基準点15aが設けられる脚の長さは任意であるが、指示装置100がカメラ20の撮像面に対して傾いた場合でも、第2基準点15aの画像(カメラ20(図1参照)により撮影された点の画像、以下、他の点についても同じ)が第1基準点11a〜14aおよび第2基準点15aの画像により形成される各点の重心に最も遠い位置を保持できることが条件となる。したがって、実際の使用において、指示装置100がカメラ20の撮像面に対してどの程度傾けることがあり得るかに応じて定めれば良い。
The length of the leg on which the
またここでは、第2基準点15aは、脚を設けその先端に配置することで、第1基準点11a〜14aが配置される平面上に配置しなかったが、特にこれに限られるものではなく第1基準点11a〜14aと同一の平面上に配置してもかまわない。但し、後に詳述する第1基準点11a〜14aと第2基準点15aとの識別が、より精度良くできることから上述したように第2基準点15aは、第1基準点11a〜14aが配される平面上に配置されない方が好ましい。
Further, here, the
第2基準点15aには、指示装置100であるデバイスの用途に応じて所定の情報が付加され任意の役割が与えられる。例えば、指示装置100で指示する対象物300の電源のON−OFF等の操作を行う意味を、第2基準点15aの点滅で表現することが可能である。
Predetermined information is added to the
なお、図1および図2(A)〜(B)には、指示装置100として第1基準点11a〜14a、第2基準点15aが設けられた直方体形状のものが記載されている。しかし、本実施形態では、カメラ20により撮影された第1基準点11a〜14aの画像に基づいて指示装置100の三次元位置および三軸角度を計算するものであるから、第1基準点11a〜14aおよび第2基準点15aが上記の位置関係をなすのであれば良く、指示装置100自体の形状は何ら限定されない。また、第2基準点15aは、上述の例では第1基準点11a〜14aが含まれる平面に対して一定の高さに配置されれば良いので、必ずしも図2(B)に示すような脚を設けて配置しなくても良い。例えば、指示装置100の表面が、第1基準点11a〜14aが含まれる平面に対して凸状に隆起した形状を有するならば、指示装置100の表面に直接第2基準点15aを配置しても良い。
In FIG. 1 and FIGS. 2A to 2B, a
図3は、カメラ20の構成例を示す図である。
カメラ20は、第1基準点11a〜14aおよび第2基準点15aから発射された光を収束する光学系21と、光学系21により収束された光を検出する撮像手段であるイメージセンサ22とを備える。
FIG. 3 is a diagram illustrating a configuration example of the
The
光学系21は、単一のレンズまたは複数のレンズを組み合わせて構成される。例えば、2つの半球レンズを使用し、その球面側を向かい合わせに組み合わせたツインレンズが用いられる。レンズの組み合わせおよびレンズ表面に施されたコーティング等により、各種の不要な収差は適切に除去されている。
The
イメージセンサ22は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を配列して構成される。このイメージセンサ22の表面がカメラ20の撮像面となる。イメージセンサ22の前面に、第1基準点11a〜14aおよび第2基準点15aに用いられるLEDの発光波長に応じたフィルタを設置することにより、余計な光が排除され、第1基準点11a〜14aおよび第2基準点15aのみが撮影されることとなる。具体的には例えば、第1基準点11a〜14aおよび第2基準点15aに用いられるLEDの発光波長を900nmとした場合、イメージセンサ22の前面に850nmよりも長い波長だけを透過するフィルタを設置する。
The
図4は、演算装置30の構成を説明した図である。
演算装置30は、図4に示したように、第1基準点(図2参照)の互いの位置関係、第2基準点(図2参照)の第1基準点との位置関係、および対象物300(図1参照)の三次元位置を記憶する記憶部31、カメラ20により撮影された入力画像を取り込み、第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する判別部32、第1基準点の画像および第2基準点の画像が複数組撮影されたときは、指示装置100(図1参照)が指示する対象物300を特定するのに適当な組の選択を行う選択部33と、記憶部31から対象物300の三次元位置を読み出し、第1基準点の画像および第2基準点の画像から指示装置100が指示する対象物300を特定し、認識結果を出力する演算部34とからなる。
FIG. 4 is a diagram illustrating the configuration of the
As shown in FIG. 4, the
また、図5は、演算装置30の動作を説明したフローチャートである。
以下、図4と図5に基づき、演算装置30の動作の概略を説明する。
判別部32は、カメラ20により撮影された入力画像を取得する(ステップ101)。そして、第1基準点の互いの位置関係、および第2基準点の第1基準点との位置関係を記憶部31から読み出し(ステップ102)、撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する(ステップ103)。
次に、第1基準点の画像および第2基準点の画像が複数組撮影されたときは、選択部33が、指示装置100が指示する対象物300を特定するのに適当な組の選択を行う(ステップ104)。
次に、演算部34が、記憶部31から対象物300の三次元位置を読み出し(ステップ105)、第1基準点の画像および第2基準点の画像から指示装置100が指示する対象物300を特定する(ステップ106)。この演算は、第1基準点の画像および第2基準点の画像の位置関係から、第1基準点の画像と第2基準点の画像とを識別し、識別された第1基準点の画像と第2基準点の画像から指示装置100の三次元位置、三軸角度および指示方向を求めることで行い、これにより指示装置100の指示する対象物300を特定することができる。
FIG. 5 is a flowchart for explaining the operation of the
Hereinafter, an outline of the operation of the
The
Next, when a plurality of sets of images of the first reference point and the second reference point are photographed, the
Next, the
なお、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、演算装置30は、例えばパーソナルコンピュータ等であり、パーソナルコンピュータ等内部の図示しないCPUが、記憶部31、判別部32、選択部33、演算部34の各機能を実現するプログラムを、例えばハードディスク等の外部記憶装置からメインメモリに読み込んで、演算装置30内にこれらの各機能を実現する。
Note that these functions are realized by cooperation of software and hardware resources. That is, the
<画像における組の判別>
次に、撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する方法を説明する。
この判別を行うために、例えば、本実施の形態において4組ある第1基準点と第2基準点を全て異なるように配置することが考えられる。このように基準点集合毎に異なるように配置することで、判別部32は、第1基準点および第2基準点の配置の違いにより第1基準点および第2基準点の画像が何れの組の画像であるかを判別することができる。他の方法としては、第1基準点の個数を各基準点毎に異なるようにしてもよい。また、配置を全て同一にした場合であっても、例えば、点滅させるLEDを各組毎に異ならせ、そのLEDの位置を特定することで、判別部32は、何れの組のものかを判別することも可能である。
<Distinction of set in image>
Next, a method for discriminating which set of images the first reference point image and the second reference point image that have been taken will be described.
In order to make this determination, for example, in the present embodiment, it is conceivable to arrange the first reference point and the second reference point that are four sets different from each other. In this way, by arranging differently for each reference point set, the
ここで、撮影された第1基準点の画像と第2基準点の画像は2組以上取得し、その中から上述した選択部33により適当な組を選択するのが好ましい。この選択は、例えば、指示装置100の三次元位置、三軸角度、および指示方向についてより高精度に演算できる組であることや、または撮影された第1基準点の画像と第2基準点の画像の合計の光量が大きいことなどを基準として行えばよい。このようにすることで、より高精度に指示装置100が指示する対象物300を特定できるようになる。
Here, it is preferable that two or more sets of captured images of the first reference point and the second reference point are acquired, and an appropriate set is selected by the
<画像における第1識別点と第2識別点の識別>
次に、カメラ20により撮影された画像から、第1基準点および第2基準点の各々の画像を識別する方法を説明する。
図6は、3点の第1基準点と1点の第2基準点を備える指示装置100の例である。
図6に示した指示装置100は、3つの第1基準点11a〜13aが、指示装置100の上面に三角形(a1a2a3)の形状をなすように配置されている。この三角形(a1a2a3)は特別の特徴を有する必要はないが、図6に示した三角形(a1a2a3)の場合は、辺a2a3と辺a1a3の長さが等しい二等辺三角形とした。
そして、第2基準点15aは、第1基準点11a〜13a、第2基準点15aの4点の重心から最も遠い位置に配置される。また、第2基準点15aは、第1基準点11a〜13aが含まれる平面から一定の高さだけ高い位置(例えば図6における紙面の手前方向)に配置されている。ただし、図6は第1基準点11a〜13aが含まれる平面に垂直な方向から見た図なので、第2基準点15aの高さは図示されていない。
<Identification of first discrimination point and second discrimination point in image>
Next, a method for identifying each image of the first reference point and the second reference point from the image taken by the
FIG. 6 is an example of the
In the
The
以上のように配置した場合、第1基準点11a〜13aと第2基準点15aとの位置関係における幾何学的特徴は、カメラ20により撮影された画像上の各基準点の画像の位置関係においても保存される。したがって、この幾何学的特徴に基づいて各基準点の画像が第1基準点11a〜13aおよび第2基準点15aのいずれのものかを特定すれば良い。具体的には、第2基準点15aは、4点の重心から最も遠い位置にあるという位置関係を利用することにより第2基準点15aを識別できる。
When arranged as described above, the geometric feature in the positional relationship between the
なお、第2基準点15aは上述のように、第1基準点11a〜13aにより形成される三角形(a1a2a3)の重心ではなく、重心から一定の高さの位置にある。そのため、厳密には、第1基準点11a〜13aに対する第2基準点15aの位置の幾何学的特徴は、対応する点画像の位置において保存されない。しかし、第1基準点11a〜13aを含む平面と第2基準点15aとの間の距離が十分に短ければ、指示装置100の三軸角度が変化しても、第2基準点15aの位置は三角形(a1a2a3)の重心からそれほど大きくは離れない。したがって、三角形(a1a2a3)の重心に最も遠い位置にある点画像を第2基準点15aの画像として良い。
As described above, the
一方、図7は、4点の第1基準点と1点の第2基準点を備える指示装置100の例である。
上述した図6に示した指示装置100は、3点の第1基準点と1点の第2基準点を備えた例であったが、図7に示した指示装置100では、第1基準点が1つ増え4点としている。
図7に示した指示装置100は、第1基準点11a〜14aが平行四辺形の形状(a1a2a3a4)の形状をなすように配置されている。この場合、辺a1a2と辺a3a4とは平行であり、また辺a2a3とa4a1とは平行である。
そして、第2基準点15aは、第1基準点11a〜14aが含まれる平面から一定の高さだけ高い位置に配置されている。
以上のように配置した場合、第1基準点11a〜14aの辺a1a2と辺a3a4とが平行で、また辺a2a3とa4a1とが平行であるという位置関係は、カメラ20により撮影された画像上の各点の画像の位置関係においても保存される。したがって、この幾何学的特徴に基づいて各基準点の画像が第1基準点11a〜14aおよび第2基準点15aのいずれのものかを特定すれば良い。
On the other hand, FIG. 7 is an example of the
The
The
The
When arranged as described above, the positional relationship that the sides a1a2 and a3a4 of the
以上、第1基準点が3点の場合と4点の場合で説明したが、第1基準点が5点以上の場合においても上述した幾何学的特徴に基づき第1基準点と第2基準点を配置することにより、第1基準点と第2基準点との識別を行うことが可能である。 As described above, the case where the first reference point is 3 points and the case where the first reference point is 4 points has been described. However, even when the first reference point is 5 points or more, the first reference point and the second reference point are based on the above-described geometric features. By arranging, it is possible to identify the first reference point and the second reference point.
<指示装置100の三次元位置、三軸角度、指示方向の計算>
次に、第1基準点と第2基準点の位置に基づいて指示装置100の三次元位置、三軸角度、および指示方向を計算する方法について説明するが、第1基準点が3点の場合と4点以上の場合とで算出の方法が異なるので別々に説明を行う。
<Calculation of three-dimensional position, three-axis angle, and pointing direction of pointing
Next, a method for calculating the three-dimensional position, the three-axis angle, and the pointing direction of the
図8は、第1基準点が3点の場合に指示装置100の三次元位置および三軸角度を計算する方法を説明する図である。
まず、図8に示すように、カメラ20により撮影された画像上(イメージセンサ22上)の第1基準点11a〜13aの点画像に基づいて、カメラ20の光学中心Oから第1基準点11a〜13aの各々への方向di(i=1、2、3)を算出する。diは、カメラ20の撮像面における第1基準点11a〜13aの各点画像と光学中心Oとを結ぶ直線上にあり、光学中心Oを始点とする規格化された単位ベクトルである。また、第1基準点11aへの方向をベクトルd1(=[x1,y1,z1])、第1基準点12aへの方向をベクトルd2(=[x2,y2,z2])、第1基準点13aへの方向をベクトルd3(=[x3,y3,z3])とする。
FIG. 8 is a diagram for explaining a method of calculating the three-dimensional position and the three-axis angle of the
First, as shown in FIG. 8, the
カメラ20の光学中心Oを基準として、第1基準点11aの位置ベクトルをa1、第1基準点12aの位置ベクトルをa2、第1基準点13aの位置ベクトルをa3とする。これらの位置ベクトルaiは、それぞれ上記のベクトルdiと重なる。そこで、各位置ベクトルaiの長さを表す係数をt1、t2、t3とすると、各位置ベクトルaiは次式で表せる。
With reference to the optical center O of the
第1基準点11a〜13aが形成する三角形の形状は予めわかっているので、三角形の各辺の長さ(各第1基準点11a〜13a間の長さ)を、a1a2=L1、a2a3=L2、a3a1=L3とすると、次式が得られる。
Since the shape of the triangle formed by the
これを整理すると、次式が得られ、 Arranging this, the following formula is obtained,
さらに次式が得られる。 Furthermore, the following equation is obtained.
A1=x1x2+y1y2+z1z2、
A2=x2x3+y2y3+z2z3、
A3=x3x1+y3y1+z3z1
である。
A1 = x1x2 + y1y2 + z1z2,
A2 = x2x3 + y2y3 + z2z3,
A3 = x3x1 + y3y1 + z3z1
It is.
実数解を持つために、次式の条件を満たす実数t1、t2、t3をそれぞれ上記の数4式に代入し、数4式が成立する全てのt1、t2、t3を求める。 In order to have a real number solution, real numbers t1, t2, and t3 satisfying the following equation are substituted into the above equation 4, and all t1, t2, and t3 that satisfy equation 4 are obtained.
通常、数5式が成立するt1、t2、t3の組は複数存在する。そこで、第2基準点15aの位置に基づいて、複数のt1、t2、t3の組(候補)の中から特定の係数t1、t2、t3の組を選択する。
具体的には、まず、算出した全ての係数t1、t2、t3の組に対応する位置ベクトルa1、a2、a3の組をそれぞれ算出し、a1、a2、a3の組で構成される三角形の三次元位置と三軸角度を求める。そして、各三角形の三次元位置および三軸角度に基づき、各三角形に対する第2基準点15aの位置を計算し、位置ベクトルa4とする。次に、位置ベクトルa4の点をカメラ20で撮影した場合の画像上の位置(画像位置)を計算し、計算値と実際に撮影された第2基準点15aの画像位置とを比較する。そして、実際の画像位置との差が最も小さい位置ベクトルa4に対応する三角形を抽出し、この三角形に対応するt1、t2、t3の組を正解とする。
Usually, there are a plurality of sets of t1, t2, and t3 in which Expression 5 is established. Therefore, a specific set of coefficients t1, t2, and t3 is selected from a plurality of sets (candidates) of t1, t2, and t3 based on the position of the
Specifically, first, a set of position vectors a1, a2, and a3 corresponding to all of the calculated sets of coefficients t1, t2, and t3 are calculated, respectively, and a triangular cubic composed of the sets of a1, a2, and a3 is calculated. Find the original position and triaxial angle. Based on the three-dimensional position and the triaxial angle of each triangle, the position of the
以上のようにして、第1基準点11a〜13aの方向d1、d2、d3および距離t1、t2、t3が特定されたため、第1基準点11a〜13aで形成される三角形(およびこれを含む指示装置100)の三次元位置および三軸角度が求まることとなる。また第1基準点11a〜13aと第2基準点15aとの位置関係により、指示装置100の指示方向が定まることになる。
なお、第1基準点11a〜13aおよび第2基準点15aを用いた指示装置100の三次元位置および三軸角度の計算方法は、上記の手順に限定されるものではない。例えば、上記の手順では複数のt1、t2、t3の組を求めた後に第2基準点15aの画像位置に基づいて1つの解を抽出したが、初めから第1基準点11a〜13aの各々の画像位置と第2基準点15aの画像位置との関係を考慮して第1基準点11a〜13aおよび第2基準点15aまでの距離t1、t2、t3を求めるようにしても良い。
As described above, since the directions d1, d2, and d3 and the distances t1, t2, and t3 of the
Note that the calculation method of the three-dimensional position and the three-axis angle of the
次に、第1基準点が4点の場合について指示装置100の三次元位置、三軸角度、および指示方向を算出する方法について説明を行う。
第1基準点11aの位置について、指示装置100を基準とした座標系における座標を[X1,Y1,Z1]Tとする。また、カメラ20により撮影された画像上(イメージセンサ22上)(図3参照)の座標系における第1基準点11aの点の像の座標を[u1,v1]とする。なお以下の説明で、カメラの位置を原点とした座標系をカメラ座標系とし、このカメラ座標系における第1基準点11aの座標を[Xc1,Yc1,Zc1]Tとする。
この場合、射影行列Pとして3行4列の行列を用いて、以下の関係式が成り立つ。
Next, a method for calculating the three-dimensional position, the three-axis angle, and the pointing direction of the
For the position of the
In this case, using the 3 × 4 matrix as the projection matrix P, the following relational expression is established.
数6式の中の射影行列Pは定数倍の不定性があり、これが数6式の左辺の係数hによって吸収される。よって、P34=1とおくことができる。また、第1基準点11a〜14aは同一平面上にあるために、Z座標を0とすることができる。そこで、Z1=0とすると、数6式のZ1に対応する射影行列の第3列を省略することができる。そのため数6式は、以下のように変形できる。この場合の射影行列の未知数は8個となる。
The projection matrix P in Equation 6 has a constant multiple indefiniteness, which is absorbed by the coefficient h on the left side of Equation 6. Accordingly, P 34 = 1 can be set. Further, since the
この数7式から次の2つの拘束式が得られる。 The following two constraint equations can be obtained from the equation (7).
数8式で示した関係は、第1基準点12a〜14aについても同様に成り立つ。即ち、第1基準点12a〜14aに対して、以下の関係式が成り立つ。なお、ここで、第1基準点12a〜14aの指示装置100を基準とした座標系における座標をそれぞれ、[X2,Y2,Z2]T、[X3,Y3,Z3]T、[X4,Y4,Z4]Tとし、カメラ20により撮影された画像上の座標系における第1基準点12a〜14aの点の像の座標をそれぞれ、[u2,v2]、[u3,v3]、[u4,v4]としている。また第1基準点11aと同様にZ2=Z3=Z4=0としている。
The relationship expressed by Equation 8 is similarly established for the
数8式および数9式を整理すると次式が得られる。 The following formula is obtained by rearranging formula 8 and formula 9.
数11式の両辺にAの逆行列を左からかけると、 Multiplying both sides of Equation 11 by the inverse matrix of A from the left,
となり、P3を求めることができる。
また、射影行列Pは、カメラ内部行列Cとカメラ外部行列[r1 r2 r3 t]との積で表すことができる。
Thus, P3 can be obtained.
The projection matrix P can be represented by the product of the camera inner matrix C and the camera outer matrix [r1 r2 r3 t].
ここで、r1、r2、r3は、指示装置100上の座標系をカメラ座標系に変換する回転ベクトルであり、tは、平行移動ベクトルである。そして、これらのベクトルは全て3つの要素を有する列ベクトルとして表される。P3は射影行列Pの第3列目がない行列であるので、
Here, r1, r2, and r3 are rotation vectors for converting the coordinate system on the
となる。よって、 It becomes. Therefore,
となり、列ベクトルr1、r2、tを算出することができる。また、r3は、r1、r2と直交することから、 Thus, the column vectors r1, r2, and t can be calculated. Since r3 is orthogonal to r1 and r2,
と表すことができる。よって数16式よりr3を算出することができる。以上のようにして回転ベクトルr1、r2、r3と、平行移動ベクトルtが全て算出できたことになる。そこで、R=[r1 r2 r3]とすると、第1基準点11a〜14aの三次元位置は、カメラ座標系を使用して、以下のように表すことができる。なおここで、カメラ座標系における第1基準点12a〜14aの座標をそれぞれ[Xc2,Yc2,Zc2]T、[Xc3,Yc3,Zc3]T、[Xc4,Yc4,Zc4]Tとしている。
It can be expressed as. Therefore, r3 can be calculated from equation (16). As described above, all the rotation vectors r1, r2, and r3 and the translation vector t can be calculated. Therefore, assuming R = [r1 r2 r3], the three-dimensional positions of the
数17の関係式から、第1基準点11a〜14aのカメラ座標が特定できるため、指示装置100の三次元位置および三軸角度が求まることとなる。また第1基準点11a〜14aと第2基準点15aとの位置関係により、指示装置100の指示方向が定まることになる。
なお、以上の説明は、第1基準点が4点の場合を説明したが、5点以上になった場合も同様の手法を用いて算出可能である。
Since the camera coordinates of the
In the above description, the case where the first reference point is four points has been described. However, the calculation can be performed using the same method when the first reference point is five points or more.
<対象物の特定>
上述のようにして求めた指示装置100の三次元位置、三軸角度、および指示方向より、指示装置100が指示する対象物300(図1参照)を特定することができる。即ち、記憶部31(図4参照)には種々の対象物300の三次元位置が記憶されており、その三次元位置を読み出して対比することにより、どの対象物300が指示されているかを算出し、特定することができる。
この場合例えば、対象物300として部屋の中にあるテレビの画面を指示装置100が指示していたとする。ここで、対象物認識装置200(図1参照)から別途設けた制御装置に情報を送ることでテレビに対し特定の動作を行わせることができる。例えば、電源のON−OFFなどである。また、他の場所を指示装置100により指示することで、チャンネルの切り替えや音量の調整など他の動作を行わせることもできる。指示する場所はテレビの画面等に限られるものではなく、例えば、テレビ横の壁面の特定の場所を上記のような動作を行わせるための場所として指定してもよい。この際に指示装置100の先端に可視光線を出射する可視光線照射手段としてのレーザポインタなどを取り付け、指示装置100が指示する箇所と同一の箇所に可視光線であるレーザを照射し、指示装置100が指示する箇所を指示装置100を操作するユーザにわかるようにしてもよい。この場合、ユーザは、より的確に対象物300を指定できるようになる。そして、第1基準点および第2基準点は複数組設置されているので、ユーザが指示装置100を様々な角度や三次元位置で使用してもカメラ20により何れかの組の第1基準点および第2基準点がカメラ20に捉えやすくなる。即ち、ユーザの使い方に依存しにくい指示装置100が実現でき、カメラ20が何れの組の画像を捉えても同一の対象物300を認識することができる。
<Identification of object>
The object 300 (see FIG. 1) indicated by the
In this case, for example, it is assumed that the
なお、本実施形態では、第1基準点および第2基準点をLEDにより構成される発光点としたが、これに限定するものではない。例えば、第1基準点および第2基準点としてLEDの代わりに再帰反射板を設け、カメラ20の近くに設けられた照明装置から光を照射し、再帰反射板による反射光をカメラ20により撮影するようにしても良い。
In the present embodiment, the first reference point and the second reference point are light emitting points constituted by LEDs. However, the present invention is not limited to this. For example, a retroreflecting plate is provided instead of the LED as the first reference point and the second reference point, light is emitted from an illumination device provided near the
11a〜14a,11b〜14b,11c〜14c,11d〜14d…第1基準点、15a,15b,15c,15d…第2基準点、20…カメラ、30…演算装置、31…記憶部、32…判別部、33…選択部、34…演算部、100…指示装置、200…対象物認識装置、300…対象物
11a-14a, 11b-14b, 11c-14c, 11d-14d ... first reference point, 15a, 15b, 15c, 15d ... second reference point, 20 ... camera, 30 ... arithmetic unit, 31 ... storage unit, 32 ...
Claims (8)
前記発光点を前記基準点集合毎に点灯し、1つの基準点集合の発光点が点灯するときは、当該1つの基準点集合以外の発光点は消灯する制御手段と、を有し、
前記基準点集合は、互いの位置関係が特定されている平面上の3つ以上の第1基準点と当該第1基準点との位置関係が特定されている1つの第2基準点とからなり、他の装置にて撮影された当該基準点集合の当該第1基準点の画像および当該第2基準点の画像の位置関係から対象物が特定されることを特徴とする指示装置。 A plurality of reference point sets consisting of luminous points;
The light emitting points are turned on for each reference point set, and when the light emitting points of one reference point set are turned on, the light emitting points other than the one reference point set are turned off, and control means,
The set of reference points includes three or more first reference points on a plane in which the mutual positional relationship is specified and one second reference point in which the positional relationship between the first reference points is specified. A pointing device characterized in that an object is specified from a positional relationship between an image of the first reference point and an image of the second reference point of the reference point set photographed by another device.
前記第1基準点の互いの位置関係、前記第2基準点の当該第1基準点との位置関係および対象物の三次元位置を記憶する記憶部と、
前記記憶部から前記第1基準点の互いの位置関係および前記第2基準点の当該第1基準点との位置関係を読み出し、前記撮影部により撮影された第1基準点の画像および第2基準点の画像が何れの組の画像であるかを判別する判別部と、
前記記憶部から対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する演算部と、
を備えることを特徴とする対象物認識装置。 A photographing unit that photographs a pointing device in which a plurality of first reference points including three or more points on a plane and a plurality of second reference points including one point are arranged;
A storage unit for storing the mutual positional relationship of the first reference points, the positional relationship of the second reference point with the first reference point, and the three-dimensional position of the object;
The positional relationship between the first reference points and the positional relationship of the second reference point with the first reference point is read from the storage unit, and an image of the first reference point and the second reference captured by the imaging unit. A discriminator for discriminating which set of images the image of the points is;
The three-dimensional position of the object is read from the storage unit, and the first reference point image and the second reference point image are obtained from the positional relationship between the first reference point image and the second reference point image captured by the imaging unit. The pointing device is identified by identifying the image of the two reference points and obtaining the three-dimensional position, the three-axis angle and the pointing direction of the pointing device from the identified image of the first reference point and the image of the second reference point. A computing unit for identifying the target indicated by ;
An object recognition apparatus comprising:
指示装置上に複数組配置された平面上の3つ以上の点からなる第1基準点および1つの点からなる第2基準点の互いの位置関係をメモリから読み出し、撮影部により撮影された当該第1基準点の画像および当該第2基準点の画像が何れの組の画像であるかを判別する機能と、
メモリから対象物の三次元位置を読み出し、前記撮影部により撮影された前記第1基準点の画像および前記第2基準点の画像の位置関係から、当該第1基準点の画像と当該第2基準点の画像とを識別し、識別された当該第1基準点の画像と当該第2基準点の画像から前記指示装置の三次元位置、三軸角度および指示方向を求めることで当該指示装置の指示する対象物を特定する機能と、
を実現させるプログラム。 On the computer,
The positional relationship between the first reference point consisting of three or more points on the plane arranged on the pointing device and the second reference point consisting of one point is read from the memory, and the image taken by the photographing unit A function of determining which set of images the image of the first reference point and the image of the second reference point are;
The three-dimensional position of the object is read from the memory, and the image of the first reference point and the second reference point are determined from the positional relationship between the image of the first reference point and the image of the second reference point taken by the photographing unit. A point image is identified, and the three-dimensional position, the three-axis angle and the pointing direction of the pointing device are obtained from the identified image of the first reference point and the image of the second reference point. A function to identify the target object ,
A program that realizes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008143313A JP5195041B2 (en) | 2008-05-30 | 2008-05-30 | Pointing device, object recognition device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008143313A JP5195041B2 (en) | 2008-05-30 | 2008-05-30 | Pointing device, object recognition device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009288172A JP2009288172A (en) | 2009-12-10 |
JP5195041B2 true JP5195041B2 (en) | 2013-05-08 |
Family
ID=41457516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008143313A Expired - Fee Related JP5195041B2 (en) | 2008-05-30 | 2008-05-30 | Pointing device, object recognition device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5195041B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7006714B2 (en) * | 2020-03-23 | 2022-01-24 | カシオ計算機株式会社 | Positioning system, position measuring device, position measuring method and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3017183B1 (en) * | 1998-10-15 | 2000-03-06 | 株式会社ファンテックス | Automatic tracking lighting control system for moving objects |
US6973202B2 (en) * | 1998-10-23 | 2005-12-06 | Varian Medical Systems Technologies, Inc. | Single-camera tracking of an object |
JP3374175B2 (en) * | 2000-01-27 | 2003-02-04 | 名古屋大学長 | Data transmission device with data transmission function for position display |
JP2004348442A (en) * | 2003-05-22 | 2004-12-09 | Fuji Photo Optical Co Ltd | Light pen for material presenting device |
JP4532856B2 (en) * | 2003-07-08 | 2010-08-25 | キヤノン株式会社 | Position and orientation measurement method and apparatus |
JP2007071782A (en) * | 2005-09-08 | 2007-03-22 | Canon Inc | System for measuring position attitude and method of measuring, same and control program |
CN101427153B (en) * | 2006-04-20 | 2013-02-27 | 法罗技术股份有限公司 | Camera based six degree-of-freedom target measuring and target tracking device |
-
2008
- 2008-05-30 JP JP2008143313A patent/JP5195041B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009288172A (en) | 2009-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101661714B1 (en) | Object tracking with projected reference patterns | |
JP4142460B2 (en) | Motion detection device | |
CN105393079B (en) | Depth transducer control based on context | |
JP3859574B2 (en) | 3D visual sensor | |
JP3950837B2 (en) | Projector, electronic blackboard system using projector, and indication position acquisition method | |
US20150309174A1 (en) | Method and handheld distance measuring device for creating a spatial model | |
JP2009068968A (en) | Position measuring system | |
WO2013035554A1 (en) | Method for detecting motion of input body and input device using same | |
US20020085097A1 (en) | Computer vision-based wireless pointing system | |
US20090296991A1 (en) | Human interface electronic device | |
WO2019012770A1 (en) | Imaging device and monitoring device | |
JP6601489B2 (en) | Imaging system, imaging apparatus, imaging method, and imaging program | |
US20210231810A1 (en) | Camera apparatus | |
JP2001148025A (en) | Device and method for detecting position, and device and method for detecting plane posture | |
US11009887B2 (en) | Systems and methods for remote visual inspection of a closed space | |
JP5874252B2 (en) | Method and apparatus for measuring relative position with object | |
CN102401901B (en) | Distance measurement system and distance measurement method | |
JP2001166881A (en) | Pointing device and its method | |
JP5195041B2 (en) | Pointing device, object recognition device, and program | |
WO1999060469A1 (en) | Control device and method of controlling an object | |
JP2008070208A (en) | Light position detection system, light id tag device, position detection device, and light position detection method | |
KR101956035B1 (en) | Interactive display device and controlling method thereof | |
US20140327617A1 (en) | Method and Locating Device for Locating a Pointing Device | |
JP2009199247A (en) | Object recognition apparatus, indicating device and program | |
JP2010079458A (en) | Handwriting display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120828 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5195041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |