JP2004045321A - Position measuring system - Google Patents

Position measuring system Download PDF

Info

Publication number
JP2004045321A
JP2004045321A JP2002205549A JP2002205549A JP2004045321A JP 2004045321 A JP2004045321 A JP 2004045321A JP 2002205549 A JP2002205549 A JP 2002205549A JP 2002205549 A JP2002205549 A JP 2002205549A JP 2004045321 A JP2004045321 A JP 2004045321A
Authority
JP
Japan
Prior art keywords
light
emitting
marker
light emitting
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002205549A
Other languages
Japanese (ja)
Inventor
Takashi Sakaguchi
坂口 貴司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002205549A priority Critical patent/JP2004045321A/en
Publication of JP2004045321A publication Critical patent/JP2004045321A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position measuring system which can obtain highly-accurate, stable three-dimensional position information. <P>SOLUTION: The system comprises: a light-emitting marker 1; plural moving picture cameras 2 receiving the light of this light-emitting marker; a light-reception/emission controlling/calculating means 3 erforming the light-reception/emission control of the light-emitting marker and the plural moving picture cameras and calculating the local position coordinate and light-emission area information of the light-emitting marker in a camera image frame of each of the moving picture cameras; a marker light-emitting area using calculating means 57 calculating a three-dimensional position of the light-emitting marker in a light-emitting area using system based on the information from this light-reception/emission controlling/calculating means; a stereoscopically calculating means 58 calculating a three-dimensional position of the light-emitting marker in a stereoscopic system based on the information from this light-reception/emission controlling/calculating means; and a position coordinate calculation selecting means 56 selecting the stereoscopically calculating means when the light-emitting marker is detected by two or more moving picture cameras, and the stereoscopically calculating means when it is detected by one moving picture camera. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、例えば発光ダイオード(LED)のような発光マーカ(発光部)および発光マーカが取り付けられた物体の3次元位置を認識する位置計測システムに関する。
【0002】
【従来の技術】
図4に例えば特開平09−243325号公報に開示された従来の第1のこの種の位置計測システムの構成を概略的に示す。図4において、1は発光部の1例としてのLED発光マーカ、2は動画像カメラの1例としてのCCDカメラ、3は受発光制御計算装置、4aはコンピュータ、5aはCCDカメラ2で求められた発光マーカ1の距離と座標位置から3次元位置を算出するコンピュータの機能ブロックとして示された3次元位置算出部、51は3次元位置算出部5aに含まれるマーカ発光面積利用算出部である。
【0003】
図5は1つのCCDカメラ2でCCDカメラ2とLED発光マーカ1の距離を推定する方法を説明するための図である。図5の(a)がCCDカメラ2とLED発光マーカ1の距離が近いケース、(b)がCCDカメラ2とLED発光マーカ1の距離が遠いケースである。LED発光マーカ1の発光面積はCCDカメラ2からの距離の自乗に反比例して小さくなる。よってある基準点での発光面積および距離との比をとれば、LED発光マーカ1の発光面積からCCDカメラ2とLED発光マーカ1の距離を算出することができる。これにより1個のCCDカメラ2でCCDカメラ2とLED発光マーカ1の距離を算出できる。
【0004】
図6には「三次元画像計測」、井口・佐藤著、昭晃堂、1990に開示された従来の第2の位置計測システムの構成を概略的に示す。図6において、図4と同一もしくは相当部分は同一符号で示す。4bはコンピュータ、5bはCCDカメラ2で求められた発光マーカ1の距離と座標位置から3次元位置を算出するコンピュータの機能ブロックとして示された3次元位置算出部、53は3次元位置算出部5bに含まれるステレオ視算出部である。そしてここではCCDカメラ2を2台以上用いる。
【0005】
図7にステレオ視の原理を示す。2台のCCDカメラ2の位置とこのCCDカメラ2で検出したLED発光マーカ1の方向からCCDカメラ2とLED発光マーカ1の距離を算出することによって、LED発光マーカ1の3次元位置座標を算出することができる。ステレオ視を利用するとCCDカメラ2とLED発光マーカ1の距離が高精度に求めることができるので、高精度に3次元位置座標を算出することができる。
【0006】
【発明が解決しようとする課題】
以上のような従来の第1の装置では、マーカ発光面積の検出が高精度ではないため、3次元位置計測精度が良くない。また、動画像カメラ1個の固定視野なので、そのカメラで検出できなくなると計測不可となる。よって、3次元位置計測の高精度化、広範囲化、隠れ対策(何かで視野が遮られてしまった場合の対策)が課題であった。
【0007】
また、従来の第2の装置では、ステレオ視には2台以上の動画像カメラで検出された発光マーカの画像情報が必要なため、両方のカメラから見える範囲、条件でないと、3次元位置座標が求まらない。よって、3次元位置計測の広範囲化、隠れ対策が課題であった。
【0008】
この発明は上記のような課題を解消するためになされたもので、高精度でかつ安定した3次元位置情報が得られる位置計測システムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記の目的に鑑み、この発明は、位置計測対象となる発光マーカと、この発光マーカからの光りを受光する複数の動画像カメラと、前記発光マーカおよび複数の動画像カメラの受発光制御を行うと共に各動画像カメラのカメラ画像フレームにおける前記発光マーカのローカル位置座標および発光面積情報を計算する受発光制御計算手段と、この受発光制御計算手段から得られる情報に基づき発光面積利用方式による発光マーカの3次元位置算出を行うマーカ発光面積利用算出手段と、前記受発光制御計算手段から得られる情報に基づきステレオ視方式による発光マーカの3次元位置算出を行うステレオ視算出手段と、前記発光マーカが2台以上の動画像カメラで検出された時に前記ステレオ視算出手段、1台の動画像カメラで検出された時には前記ステレオ視算出手段を選択する位置座標計算選択手段と、を備えたことを特徴とする位置計測システムにある。
【0010】
また、前記発光マーカを複数とし、前記受発光制御計算手段から得られる発光マーカの情報に基づき発光マーカの数と位置を算出して前回分と比較して発光マーカの消失および複数発光マーカの融合を検出し対応する情報を無効にするデータ有効性判定手段と、少なくとも前記発光マーカの数と位置の前回分を記憶しておくメモリと、を備え、有効な各発光マーカに関してそれぞれ位置計測を行うことを特徴とする。
【0011】
【発明の実施の形態】
実施の形態1.
図1はこの発明の一実施の形態による位置計測システムの構成を概略的に示す。図1において、1は発光部の1例としてのLED発光マーカ、2は動画像カメラの1例としてのCCDカメラ、3は受発光制御計算装置、4cはコンピュータ、5cはCCDカメラ2で求められた発光マーカ1の距離と座標位置から3次元位置を算出するコンピュータの機能ブロックとして示された3次元位置算出部である。
【0012】
3次元位置算出部5cにおいて、55はデータ有効性判定部、56は位置座標計算方式選択部、57は上述の発光面積利用方式の3次元位置座標計算を行うマーカ発光面積利用算出部、58は上述のステレオ方式の3次元位置座標計算を行うステレオ視算出部である。また、6は後述するフレーム画像内のマーカ数、および各マーカの画像内位置および発光面積を記憶しておくためのメモリである。受発光制御計算装置3は、LED発光マーカ1およびCCDカメラ2の受発光制御を行うと共に各CCDカメラのカメラ画像フレームにおける発光マーカのローカル位置座標および発光面積情報を計算する。
【0013】
この発明では図1に示すように、CCDカメラ2を2台とし、LED発光マーカ1の画像検出条件によってCCDカメラ2からLED発光マーカ1までの距離計算方法を切り換える機能を位置座標計算方式選択部56としてコンピュータ4c内に設けた。
【0014】
動作について説明すると、LED発光マーカ1を位置計測対象に装着する。2台のCCDカメラ2を計測対象が動く範囲内をうまくカバーするように配置する。例えば2台のCCDカメラ2のカメラ視野の重なり部分にLED発光マーカ1が存在すれば、2台のCCDカメラ2によるステレオ視による位置座標計算が行える。
【0015】
計測時には、受発光制御計算装置3によってLED発光マーカ1を点灯させ、各CCDカメラ2のカメラ画像フレームを受発光制御計算装置3に取り込む。取り込んだ画像フレームからLED発光マーカ1のローカル位置座標および発光面積情報を各CCDカメラ2毎に計算し、コンピュータ4cに転送する。
【0016】
2台のCCDカメラ2で共にLED発光マーカ1を検出できる場合には、ステレオ視算出部58においてステレオ視によってLED発光マーカ1の3次元位置座標を算出する(以下、ステレオ視方式)。片方のCCDカメラ2でしかLED発光マーカ1を検出できない場合には、マーカ発光面積利用算出部57においてLED発光マーカ1の発光面積情報を利用してCCDカメラ2からLED発光マーカ1までの距離を計算することによって、LED発光マーカ1の3次元位置座標を算出する(以下、発光面積利用方式)。これらの切換は位置座標計算方式選択部56で行われる。
【0017】
以上のように3次元位置計測手法を切り換えることによって、高精度、広範囲かつ隠れに強い3次元位置計測が可能となる。
【0018】
なお、上記説明では1個のLED発光マーカ1の例を示したが、マーカIDの識別さえ行えば複数のLED発光マーカ1でも良い。例えば、LED発光マーカ1をCCDカメラ2の画像フレームと同期させて順次点灯すれば、容易にマーカIDは識別できる。また、直前画像フレームの最寄りマーカとのマッチングによって、マーカIDを識別する方法もある。
【0019】
また、CCDカメラ2は2台としたが、2台以上であればいくつでも良く、LED発光マーカ1が検出できる任意の2台のCCDカメラ2を用いてステレオ視計算をし、算出した3次元位置情報の平均を求めれば、さらなる高精度化が可能となる。
【0020】
さらに、受発光制御計算装置3において取り込んだ画像フレームからLED発光マーカ1のローカル位置座標および発光面積情報を計算したが、受発光制御計算装置3を受発光制御計算部30としコンピュータ4c内に設け、計算は全てコンピュータの中で行ってもよい。
【0021】
計測範囲を広げたい場合には、各CCDカメラ2のカメラ視野が重なる範囲を狭くし、単独のカメラ視野の利用範囲を広げれば良い。また、高精度化を重視したい場合には各CCDカメラ2のカメラ視野が重なる範囲を広くすれば良い。
【0022】
図2に3データ有効性判定部55、図3に位置座標計算方式選択部56、マーカ発光面積利用算出部57およびステレオ視算出部58の処理フローチャートを示す。図2では、CCDカメラ2毎の各LED発光マーカ1の画像内位置座標および面積値を算出し、データが有効か否かの判断を行う。図7では、この情報を元に3次元位置座標を算出する。
【0023】
図2のフローチャートに従って動作を説明する。まず一つ目のCCDカメラ2においてフレーム画像情報を取り込む(ステップS1)。次にこのフレーム画像情報において、LED発光マーカ1の個数を検出する(ステップS2)。例えば、水平走査線毎に、輝度がある設定したスレショールドを超えている部分をマーカ存在部分(線分)として切り出し、連続する水平走査線において水平方向同じ位置に少しでもそのマーカ存在部分があれば同一マーカであると判断することによって、マーカ個数が検出できる。
【0024】
そして、検出した各LED発光マーカ1の画像内水平方向・垂直方向位置および発光面積を求める(ステップS3)。水平方向は水平同期信号からのクロックカウンター、垂直方向は水平走査線数によって、画面内マーカ位置を求める。発光面積は上記各水平走査線上のマーカ存在部分(線分)の長さ積分によって求める。
【0025】
次に、検出したマーカデータが有効かどうかを判断する。発光マーカをカメラ画像として検出する場合、以下の3つの場合に各マーカの発光情報を正しく検出することができない。まず、(1)2つ以上のマーカ発光が重なる場合、これを融合と称する。次に(2)マーカがカメラレンズの視野角から外れる場合、そして(3)カメラレンズ視野角内にはあるが他の物体の陰に隠れたりする場合、これらを消失と称する。ここでは、これらの場合と全てのマーカが見えている場合とを識別することによって、マーカデータの有効性を判断する。
【0026】
具体的には、まず現フレームにて検出した発光マーカ数を前フレームの時と比較する(ステップS4)。このため、フレーム画像内のマーカ数、および各マーカの画像内位置および発光面積を記憶しておくものとして例えばメモリ6が必要となる。そして比較の結果、同数の場合には、マーカデータは全てそのまま有効とする。個数が異なった場合、前フレームで2つ以上のマーカが接近していたかどうかを判断する(ステップS5)。接近していた場合は、マーカが融合を生じたと判断し、接近していた全マーカデータを無効とする(ステップS6)。接近していなかった場合には、マーカが消失したと判断し、消失マーカデータを無効とする(ステップS7)。以上の処理をCCDカメラ2毎に行う。
【0027】
続いて図3のフローチャートに従って動作を説明する。上記処理において、各CCDカメラ2の有効マーカデータが求められた。ここでは各LED発光マーカ1が有効検出されたカメラの個数によって、3次元位置座標計算方法を切り換える。2つ以上のカメラから有効検出された場合はステレオ視方式で(ステップS8、S9)、1つのカメラから有効検出された場合は発光面積利用方式で(ステップS10、S11)、どのカメラからも有効検出されなかった場合は前フレームの時のデータを保持する(ステップS12)、ことによって3次元位置座標を算出する。
【0028】
以上のように、3次元位置座標計算方法をマーカ単位でステレオ視方式と発光面積利用方式に切り換えることによって、高精度かつ安定した3次元位置情報が得られる。
【0029】
【発明の効果】
以上のようにこの発明によれば、位置計測対象となる発光マーカと、この発光マーカからの光りを受光する複数の動画像カメラと、前記発光マーカおよび複数の動画像カメラの受発光制御を行うと共に各動画像カメラのカメラ画像フレームにおける前記発光マーカのローカル位置座標および発光面積情報を計算する受発光制御計算手段と、この受発光制御計算手段から得られる情報に基づき発光面積利用方式による3次元位置算出を行うマーカ発光面積利用算出手段と、前記受発光制御計算手段から得られる情報に基づきステレオ視方式による3次元位置算出を行うステレオ視算出手段と、前記発光マーカが2台以上の動画像カメラで検出された時に前記ステレオ視算出手段、1台の動画像カメラで検出された時には前記ステレオ視算出手段を選択する位置座標計算選択手段と、を備えたことを特徴とする位置計測システムとしたので、通常は複数の動画像カメラ情報を利用したステレオ視によって、発光マーカが1つの動画像カメラからしか検出できない場合には発光マーカの発光面積情報によって動画像カメラから発光マーカまでの距離を計算することで、高精度かつ安定した3次元位置情報が得られる。
【0030】
また、前記発光マーカを複数とし、前記受発光制御計算手段から得られる発光マーカの情報に基づき発光マーカの数と位置を算出して前回分と比較して発光マーカの消失および複数発光マーカの融合を検出し対応する情報を無効にするデータ有効性判定手段と、少なくとも前記発光マーカの数と位置の前回分を記憶しておくメモリと、を備え、有効な各発光マーカに関してそれぞれ位置計測を行うようにしたので、信頼性が向上する。
【図面の簡単な説明】
【図1】この発明の一実施の形態による位置計測システムの構成を概略的に示す図である。
【図2】図1のシステムの動作を説明するためのフローチャートである。
【図3】図1のシステムの動作を説明するためのフローチャートである。
【図4】従来の位置計測システムの構成を概略的に示す図である。
【図5】図4のシステムの動作を説明するための図である。
【図6】従来の別の位置計測システムの構成を概略的に示す図である。
【図7】図6のシステムの動作を説明するための図である。
【符号の説明】
1 LED発光マーカ、2 CCDカメラ、3 受発光制御計算装置、4c コンピュータ、5c 3次元位置算出部、55 データ有効性判定部、56 位置座標計算方式選択部、57 マーカ発光面積利用算出部、58 ステレオ視算出部、6 メモリ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a light-emitting marker (light-emitting unit) such as a light-emitting diode (LED) and a position measurement system that recognizes a three-dimensional position of an object to which the light-emitting marker is attached.
[0002]
[Prior art]
FIG. 4 schematically shows a configuration of a first conventional position measurement system of this type disclosed in, for example, JP-A-09-243325. In FIG. 4, 1 is an LED light emitting marker as an example of a light emitting unit, 2 is a CCD camera as an example of a moving image camera, 3 is a light receiving / emitting control calculator, 4a is a computer, and 5a is obtained by the CCD camera 2. A three-dimensional position calculating unit 51 shown as a functional block of a computer for calculating a three-dimensional position from the distance and the coordinate position of the light emitting marker 1 is a marker light emitting area utilization calculating unit included in the three-dimensional position calculating unit 5a.
[0003]
FIG. 5 is a diagram for explaining a method of estimating the distance between the CCD camera 2 and the LED light emitting marker 1 with one CCD camera 2. 5A shows a case where the distance between the CCD camera 2 and the LED light emitting marker 1 is short, and FIG. 5B shows a case where the distance between the CCD camera 2 and the LED light emitting marker 1 is long. The light emitting area of the LED light emitting marker 1 decreases in inverse proportion to the square of the distance from the CCD camera 2. Therefore, if the ratio between the light emitting area and the distance at a certain reference point is obtained, the distance between the CCD camera 2 and the LED light emitting marker 1 can be calculated from the light emitting area of the LED light emitting marker 1. Thereby, the distance between the CCD camera 2 and the LED light emitting marker 1 can be calculated by one CCD camera 2.
[0004]
FIG. 6 schematically shows the configuration of a second conventional position measurement system disclosed in "Three-dimensional image measurement", by Iguchi and Sato, Shokodo, 1990. 6, the same or corresponding parts as those in FIG. 4 are denoted by the same reference numerals. 4b is a computer, 5b is a three-dimensional position calculator shown as a functional block of a computer for calculating a three-dimensional position from the distance and coordinate position of the light emitting marker 1 obtained by the CCD camera 2, and 53 is a three-dimensional position calculator 5b Is a stereo vision calculation unit included in. Here, two or more CCD cameras 2 are used.
[0005]
FIG. 7 shows the principle of stereo vision. By calculating the distance between the CCD camera 2 and the LED light emitting marker 1 from the positions of the two CCD cameras 2 and the direction of the LED light emitting marker 1 detected by the CCD camera 2, the three-dimensional position coordinates of the LED light emitting marker 1 are calculated. can do. When stereo vision is used, the distance between the CCD camera 2 and the LED light emitting marker 1 can be determined with high accuracy, so that three-dimensional position coordinates can be calculated with high accuracy.
[0006]
[Problems to be solved by the invention]
In the above-described conventional first device, the detection of the marker light emission area is not highly accurate, and thus the three-dimensional position measurement accuracy is not good. Further, since the moving image camera has a fixed field of view, measurement cannot be performed if the camera cannot detect the moving image. Therefore, there has been an issue of improving the accuracy of the three-dimensional position measurement, widening the area, and measures for hiding (measures when the visual field is obstructed by something).
[0007]
In addition, in the second conventional apparatus, since stereoscopic vision requires image information of light-emitting markers detected by two or more moving image cameras, three-dimensional position coordinates are required unless the range and conditions are visible from both cameras. Is not found. Therefore, there has been a problem of widening the three-dimensional position measurement and measures for hiding.
[0008]
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide a position measurement system capable of obtaining highly accurate and stable three-dimensional position information.
[0009]
[Means for Solving the Problems]
In view of the above object, the present invention performs a light-emitting marker to be a position measurement object, a plurality of moving image cameras that receive light from the light-emitting marker, and light-receiving / emitting control of the light-emitting marker and the plurality of moving image cameras. Light-receiving / light-emitting control calculating means for calculating local position coordinates and light-emitting area information of the light-emitting marker in a camera image frame of each moving image camera, and a light-emitting marker based on a light-emitting area utilization method based on information obtained from the light-receiving / lighting control calculating means Marker light emitting area utilization calculating means for performing three-dimensional position calculation, stereoscopic calculating means for performing three-dimensional position calculation of a light-emitting marker by a stereoscopic method based on information obtained from the light receiving / receiving control calculating means, The stereo vision calculating means when detected by two or more moving image cameras, and when detected by one moving image camera. In the position measuring system, characterized in that it and a position coordinate calculating selecting means for selecting the stereo calculation unit.
[0010]
Further, the number of the luminescent markers is plural, and the number and the position of the luminescent markers are calculated based on the information of the luminescent markers obtained from the light receiving / emitting control calculating means. And a memory for storing at least the previous number of positions and the number of the light emitting markers, and performs position measurement for each of the valid light emitting markers. It is characterized by the following.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1 FIG.
FIG. 1 schematically shows a configuration of a position measuring system according to an embodiment of the present invention. In FIG. 1, reference numeral 1 denotes an LED light emitting marker as an example of a light emitting unit; 2, a CCD camera as an example of a moving image camera; 3, a light receiving / emitting control calculator; 4 c, a computer; This is a three-dimensional position calculator shown as a functional block of a computer that calculates a three-dimensional position from the distance and coordinate position of the light-emitting marker 1.
[0012]
In the three-dimensional position calculation unit 5c, 55 is a data validity determination unit, 56 is a position coordinate calculation method selection unit, 57 is a marker light emission area use calculation unit that performs three-dimensional position coordinate calculation of the light emission area use method described above, and 58 is a marker light emission area use calculation unit. This is a stereo vision calculation unit that performs the above-described stereo three-dimensional position coordinate calculation. Reference numeral 6 denotes a memory for storing the number of markers in a frame image described later, the position in the image of each marker, and the light emission area. The light emission / reception control calculation device 3 controls light emission / emission of the LED light emission marker 1 and the CCD camera 2, and calculates local position coordinates and light emission area information of the light emission marker in a camera image frame of each CCD camera.
[0013]
In the present invention, as shown in FIG. 1, two CCD cameras 2 are provided, and a function of switching a distance calculation method from the CCD camera 2 to the LED light emitting marker 1 according to an image detection condition of the LED light emitting marker 1 is provided by a position coordinate calculation method selecting unit. 56 is provided in the computer 4c.
[0014]
In operation, the LED light emitting marker 1 is mounted on the position measurement target. The two CCD cameras 2 are arranged so as to well cover the range in which the measurement target moves. For example, if the LED light emitting marker 1 exists at the overlapping portion of the camera visual fields of the two CCD cameras 2, the position coordinates can be calculated by the two CCD cameras 2 in a stereoscopic view.
[0015]
At the time of measurement, the LED light emission marker 1 is turned on by the light reception / emission control calculation device 3, and the camera image frame of each CCD camera 2 is taken into the light reception / emission control calculation device 3. From the captured image frame, the local position coordinates and light emitting area information of the LED light emitting marker 1 are calculated for each CCD camera 2 and transferred to the computer 4c.
[0016]
If both the two CCD cameras 2 can detect the LED light emitting marker 1, the stereo vision calculation unit 58 calculates the three-dimensional position coordinates of the LED light emitting marker 1 by stereo vision (hereinafter, stereo vision system). When the LED light emitting marker 1 can be detected by only one of the CCD cameras 2, the marker light emitting area use calculating unit 57 uses the light emitting area information of the LED light emitting marker 1 to determine the distance from the CCD camera 2 to the LED light emitting marker 1. By the calculation, the three-dimensional position coordinates of the LED light emitting marker 1 are calculated (hereinafter, a light emitting area use method). These switching operations are performed by the position coordinate calculation method selection unit 56.
[0017]
By switching the three-dimensional position measurement method as described above, it is possible to perform three-dimensional position measurement with high accuracy, wide range, and strong in hiding.
[0018]
In the above description, an example of one LED light emitting marker 1 is shown, but a plurality of LED light emitting markers 1 may be used as long as the marker ID is identified. For example, if the LED light emitting markers 1 are sequentially turned on in synchronization with the image frame of the CCD camera 2, the marker ID can be easily identified. There is also a method of identifying a marker ID by matching with the nearest marker of the immediately preceding image frame.
[0019]
Although the number of the CCD cameras 2 is two, any number may be used as long as the number is two or more, and the stereoscopic calculation is performed by using any two CCD cameras 2 capable of detecting the LED light emitting marker 1 and performing the stereoscopic calculation. If the average of the position information is obtained, higher accuracy can be achieved.
[0020]
Further, the local position coordinates and the light emitting area information of the LED light emitting marker 1 were calculated from the image frame captured by the light receiving / emitting control computer 3, but the light receiving / emitting control calculating device 3 is provided in the computer 4c as the light receiving / emitting control calculating unit 30. , All calculations may be performed in a computer.
[0021]
When it is desired to widen the measurement range, the range in which the camera visual fields of the CCD cameras 2 overlap may be narrowed, and the use range of the single camera visual field may be expanded. When it is desired to emphasize the high accuracy, the range in which the camera visual fields of the CCD cameras 2 overlap may be widened.
[0022]
FIG. 2 shows a processing flowchart of the three-data validity judging unit 55, and FIG. 3 shows a processing flowchart of the position coordinate calculation method selecting unit 56, the marker light emission area use calculating unit 57, and the stereo vision calculating unit 58. In FIG. 2, the position coordinates and the area value in the image of each LED light emitting marker 1 for each CCD camera 2 are calculated, and it is determined whether the data is valid. In FIG. 7, three-dimensional position coordinates are calculated based on this information.
[0023]
The operation will be described with reference to the flowchart of FIG. First, frame image information is captured by the first CCD camera 2 (step S1). Next, in this frame image information, the number of LED light emitting markers 1 is detected (step S2). For example, for each horizontal scanning line, a portion where the luminance exceeds a set threshold is cut out as a marker existing portion (line segment), and at least the marker existing portion is located at the same position in the horizontal direction on a continuous horizontal scanning line. If so, the number of markers can be detected by determining that they are the same marker.
[0024]
Then, the positions of the detected LED light emitting markers 1 in the horizontal and vertical directions in the image and the light emitting area are obtained (step S3). In the horizontal direction, the position of the marker in the screen is determined by the clock counter from the horizontal synchronization signal, and in the vertical direction, by the number of horizontal scanning lines. The light emitting area is obtained by length integration of the marker existing portion (line segment) on each horizontal scanning line.
[0025]
Next, it is determined whether the detected marker data is valid. When detecting a light emitting marker as a camera image, the light emitting information of each marker cannot be correctly detected in the following three cases. First, (1) when two or more marker emissions overlap, this is called fusion. Next, (2) when the marker deviates from the viewing angle of the camera lens, and (3) when it is within the viewing angle of the camera lens but is hidden behind another object, these are called disappearances. Here, the validity of the marker data is determined by identifying these cases and the case where all the markers are visible.
[0026]
Specifically, first, the number of light emitting markers detected in the current frame is compared with that in the previous frame (step S4). For this reason, for example, a memory 6 is required to store the number of markers in the frame image, the position in the image of each marker, and the light emission area. As a result of the comparison, if the numbers are the same, all the marker data are valid as they are. If the numbers are different, it is determined whether two or more markers have approached in the previous frame (step S5). If they have approached each other, it is determined that the markers have merged, and all of the approaching marker data is invalidated (step S6). If not approaching, it is determined that the marker has disappeared, and the lost marker data is invalidated (step S7). The above processing is performed for each CCD camera 2.
[0027]
Subsequently, the operation will be described according to the flowchart of FIG. In the above processing, the effective marker data of each CCD camera 2 was obtained. Here, the three-dimensional position coordinate calculation method is switched according to the number of cameras for which each LED light emitting marker 1 has been effectively detected. If two or more cameras are validly detected, the stereoscopic method is used (steps S8 and S9). If one camera is validly detected, the light emitting area is used (steps S10 and S11). If not detected, the data of the previous frame is held (step S12), thereby calculating three-dimensional position coordinates.
[0028]
As described above, by switching the three-dimensional position coordinate calculation method between the stereoscopic viewing method and the light emitting area using method for each marker, highly accurate and stable three-dimensional position information can be obtained.
[0029]
【The invention's effect】
As described above, according to the present invention, a light emitting marker to be a position measurement object, a plurality of moving image cameras that receive light from the light emitting marker, and light emitting / receiving control of the light emitting marker and the plurality of moving image cameras are performed. Light-receiving / light-emitting control calculating means for calculating local position coordinates and light-emitting area information of the light-emitting marker in a camera image frame of each moving image camera, and a three-dimensional light-emitting area utilizing method based on information obtained from the light-receiving / lighting control calculating means. Marker light emitting area use calculating means for calculating a position, stereoscopic calculating means for calculating a three-dimensional position by a stereoscopic method based on information obtained from the light receiving / emitting control calculating means, and a moving image having two or more light emitting markers The stereo vision calculation means when detected by a camera, and the stereo vision calculation means when detected by one video camera And a position coordinate calculation selecting means for selecting, so that the light-emitting marker is normally detected only from one moving image camera by stereo vision using a plurality of moving image camera information. If this is not possible, the distance from the moving image camera to the light emitting marker is calculated based on the light emitting area information of the light emitting marker, so that highly accurate and stable three-dimensional position information can be obtained.
[0030]
Further, the number of the luminescent markers is plural, and the number and the position of the luminescent markers are calculated based on the information of the luminescent markers obtained from the light receiving / emitting control calculating means. And a memory for storing at least the previous number of positions and the number of the light emitting markers, and performs position measurement for each of the valid light emitting markers. As a result, reliability is improved.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a configuration of a position measurement system according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating the operation of the system of FIG. 1;
FIG. 3 is a flowchart for explaining the operation of the system of FIG. 1;
FIG. 4 is a diagram schematically showing a configuration of a conventional position measurement system.
FIG. 5 is a diagram for explaining the operation of the system in FIG. 4;
FIG. 6 is a diagram schematically showing the configuration of another conventional position measurement system.
FIG. 7 is a diagram for explaining the operation of the system in FIG. 6;
[Explanation of symbols]
Reference Signs List 1 LED light emitting marker, 2 CCD camera, 3 light receiving / emitting control calculating device, 4c computer, 5c 3D position calculating unit, 55 data validity determining unit, 56 position coordinate calculating method selecting unit, 57 marker light emitting area use calculating unit, 58 Stereo vision calculation unit, 6 memories.

Claims (2)

位置計測対象となる発光マーカと、
この発光マーカからの光りを受光する複数の動画像カメラと、
前記発光マーカおよび複数の動画像カメラの受発光制御を行うと共に各動画像カメラのカメラ画像フレームにおける前記発光マーカのローカル位置座標および発光面積情報を計算する受発光制御計算手段と、
この受発光制御計算手段から得られる情報に基づき発光面積利用方式による発光マーカの3次元位置算出を行うマーカ発光面積利用算出手段と、
前記受発光制御計算手段から得られる情報に基づきステレオ視方式による発光マーカの3次元位置算出を行うステレオ視算出手段と、
前記発光マーカが2台以上の動画像カメラで検出された時に前記ステレオ視算出手段、1台の動画像カメラで検出された時には前記ステレオ視算出手段を選択する位置座標計算選択手段と、
を備えたことを特徴とする位置計測システム。
A light-emitting marker to be measured,
A plurality of moving image cameras for receiving light from the light emitting marker,
Light-receiving / light-emitting control calculating means for controlling light-emitting and light-emitting of the plurality of moving image cameras and calculating local position coordinates and light-emitting area information of the light-emitting markers in a camera image frame of each moving image camera;
A marker light emitting area use calculating means for calculating a three-dimensional position of a light emitting marker by a light emitting area using method based on information obtained from the light receiving / emitting control calculating means;
Stereo vision calculation means for calculating a three-dimensional position of a light emitting marker by a stereo vision method based on information obtained from the light reception / emission control calculation means,
When the light emitting marker is detected by two or more video cameras, the stereo vision calculation means, and when detected by one video camera, position coordinate calculation selection means for selecting the stereo vision calculation means,
A position measuring system comprising:
前記発光マーカを複数とし、
前記受発光制御計算手段から得られる発光マーカの情報に基づき発光マーカの数と位置を算出して前回分と比較して発光マーカの消失および複数発光マーカの融合を検出し対応する情報を無効にするデータ有効性判定手段と、
少なくとも前記発光マーカの数と位置の前回分を記憶しておくメモリと、
を備え、有効な各発光マーカに関してそれぞれ位置計測を行うことを特徴とする請求項1に記載の位置計測システム。
A plurality of said luminescent markers,
The number and position of the light-emitting markers are calculated based on the information on the light-emitting markers obtained from the light-receiving / light-emission control calculation means, and the disappearance of the light-emitting markers and the fusion of the plurality of light-emitting markers are detected as compared with the previous time to invalidate the corresponding information. Means for determining data validity,
A memory for storing at least the last number and position of the light emitting markers,
The position measurement system according to claim 1, further comprising: performing position measurement on each of the effective light-emitting markers.
JP2002205549A 2002-07-15 2002-07-15 Position measuring system Withdrawn JP2004045321A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002205549A JP2004045321A (en) 2002-07-15 2002-07-15 Position measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002205549A JP2004045321A (en) 2002-07-15 2002-07-15 Position measuring system

Publications (1)

Publication Number Publication Date
JP2004045321A true JP2004045321A (en) 2004-02-12

Family

ID=31710829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002205549A Withdrawn JP2004045321A (en) 2002-07-15 2002-07-15 Position measuring system

Country Status (1)

Country Link
JP (1) JP2004045321A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2257925A1 (en) * 2004-07-02 2006-08-01 Santiago Ledesma Latorre System for scanning foot of user, has luminous points controlled independently and observed by set of digital cameras, where luminous points are illuminated throughout sequence of alternating form
JP2009085806A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Head motion tracker system and calibration apparatus used for the same
ES2319087A1 (en) * 2008-11-03 2009-07-02 Universidad De Cordoba System and method of capture, processing and representation of tridimensional localization in real time of an optical signal. (Machine-translation by Google Translate, not legally binding)
WO2010046759A2 (en) 2008-10-21 2010-04-29 Universidade Do Porto 3d object motion tracking and locating system by means of synchronised light emitters with a stereoscopic vision system
JP2016058002A (en) * 2014-09-12 2016-04-21 株式会社リコー Image processing system, image processing device, method and program
CN105698715A (en) * 2016-02-29 2016-06-22 北方民族大学 Single-light-beam land area measurement system based on unmanned aerial vehicle and measurement method thereof
JP2019109174A (en) * 2017-12-20 2019-07-04 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method, and program
CN111452043A (en) * 2020-03-27 2020-07-28 陕西丝路机器人智能制造研究院有限公司 Method for calibrating hands and eyes of robot and industrial camera

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2257925A1 (en) * 2004-07-02 2006-08-01 Santiago Ledesma Latorre System for scanning foot of user, has luminous points controlled independently and observed by set of digital cameras, where luminous points are illuminated throughout sequence of alternating form
JP2009085806A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Head motion tracker system and calibration apparatus used for the same
WO2010046759A2 (en) 2008-10-21 2010-04-29 Universidade Do Porto 3d object motion tracking and locating system by means of synchronised light emitters with a stereoscopic vision system
ES2319087A1 (en) * 2008-11-03 2009-07-02 Universidad De Cordoba System and method of capture, processing and representation of tridimensional localization in real time of an optical signal. (Machine-translation by Google Translate, not legally binding)
JP2016058002A (en) * 2014-09-12 2016-04-21 株式会社リコー Image processing system, image processing device, method and program
CN105698715A (en) * 2016-02-29 2016-06-22 北方民族大学 Single-light-beam land area measurement system based on unmanned aerial vehicle and measurement method thereof
CN105698715B (en) * 2016-02-29 2019-01-25 北方民族大学 A kind of measurement method of the single beam Land area measure system based on unmanned plane
JP2019109174A (en) * 2017-12-20 2019-07-04 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method, and program
JP7069691B2 (en) 2017-12-20 2022-05-18 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method and program
JP7409425B2 (en) 2017-12-20 2024-01-09 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method and program
CN111452043A (en) * 2020-03-27 2020-07-28 陕西丝路机器人智能制造研究院有限公司 Method for calibrating hands and eyes of robot and industrial camera

Similar Documents

Publication Publication Date Title
CN111521161B (en) Method of determining a direction to a target, surveying arrangement and machine-readable carrier
US7825948B2 (en) 3D video conferencing
US7454065B2 (en) Specific point detecting method and device
EP3441788A1 (en) Apparatus and method for generating a representation of a scene
WO2015123774A1 (en) System and method for augmented reality and virtual reality applications
JP2008516352A (en) Apparatus and method for lighting simulation and shadow simulation in augmented reality system
JP2005517253A (en) Method and apparatus for providing an infiltration lookout
JP2006284442A (en) Method of monitoring object and motion tracker using this
JP3388087B2 (en) Object detection device
JPWO2019163212A1 (en) Monitoring system and control method of monitoring system
JP3577875B2 (en) Moving object extraction device
BR102015005652B1 (en) SYSTEM FOR RECOGNIZING A VEHICLE NUMBER FROM A VEHICLE LICENSE PLATE
JP2004045321A (en) Position measuring system
JP6188860B1 (en) Object detection device
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
JP2003061075A (en) Object-tracking device, object-tracking method and intruder monitor system
JPH1144533A (en) Preceding vehicle detector
JP3762382B2 (en) Image processing method and apparatus
WO2019172874A1 (en) Maintaining localization and orientation of an electronic headset after loss of slam tracking
JP2002232869A (en) Calibration method for camera
KR100269116B1 (en) Apparatus and method for tracking 3-dimensional position of moving abject
US6787750B1 (en) Method and apparatus for robust optical tracking with beacon markers
JP2011151459A (en) Composite display device
JPH1093954A (en) Object detection method/system
GB2352899A (en) Tracking moving objects

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004