JPH11211419A - Coordinate specifying device - Google Patents

Coordinate specifying device

Info

Publication number
JPH11211419A
JPH11211419A JP10019903A JP1990398A JPH11211419A JP H11211419 A JPH11211419 A JP H11211419A JP 10019903 A JP10019903 A JP 10019903A JP 1990398 A JP1990398 A JP 1990398A JP H11211419 A JPH11211419 A JP H11211419A
Authority
JP
Japan
Prior art keywords
target
coordinates
coordinate
evaluation value
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10019903A
Other languages
Japanese (ja)
Other versions
JP3427720B2 (en
Inventor
Juichi Kawashima
寿一 川島
Minoru Yoshida
稔 吉田
Kenichi Hagio
健一 萩尾
Eiichi Fukui
栄一 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP01990398A priority Critical patent/JP3427720B2/en
Publication of JPH11211419A publication Critical patent/JPH11211419A/en
Application granted granted Critical
Publication of JP3427720B2 publication Critical patent/JP3427720B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To specify an optimum target coordinate when a plurality of target candidate coordinates are present by specifying a plurality of straight lines connecting a plurality of detecting means to a target from the outputs of the detecting means and their mounting coordinates, operating the coordinate of the intersection or the vicinity thereof to operate the evaluation values to target candidate coordinates, and selecting the optimum target coordinate from the evaluation values. SOLUTION: A plurality of straight lines connecting detecting means 11 ... to a target area specified, the coordinate of the intersection or the vicinity thereof of the straight lines is operated by a position coordinate arithmetic means 2 to select target candidate coordinates. A target evaluation arithmetic means 3 operates evaluation values to the operated target candidate coordinates, and a position coordinate specifying means 4 selects and specifies the optimum coordinate as target coordinate from the evaluation values. The position coordinate arithmetic means 2 operates the center of gravity of a triangle formed by the straight lines to the target from each camera 11 ... to form the coordinate candidates of the target. The target evaluation arithmetic means 3 determines the area of the triangle, and the position coordinate specifying means 4 selects the optimum target candidate with the combination having a small area with the triangle area as the evaluation value. According to this, even if the number of detecting means is increased to provide a plurality of candidate coordinates, the optimum coordinate can be specified from the candidate coordinates and, thus, the optimum one can be selected even if the number of targets is increased.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、特定の空間内、例
えば宴会場やホール及び舞台等の会場において、出演者
等を自動的に追尾して投光する自動追尾照明装置等に用
いられる座標特定装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate system used for an automatic tracking lighting device for automatically tracking and projecting performers in a specific space, for example, a banquet hall, a hall or a stage. It relates to a specific device.

【0002】[0002]

【従来の技術】空間内に目標の方向を検知する検知手段
に複数の撮像カメラを用いて、撮像カメラの撮影方向、
取付座標等の取付座標から目標までの直線を定義し、複
数の撮像カメラの直線のペアに対して交点やその近辺を
求めるものがある。(特開平6−347219号公報、
特開平8−32922号公報等参照)
2. Description of the Related Art A plurality of imaging cameras are used as detecting means for detecting the direction of a target in a space, and the imaging directions of the imaging cameras are determined.
There is a method in which a straight line from an attachment coordinate such as an attachment coordinate to a target is defined, and an intersection or a vicinity thereof is obtained for a pair of straight lines of a plurality of imaging cameras. (JP-A-6-347219,
(See JP-A-8-32922)

【0003】[0003]

【発明が解決しようとする課題】しかしながら、1つの
方法、例えば、画像処理のみでは100%の確率で目標を
特定できるものではなく、すべてのカメラ単体で目標を
確実に認識することは困難である場合が多い。例えば、
ノイズ等によって目標を誤認識する場合も考えられる。
その情報をもとに目標の座標を演算すると、当然のこと
ながら正確な結果が得られない。また、単純なノイズ対
策のために、無理に処理後の結果に対して闘値を厳しく
設定してしまうと、撮像カメラからの情報に本当の目標
の方向を表す結果が欠落してしまう恐れがある。さら
に、撮像カメラの台数が増えると1つの目標に対して複
数の交点が求まり、その中から好適な座標を求める必要
が生じるという問題がある。
However, a target cannot be specified with a 100% probability by only one method, for example, image processing alone, and it is difficult to reliably recognize the target by all cameras alone. Often. For example,
There may be a case where a target is erroneously recognized due to noise or the like.
If the coordinates of the target are calculated based on the information, an accurate result cannot be naturally obtained. Also, if the threshold value is set strictly for the result after processing for simple noise countermeasures, there is a risk that the information from the imaging camera will lose the result indicating the true target direction. is there. Furthermore, when the number of imaging cameras increases, a plurality of intersections are obtained for one target, and there is a problem that it is necessary to obtain suitable coordinates from the intersections.

【0004】本発明は、上記問題点に鑑みて為されたも
ので、その目的とするところは複数の検知手段があって
目標候補座標が複数になっても最適な目標座標を特定で
きる座標特定装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a plurality of detecting means and a coordinate specifying device capable of specifying an optimum target coordinate even when a plurality of target candidate coordinates are provided. It is to provide a device.

【0005】[0005]

【課題を解決するための手段】請求項1の発明では、あ
る空間内で自身の取付状態と自身の位置から位置を特定
すべき目標までの方向を検知するような複数の検知手段
を備えて、目標の座標を演算する座標特定装置におい
て、前記複数の検知手段の出力と、検知手段の取付座標
から目標を結ぶ複数の直線を特定し、その直線の交点、
または、交点近辺の座標を演算する位置座標演算手段
と、前記位置座標演算手段で演算された目標の候補座標
に対してその座標の本当らしさを表す評価値を演算する
評価値演算手段と、前記評価値演算手段で演算された結
果の評価値から目標の座標として最適な座標を選択し特
定する位置座標特定手段と、を備えたことを特徴とす
る。
According to the first aspect of the present invention, there are provided a plurality of detecting means for detecting an attached state of the apparatus in a certain space and a direction from the position of the apparatus to a target whose position is to be specified. In a coordinate specifying device that calculates the coordinates of the target, the outputs of the plurality of detecting means and a plurality of straight lines connecting the target from the mounting coordinates of the detecting means are specified.
Or, position coordinate calculation means for calculating coordinates near the intersection, evaluation value calculation means for calculating an evaluation value representing the likelihood of the coordinates with respect to the target candidate coordinates calculated by the position coordinate calculation means, Position coordinate specifying means for selecting and specifying optimum coordinates as target coordinates from the evaluation values calculated by the evaluation value calculating means.

【0006】請求項2の発明では、請求項1の発明にお
いて、前記空間を撮影できるように設置された撮像手段
と、該撮像手段により取得された画像に対して目標の特
徴を記憶し、前記画像と目標の特徴との相関値を演算す
る画像認識手段と、前記位置座標演算手段で演算した目
標座標の候補座標を前記撮像手段の撮像面に写像するた
めの写像座標演算手段と、前記撮像面に写像された座標
に対する前記画像認識手段によって演算された相関値を
評価値の1つとすることができる評価値演算手段と、を
備えたことを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, an image pickup means installed so as to be able to photograph the space, and a target feature for an image acquired by the image pickup means are stored. Image recognition means for calculating a correlation value between an image and a feature of a target; mapping coordinate calculation means for mapping candidate coordinates of target coordinates calculated by the position coordinate calculation means on an imaging surface of the imaging means; Evaluation value calculation means for setting a correlation value calculated by the image recognition means with respect to the coordinates mapped on the surface as one of the evaluation values.

【0007】請求項3の発明では、請求項2の発明にお
いて、前回特定された座標を記憶して、該座標を基準と
して該座標に対して今回演算した目標の座標の距離を評
価項目として評価値を演算する機能を有した評価値演算
手段を備えたことを特徴とする。請求項4の発明では、
請求項3の発明において、評価値を求めるための基準の
座標を演算するために、記憶されている前回の特定した
座標に対して過去の動作状態から予測される動作量を加
えた座標を演算する位置座標予測手段を備えたことを特
徴とする。
According to a third aspect of the present invention, in the second aspect of the present invention, the previously specified coordinates are stored, and the distance of the target coordinates calculated this time with respect to the coordinates with respect to the coordinates is evaluated as an evaluation item. An evaluation value calculation means having a function of calculating a value is provided. In the invention of claim 4,
In the invention according to claim 3, in order to calculate reference coordinates for obtaining an evaluation value, a coordinate obtained by adding an operation amount predicted from a past operation state to a previously specified coordinate stored is calculated. And a position coordinate predicting means.

【0008】請求項5の発明では、請求項1乃至4の何
れかの発明において、過去の特定した座標を記憶し、該
座標から当該目標の過去の動作を表すベクトルを演算す
るとともに、位置演算手段で演算した今回の目標の候補
座標と記憶している過去の座標から目標の今回の動作を
表すベクトルを演算するベクトル演算手段と、前記演算
した過去の動作のベクトルに対する今回の動作のベクト
ルの変化量を評価項目として評価値を演算する機能を有
する評価値演算手段とを備えたことを特徴とする。
According to a fifth aspect of the present invention, in any one of the first to fourth aspects of the present invention, the past specified coordinates are stored, a vector representing the past operation of the target is calculated from the coordinates, and the position calculation is performed. Means for calculating a vector representing the current operation of the target from the candidate coordinates of the current target calculated by the means and the stored past coordinates, and a vector of the current operation with respect to the calculated past operation vector. Evaluation value calculation means having a function of calculating an evaluation value using the amount of change as an evaluation item.

【0009】請求項6の発明では、請求項1乃至4の何
れかの発明において、評価値にそれぞれ重みを付ける評
価値重み付け手段と、それぞれの重み付けられた結果か
ら1つの座標に対する評価値を演算する機能を有する評
価値演算手段とを備えたことを特徴とする。請求項7の
発明では、請求項1乃至6の何れかの発明において、前
記検知手段の1つで特定した位置を特定すべき目標まで
の直線と予め記憶してある目標が存在すると思われる高
さとから簡易的に位置座標を演算する第2の位置座標演
算手段を備えたことを特徴とする。
According to a sixth aspect of the present invention, in any one of the first to fourth aspects of the present invention, an evaluation value weighting means for weighting each of the evaluation values, and calculating an evaluation value for one coordinate from each weighted result. Evaluation value calculation means having a function of performing According to a seventh aspect of the present invention, in any one of the first to sixth aspects of the present invention, a straight line to a target whose position specified by one of the detecting means is to be specified, and a high-level target in which it is presumed that there is a target stored in advance. And a second position coordinate calculating means for calculating the position coordinates easily from the above.

【0010】請求項8の発明では、請求項3乃至7の何
れかの発明において、予め記憶してある目標が存在する
と思われる高さに代わって、前回、目標が存在する座標
として特定した座標のうち高さ座標を今回の目標が存在
すると思われる高さとして記憶する機能を有することを
特徴とする。よって請求項1の発明では、検知手段が増
えて目標の候補座標が複数になっても目標の座標として
最適な座標を特定できる。
According to an eighth aspect of the present invention, in accordance with any one of the third to seventh aspects of the present invention, the coordinates previously specified as the coordinates where the target exists are replaced with the previously stored height at which the target seems to exist. Has a function of storing the height coordinates as the height at which the target is assumed to be present. Therefore, according to the first aspect of the present invention, even if the number of detecting means increases and the number of target candidate coordinates becomes plural, it is possible to specify the optimum coordinates as the target coordinates.

【0011】請求項2の発明では、検知手段の検出を基
に演算した目標の候補座標に対して、画像処理による結
果も考慮した座標特定が可能となり、より信頼性が向上
する。請求項3、4、5の発明では、請求項1、2の静
的な情報だけでなく動的な情報(過去に特定した座標)
を用いて目標座標の特定精度を上げることができる。
According to the second aspect of the present invention, it is possible to specify the coordinates of the target candidate calculated based on the detection of the detecting means in consideration of the result of the image processing, thereby further improving the reliability. According to the third, fourth, and fifth aspects of the present invention, not only the static information of the first and second aspects but also dynamic information (coordinates specified in the past).
Can be used to increase the accuracy of specifying the target coordinates.

【0012】請求項6の発明では、複数の評価方法、こ
こでは、請求項3、4、5を組み合わせて考慮すること
によって、さらに目標の座標の特定精度を上げることが
できる。請求項7、8の発明では、有効距離や隠れの問
題で1つの目標に対して複数の検知手段において十分な
情報が得られない場合に、1つの検知手段だけでも目標
の方向を検知することができれば目標の座標を演算する
ことが可能となる。
According to the sixth aspect of the present invention, the accuracy of specifying the coordinates of the target can be further improved by considering a plurality of evaluation methods in combination with the third, fourth and fifth aspects. According to the seventh and eighth aspects of the present invention, when sufficient information cannot be obtained for a single target by a plurality of detecting means due to a problem of an effective distance or occlusion, the direction of the target can be detected by only one detecting means. Can be obtained, the coordinates of the target can be calculated.

【0013】[0013]

【発明の実施の形態】以下、本発明を実施形態により説
明する。 (実施形態1)本実施形態は、請求項1の発明に対応す
るものであり、図1に示すようにある空間内で自身の取
付状態と自身の位置から位置を特定すべき目標までの方
向を検知するような複数の検知手段11 …と、これらの
前記複数の検知手段11 …の出力と、取付座標より、つ
まり検知手段11 …と目標を結ぶ複数の直線を特定し、
その直線の交点、又は交点近辺の座標を演算する位置座
標演算手段2と、前記位置座標演算手段2で演算された
目標の候補座標に対してその座標の本当らしさを表す評
価値を演算する評価値演算手段3と、前記評価値演算手
段3で演算された結果の評価値から目標の座標として最
適な座標を選択し特定する位置座標特定手段4と、を備
えて成る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to embodiments. (Embodiment 1) This embodiment corresponds to the first aspect of the present invention, and as shown in FIG. 1, in a certain space, its own mounting state and the direction from its own position to a target whose position is to be specified. a plurality of detection means 1 1 ... so as to detect, identify 1 1 ... and outputs of the plurality of detecting means, from the mounting coordinates, i.e. a plurality of straight lines connecting the sensing means 1 1 ... and the target,
Position coordinate calculating means 2 for calculating coordinates at or near the intersection of the straight line, and evaluation for calculating an evaluation value representing the likelihood of the coordinates with respect to the target candidate coordinates calculated by the position coordinate calculating means 2 Value calculating means 3; and position coordinate specifying means 4 for selecting and specifying optimum coordinates as target coordinates from the evaluation values calculated by the evaluation value calculating means 3.

【0014】各演算手段2、3及び位置座標特定手段4
は実際的はコンピュータにより構成され、また装置は自
動追尾照明装置等における照射目標の座標特定に使用す
るものとして説明する。検知手段11 …は具体的にはC
CDカメラからなり、その台数を3台以上としている。
尚以下検知手段11 …をCCDカメラ11 …と言う。
Each of the calculating means 2 and 3 and the position coordinate specifying means 4
The description will be made assuming that the device is actually constituted by a computer, and that the device is used for specifying the coordinates of the irradiation target in an automatic tracking lighting device or the like. Detecting means 1 1 ... it is specifically C
It consists of CD cameras and the number is three or more.
The following detection means say 1 1 ... a a CCD camera 1 1 ....

【0015】これらのCCDカメラ11 …は照射空間を
撮影可能なように、かつ、同一取付状態とならないよう
に設置する。ここでは図2(a)(b)のCCDカメラ
1iの取付座標(Xci、Yci、Zci)、及び、取付方向
(Pi 、Ti )(P:パン、T:チルト)は別途測定す
るなりして特定しておき、CCDカメラ11 …の取付座
標及び取付方向をまとめてカメラ情報として記憶部(図
示せず)に記憶させておく。例えば、CCDカメラ11
…はレンズ等全て同一(CCD撮像素子の大きさ:2S
W(横幅)×2SH(高さ)〔mm〕、レンズの焦点距
離:f〔mm〕、画像認識における有効画素数:2、2
DW(横幅)×2DH(高さ))とする。CCDカメラ
1 …の座標系において、図3に示すように基準ベクト
ル(方向余弦)を(X,Y,Z)=(0,1,0)とす
る。また、パターンマッチングやその他の適宜な画像処
理方法で抽出した照射目標qの画像の重心等に対応する
画素座標を(Xdi、Ydi)とすると、図3のように基準
ベクトルに対してCCDカメラ1iの撮像素子10の中
心(0,0)から照射目標qまでの方向ベクトル(Xe
i、Yei、Zei)は次のように求めることができる。
These CCD cameras 1 1 ... Are installed so as to be able to photograph the irradiation space and not to be mounted in the same manner. Here, the mounting coordinates (Xci, Yci, Zci) and mounting directions (Pi, Ti) (P: pan, T: tilt) of the CCD camera 1i in FIGS. 2A and 2B are separately measured. The mounting coordinates and mounting directions of the CCD cameras 1 1 ... Are collectively stored as camera information in a storage unit (not shown). For example, CCD camera 11
Are the same for lenses and the like (CCD image sensor size: 2S
W (width) × 2 SH (height) [mm], focal length of lens: f [mm], number of effective pixels in image recognition: 2, 2
DW (width) × 2DH (height)). In the coordinate system of the CCD cameras 1 1, ..., The reference vector (direction cosine) is (X, Y, Z) = (0, 1, 0) as shown in FIG. If the pixel coordinates corresponding to the center of gravity and the like of the image of the irradiation target q extracted by pattern matching and other appropriate image processing methods are (Xdi, Ydi), as shown in FIG. Directional vector (Xe) from the center (0, 0) of the imaging device 10 to the irradiation target q.
i, Yei, Zei) can be obtained as follows.

【0016】Xei=Xdi×SW/(f×DW) Yei=l Zei=Ydi×SH/(f×DH) また、ここでの基準ベクトルは実際の照射空間における
座標系ではCCDカメラ11 …の取り付け状態の分(パ
ン、チルト)だけ回転していることになる。従って、図
4に示すように実際の照射空間におけるCCDカメラ1
iから照射目標qまでの方向ベクトル(li,mi,ni )
は次のように求めることができる。但しパン,チルトの
方向は図2の方向を正とする。
Xei = Xdi × SW / (f × DW) Yei = 1 l Zei = Ydi × SH / (f × DH) The reference vector here is the coordinate system of the CCD camera 1 1 . It means that it rotates by the amount of the attached state (pan, tilt). Therefore, as shown in FIG.
Direction vector (li, mi, ni) from i to irradiation target q
Can be obtained as follows. However, the direction of pan and tilt is positive in the direction of FIG.

【0017】[0017]

【数1】 (Equation 1)

【0018】次に、CCDカメラ11 …からの照射目標
qまでの方向とCCDカメラ11 …の取り付け座標がわ
かるので、CCDカメラ11 …と照射目標qを結ぶ直線
が求められる。ここで、直線の媒介変数をti とすると
CCDカメラ1iと照射目標qを結ぶ直線Liは次のよ
うに求めることができる。 x=li×ti+Xci y=mi×ti+Yci …(1) z=ni ×ti+Zci 本実施形態では、検知手段としてCCDカメラを用いて
その画像処理を例にしたが、空間内に取り付けられ目標
が持っている発信器の方向を特定できるような受信器等
でも、式(1)の方向ベクトル(li,mi,ni )が得ら
れるようなものであれば本発明の検知手段として使用可
能である。
Next, since it is apparent direction and the CCD camera 1 1 ... mounting coordinates to the irradiation target q from the CCD camera 1 1 ..., linear is obtained connecting the CCD camera 1 1 ... and the irradiation target q. Here, assuming that the parameter of the straight line is ti, a straight line Li connecting the CCD camera 1i and the irradiation target q can be obtained as follows. x = li × ti + Xci y = mi × ti + Yci (1) z = ni × ti + Zci In the present embodiment, an example of image processing using a CCD camera as the detection means has been described. A receiver or the like that can specify the direction of a transmitter that can be used can be used as the detecting means of the present invention as long as the direction vector (li, mi, ni) of equation (1) can be obtained.

【0019】次に、位置座標演算手段2の動作を説明す
る。先ず図5(a)に示すようにCCDカメラ11 ,1
2 から目標までの直線の方程式は、式(1)を用いて次
のようになる。 x=l1 ×t1 +Xc1 y=m1 ×t1 +Yc1 …(2) z=n1 ×t1 +Zc1 x=l2 ×t2 +Xc2 y=m2 ×t2 +Yc2 …(3) z=n2 ×t2 +Zc2 ここで、式(2)、(3)で表される直線をそれぞれL
1,L2とすると、目標は直線L1上で且つ直線L2上
に存在することになるので、直線L1,L2の交点が求
めるべき目標の座標である。しかし、CCDカメラ
1 ,12 の方向特定の分解能等の影響で厳密には交点
を持たず、図5(a)のように2本の直線L1,L2は
鎖交する場合の方が多く、一般的に鎖交する2本の直線
の特別な関係が交点を持つということになる。従って、
鎖交する2本の直線L1,L2が最短距離となる直線L
,L2 上の点を図5(a)の○枠内を拡大した図
5(b)に示すようにV1 ,V2 とし、この2点を求め
る。この線分V1 −V2 は直線L1 ,L2に対して夫
々直交する。このことから、次の方程式が得られる。
Next, the operation of the position coordinate calculation means 2 will be described. First, FIG. 5 CCD camera 1 1 as shown in (a), 1
The equation of the straight line from 2 to the target is as follows using equation (1). x = l1 × t1 + Xc1 y = m1 × t1 + Yc1 (2) z = n1 × t1 + Zc1 x = 12 × t2 + Xc2 y = m2 × t2 + Yc2 (3) z = n2 × t2 + Zc2 Here, equation (2) ) And (3) are represented by L
Assuming that the target is 1, L2, the target exists on the straight line L1 and on the straight line L2. Therefore, the intersection of the straight lines L1, L2 is the target coordinate to be obtained. However, due to the influence of the resolution of the direction specific to the CCD cameras 1 1 and 1 2 , there is no strict intersection, and the two straight lines L 1 and L 2 often interlink as shown in FIG. In general, a special relationship between two intersecting straight lines has an intersection. Therefore,
The straight line L where the two intersecting straight lines L1 and L2 are the shortest distance
1 , L2 The upper points are defined as V1 and V2 as shown in FIG. 5B in which the inside of the frame of FIG. 5A is enlarged, and these two points are obtained. This line segment V1-V2 is a straight line L1 , L2. From this, the following equation is obtained.

【0020】 (Xv1−Xv2) ・l1 +(Yv1−Yv2)・m1 +(Zv1−Zv2)・n1 =0 …(4) (Xv1−Xv2)・l2 +(Yv2−Yv1)・m2 +(Zv1−Zv2)・n2 =0 …(5) ここで、V1 (Xv1,Yv1,Zv1),V2 (Xv2,Yv
2,Zv2)である。
(Xv1−Xv2) · l1 + (Yv1−Yv2) · m1 + (Zv1−Zv2) · n1 = 0 (4) (Xv1−Xv2) · l2 + (Yv2−Yv1) · m2 + (Zv1) −Zv2) · n2 = 0 (5) Here, V1 (Xv1, Yv1, Zv1), V2 (Xv2, Yv)
2, Zv2).

【0021】式(4)、式(5)に式(2)、式(3)
を代入してまとめると、次の方程式が成り立つ。 E11・t1 −E12・t2 +F1 =0 E12・t1 −E22・t2 +F2 =0 ここで、 E11=l1 2 +m1 2 +n1 2 E12=l1 ・l2 +m1 ・m2 +n1 ・n2 E22=I2 2 +m2 2 +n2 2 F1 =l1 ・(Xc1−Xc2)+m1 ・(Yc1−Yc2)+
n1 ・(Zc1−Zc2) F2 =l2 ・(Xc1−Xc2)+m2 ・(Yc1−Yc2)+
n1 ・(Zc1−Zc2) これらの方程式から、直線L1,L2の媒介変数t1 ,
t2 を求めると次のようになる。
Expressions (4) and (5) are replaced by Expressions (2) and (3).
Then, the following equation holds. Here E11 · t1 -E12 · t2 + F1 = 0 E12 · t1 -E22 · t2 + F2 = 0, E11 = l1 2 + m1 2 + n1 2 E12 = l1 · l2 + m1 · m2 + n1 · n2 E22 = I2 2 + m2 2 + n2 2 F1 = l1 (Xc1-Xc2) + m1 (Yc1-Yc2) +
n1. (Zc1-Zc2) F2 = l2. (Xc1-Xc2) + m2. (Yc1-Yc2) +
n1 · (Zc1−Zc2) From these equations, the parameters t1,
When t2 is obtained, it becomes as follows.

【0022】t1 =(E12・F2 −E22・F1 )/(E
11・E22−E122 ) t2 =(E11・F2 −E12・F1 )/(E11・E22−E
122 ) ここで求まったt1 、t2 をそれぞれ式(2)、式
(3)に代入するとV1 ,V2 が求まる。そこで、この
線分V1 −V2 上の点、ここでは、中点とする図6の点
A12が求まる。さらに第3のCCDカメラ13 に対し
てL3という直線を特定する。そこで、図6のように直
線L1−L2,L2−L3,L3−L1で特定される3
つの線分の中点A12,A23,A31を演算し、この
3点で構成される三角形の重心を演算する。この重心の
座標がCCDカメラ11 ,12 ,13 により特定される
目標の候補座標q123となる。
T1 = (E12 · F2−E22 · F1) / (E
11 · E22−E12 2 ) t2 = (E11 · F2 −E12 · F1) / (E11 · E22−E)
12 2 ) By substituting t1 and t2 obtained here into equations (2) and (3), V1 and V2 are obtained. Therefore, a point on this line segment V1 -V2, here, a point A12 in FIG. Identifying a straight line that L3 relative to yet a third CCD camera 1 3. Therefore, as shown in FIG. 6, three lines L1-L2, L2-L3, and L3-L1 are specified.
The midpoints A12, A23, and A31 of the two line segments are calculated, and the center of gravity of the triangle formed by these three points is calculated. Coordinates of the center of gravity becomes a target of the candidate coordinates q123 identified by CCD camera 1 1, 1 2, 1 3.

【0023】次に、評価値演算手段3の動作を説明す
る。評価値演算手段3では、上述のように3本の直線L
1,L2,L3による3点A12、A23,A31で構
成される三角形の面積S123を演算する。これは、3
本の直線L1,L2,L3がほぼ交わるときS123=
0となる。また、この3台のCCDカメラ11 〜13
うち1台でも誤認識した目標の方向を特定していたな
ら、誤認識した画素座標等にもよるが、S123>0と
なる。そこで、4台のCCDカメラからなる検知手段1
1 〜14 が接続されているものとすると、この場合、照
射目標qの座標候補はq123,q124,q134,
q234の4通りの組み合わせがあり、三角形も4通り
あり、従って、三角形の面積もS123,S124,S
134,S234の4通り演算されることになる。つま
りこれらの三角形の面積が評価値となる。
Next, the operation of the evaluation value calculation means 3 will be described. In the evaluation value calculation means 3, as described above, the three straight lines L
An area S123 of a triangle composed of three points A12, A23, and A31 based on 1, L2, and L3 is calculated. This is 3
When the straight lines L1, L2, and L3 substantially intersect, S123 =
It becomes 0. If at least one of the three CCD cameras 11 to 13 has identified the direction of a target that has been erroneously recognized, S123> 0 depending on the pixel coordinates and the like that have been erroneously recognized. Therefore, detection means 1 consisting of four CCD cameras
Assuming that 1 to 1 4 are connected, in this case, coordinate candidate of the irradiation target q is Q123, Q124, Q134,
There are four combinations of q234 and four types of triangles, and therefore, the area of the triangle is also S123, S124, S
134 and S234 are calculated. That is, the area of these triangles is the evaluation value.

【0024】更に、位置座標特定手段4の動作を説明す
る。上述のように3本の直線による3点で構成される三
角形の面積Sを評価値として、位置座標特定手段4では
面積Sが小さい時の組み合わせを調べる。ここで、4台
のCCDカメラ検知手段11〜14 のうち、CCDカメ
ラ14 だけが目標を誤認識したとするとCCDカメラ1
4 が関係する値Sは大きく、すなわちS123<S12
4,S134,S234となり、S123に対応した候
補座標q123が照射目標qの座標として特定される。
更に、あらかじめ適切な閾値Wを設定しておき、評価値
Sと閾値Wを比較するようにすると、S>Wとなった場
合の座標は明らかに目標の候補座標となりえない座標と
して候補座標から外すことができる。ここでは、評価値
を求めるために3台のCCDカメラからの情報を用いる
場合を簡単に述べたが、2台のCCDカメラからの情報
で2本の直線を特定し、評価値演算手段3において、前
述のV1 ,V2 の線分上の適当な座標を目標の候補座標
qj(Xqj、Yqj、Zqj)とし、前回の座標q1-(Xq
1- , Yq1- , Zq1- )との距離Ljを評価値とすると
次のように評価値Ljを求めることができる。
Next, the operation of the position coordinate specifying means 4 will be described. As described above, the position coordinate specifying means 4 examines a combination when the area S is small, using the area S of the triangle constituted by the three points of the three straight lines as the evaluation value. Here, among the four CCD camera detection means 1 1 to 1 4, the CCD camera 1 when only the CCD camera 1 4 it is assumed that the erroneous recognition target
The value S related to 4 is large, that is, S123 <S12
4, S134, and S234, and the candidate coordinates q123 corresponding to S123 are specified as the coordinates of the irradiation target q.
Further, if an appropriate threshold value W is set in advance and the evaluation value S is compared with the threshold value W, the coordinates in the case where S> W are clearly determined as coordinates that cannot be target candidate coordinates. Can be removed. Here, the case where information from three CCD cameras is used to obtain an evaluation value has been briefly described. However, two straight lines are specified based on information from two CCD cameras, and The appropriate coordinates on the line segment of V1 and V2 are set as target candidate coordinates qj (Xqj, Yqj, Zqj), and the previous coordinates q 1− (Xq
1− , Yq 1− , Zq 1− ), the evaluation value Lj can be obtained as follows, assuming that the distance Lj is the evaluation value.

【0025】[0025]

【数2】 (Equation 2)

【0026】前述と同様に、面積Sの代わりにこの距離
Ljに対して位置座標特定手段4で評価して最小となる
Ljの場合のqjを目標の座標とする演算を行うようにし
ても良い。 (実施形態2)本実施形態は請求項2の発明に対応する
もので、図7に示すように前記照射空間を撮影できるよ
うに設置された例えばCCDカメラのような撮像手段5
と、この撮像手段5により撮像された画像に対して目標
の特徴を記憶し、前記画像と目標の特徴との相関値を演
算する画像認識手段6と、位置座標演算手段2で演算し
た目標座標の候補座標を撮像手段5の撮像面に写像する
ための写像座標演算手段7とを備え、評価値演算手段3
では撮像手段5の撮像面に写像された座標に対する画像
認識手段5によって演算された相関値を叙述の評価値に
加えて評価値の1つとすることができるようにしたもの
である。
In the same manner as described above, instead of the area S, the distance Lj may be evaluated by the position coordinate specifying means 4 and the calculation may be performed using qj in the case of the minimum Lj as the target coordinate. . (Embodiment 2) This embodiment corresponds to the invention of claim 2, and as shown in FIG. 7, an image pickup means 5 such as a CCD camera installed so as to be able to photograph the irradiation space.
An image recognizing unit 6 for storing a target feature with respect to the image captured by the image capturing unit 5 and calculating a correlation value between the image and the target feature; and a target coordinate calculated by the position coordinate calculating unit 2 And a mapping coordinate calculating means 7 for mapping the candidate coordinates on the imaging surface of the imaging means 5.
In this configuration, the correlation value calculated by the image recognizing means 5 with respect to the coordinates mapped on the imaging surface of the imaging means 5 can be used as one of the evaluation values in addition to the evaluation value described above.

【0027】更に詳しく述べると、画像認識手段6の動
作は次の通りである。ここでは、一般的な画像処理につ
いて述べる。画像処理の相関値を求める基準となる図8
(a)のような目標のテンプレートTMP(X,Y)を
記憶する。但し0≦X≦−1、0≦Y≦−1とする。こ
のテンプレートTMP(X,Y)のエリア内には図では
目標たる人物の全身が収まっているが、体の部位のアッ
プ等でもかまわない。
More specifically, the operation of the image recognition means 6 is as follows. Here, general image processing will be described. FIG. 8 as a reference for obtaining a correlation value of image processing
The target template TMP (X, Y) as shown in FIG. However, 0 ≦ X ≦ −1 and 0 ≦ Y ≦ −1. In the area of the template TMP (X, Y), the whole body of the target person is shown in the figure, but the body part may be raised.

【0028】次に、入力画像に対する目標の探索につい
て、図8(b)のように入力画像サイズを(IX,I
Y) とし、入力画像における探索の中心座標(CX,C
Y)、探索範囲(±SX,±SY)、入力画像IMG
(X,Y)<但し、0≦X≦IX−1,0≦Y≦IY−
1>とすると、記憶しているテンプレートTMP( )
と入力した画像IMG( )の相関値Cor(Xcor , Y
cor )は次の式で求めることができる。尚図8(b)中
破線間αは画面上テンプレートとの1回部の比較エリア
を示す。
Next, as for the search for the target in the input image, as shown in FIG.
Y), and the center coordinates (CX, CX) of the search in the input image
Y), search range (± SX, ± SY), input image IMG
(X, Y) <where 0 ≦ X ≦ IX-1, 0 ≦ Y ≦ IY−
1>, the stored template TMP ()
Correlation value Cor (Xcor, Y) of the image IMG () input as
cor) can be obtained by the following equation. In FIG. 8 (b), a portion between the broken lines indicates a comparison area of a single portion with the template on the screen.

【0029】[0029]

【数3】 (Equation 3)

【0030】ここで、−SX≦Xcor ≦SX、−SY≦
Ycor ≦SYとする。この結果、Cor(Xcor , Ycor
)は大きさが(2SX,2SY)の配列として求めら
れる。次に写像座標演算手段6は実施形態1のようにし
て位置座標演算手段2で演算した照射目標の候補座標q
j が撮像手段5に対して画面上のどの座標に撮影されて
いるかを演算する。撮像手段5は検知手段として用いる
CCDカメラ11 …群と同様の条件で、座標(XJ ,Y
J,ZJ)、撮影方向(PJ ,TJ)に設置されている
とする(図9、図10(a)(b)参照 尚図9中Pは
パン、Tはチルとで矢印方向が正の方向を示す。(si
n(P)×cos(T),cos(P)×cos
(T),−sin(P))は撮影方向を表す方向ベクト
ルを示す)。
Here, -SX≤Xcor≤SX, -SY≤
It is assumed that Ycor ≦ SY. As a result, Cor (Xcor, Ycor
) Is obtained as an array having a size of (2SX, 2SY). Next, the mapping coordinate calculating means 6 calculates the irradiation target candidate coordinates q calculated by the position coordinate calculating means 2 as in the first embodiment.
The image pickup means 5 calculates the coordinates on the screen at which the j is photographed. Imaging means 5 under the same conditions as the CCD camera 1 1 ... group used as the detecting means, the coordinates (XJ, Y
J, ZJ), and set in the shooting direction (PJ, TJ) (see FIGS. 9, 10 (a) and 10 (b)). In FIG. 9, P is pan, T is chill, and the arrow direction is positive. Indicates the direction (si
n (P) × cos (T), cos (P) × cos
(T), -sin (P)) indicate a direction vector representing a shooting direction).

【0031】さて撮像手段5から候補座標qj までの方
向余弦(lj,mj,nj )を求めると次のようになる。 lj =(Xqj−XJ )/Lj mj =(Yqj−YJ)/Lj nj =(Zqj−ZJ)/Lj ここで、Lj は次の通りとする。
Now, when the direction cosine (lj, mj, nj) from the image pickup means 5 to the candidate coordinates qj is obtained, the following is obtained. lj = (Xqj-XJ) / Ljmj = (Yqj-YJ) / Ljnj = (Zqj-ZJ) / Lj where Lj is as follows.

【0032】[0032]

【数4】 (Equation 4)

【0033】この方向余弦の撮像手段5の撮影方向から
のずれの角度(pj ,tj )は次のように求めることが
できる。 pj =tan-1(lj /mj )−PJ tj =sin-1(nj )−TJ 撮像手段5の画面上の座標(Xdj, Ydj)に次のように
写像される。
The angle (pj, tj) of the deviation of the direction cosine from the photographing direction of the imaging means 5 can be obtained as follows. pj = tan -1 (lj / mj) -PJ tj = sin -1 (nj) -TJ The coordinates are mapped to the coordinates (Xdj, Ydj) on the screen of the imaging means 5 as follows.

【0034】 Xdj=tan(pj )×(f・DW)/SW Ydj=tan(tj )×(f・DH)/SH ここで、先程画像処理手段6で演算した相関値Cor(X
dj,Ydj)の値を求める。このCor(Xdj,Ydj)の値
を候補座標全てについて、評価値演算手段3で評価し、
Cor(Xdj,Ydj)が最小になるqj を目標の座標と
して特定する。
Xdj = tan (pj) × (f · DW) / SW Ydj = tan (tj) × (f · DH) / SH Here, the correlation value Cor (X) calculated by the image processing means 6 previously.
dj, Ydj). This value of Cor (Xdj, Ydj) is evaluated by the evaluation value calculation means 3 for all candidate coordinates,
Specify qj at which Cor (Xdj, Ydj) is minimized as the target coordinates.

【0035】以上のように求めたLj を用いて評価値H
j1を求める。 Hj1=Bl×(Lj −C1) 〔但しLj<C1〕 =0 〔但しLj ≧C1〕 パラメータB1,C1はシステムによって適宜最適なも
のを決定する必要がある。但しここでの画像処理の入力
の画素値としては明暗値や色相値が用いられる。
The evaluation value H is calculated using Lj obtained as described above.
Find j1. Hj1 = B1 × (Lj−C1) [where Lj <C1] = 0 [where Lj ≧ C1] The parameters B1 and C1 need to be appropriately determined depending on the system. However, a light-dark value or a hue value is used as an input pixel value of the image processing here.

【0036】尚上述した説明以外の各部の動作及び構成
は実施形態1と同じであるからここでは省略する。 (実施形態3)本実施形態は、請求項3の発明に対応す
るもので、全体的な構成は図11(a)に示すように実
施形態2と同じであるが、評価値演算手段3における処
理を次のようにした。
The operation and configuration of each part other than the above description is the same as that of the first embodiment, and therefore will not be described here. (Embodiment 3) This embodiment corresponds to the invention of claim 3, and the overall configuration is the same as that of embodiment 2 as shown in FIG. The processing was as follows.

【0037】つまり本実施形態では、図11(b)に示
す概念図に示すように位置座標特定手段4において前回
特定した目標の座標q1- (Xq1- ,Yq1- ,Zq1- )を
評価値演算手段3内の記憶部において記億しておき、今
回、位置座標演算手段2によって得られた目標の候補座
標qj(Xqj,Yqj,Zqj)に対して、前回の目標の座標
q1- との距離Lj を次のように求める。
That is, in the present embodiment, as shown in the conceptual diagram of FIG. 11B, the coordinates of the target q 1− (Xq 1− , Yq 1− , Zq 1− ) previously specified by the position coordinate specifying means 4. Is stored in a storage unit in the evaluation value calculating means 3 and the coordinates of the previous target are compared with the candidate candidate coordinates qj (Xqj, Yqj, Zqj) of the target obtained by the position coordinate calculating means 2 this time.
The distance Lj from q 1- is obtained as follows.

【0038】[0038]

【数5】 (Equation 5)

【0039】このLj を用いて評価値Hj2を求める。 Hj2=B2×(Lj −C2) 〔但しLj <C2〕 =0 [但しLj ≧C2〕 パラメータB2,C2はシステムによって適宜最適なも
のを決定する必要があるが、この場合であれば、位置座
標演算手段2で演算された目標の候補座標qjに対して
演算された評価値Hj2の中で最も大きい値を評価値演算
手段3で探し、この結果の評価値Hj2に対応したqj が
位置座標特定手段4において目標座標の特定した結果と
なる。
The evaluation value Hj2 is obtained using this Lj. Hj2 = B2 × (Lj−C2) [where Lj <C2] = 0 [where Lj ≧ C2] The parameters B2 and C2 need to be appropriately determined by the system, but in this case, the position coordinates Among the evaluation values Hj2 calculated for the target candidate coordinates qj calculated by the calculation means 2, the largest value is searched by the evaluation value calculation means 3, and qj corresponding to the evaluation value Hj2 is the position coordinate identification. The result of specifying the target coordinates in the means 4 is obtained.

【0040】(実施形態4)本実施形態は実施形態3
(実施形態2)の構成に図13に示すように位置座標予
測手段7を付加したもので、位置座標予測手段7におい
て、前回、前々回で特定した目標座標、q1-, q2-を記
憶しておき、qj を評価する基準の座標qb(Xqb, Yq
b, Zqb)を予測するための演算を行う。
(Embodiment 4) This embodiment is Embodiment 3
As shown in FIG. 13, a position coordinate predicting means 7 is added to the configuration of the second embodiment. The position coordinate predicting means 7 stores the target coordinates, q 1− and q 2− specified two times before and two times before. In addition, the reference coordinates qb (Xqb, Yq
b, Zqb).

【0041】qb =2・q1-−q2- Qb = 2 · q 1 −−q 2−

【0042】[0042]

【数6】 (Equation 6)

【0043】このLj を用いて評価値Hj3を求める。 Hj3=B3×(Lj −C3) 〔但しLj <C3〕 =0 [但しLj ≧C3〕 パラメータB3、C3はシステムによって適宜最適なも
のを決定する必要がある。これ以後の処理は実施形態3
と同じであるので、構成及び動作の説明は省略する。
The evaluation value Hj3 is obtained using this Lj. Hj3 = B3.times. (Lj-C3) [where Lj <C3] = 0 [where Lj.gtoreq.C3] The parameters B3 and C3 need to be appropriately determined depending on the system. Subsequent processing is performed in the third embodiment.
Therefore, the description of the configuration and operation is omitted.

【0044】(実施形態5)本実施形態は、構成的には
実施形態4の構成に図13に示すようにベクトル演算手
段8を付加したものであり、位置座標予測手段7におい
て、前回、前々回、…に特定した目標座標q1-,q2-
…を記憶しておき、ベクトル演算手段8で、これらの過
去の特定座標から目標の動作の前回、前々回、…のベク
トルA1,A2,…を次のように求める。
(Embodiment 5) In this embodiment, a vector operation means 8 is added to the structure of the embodiment 4 as shown in FIG. , ..., the target coordinates q 1- , q 2- ,
Are stored, and the vector operation means 8 obtains the vectors A1, A2,... Of the last time, two times before, and so on of the target operation from the specific coordinates in the past as follows.

【0045】A1=q1-−q2- A2=q2-−q3- A3=q(n)-−q(n-1)- 同時に、位置座標演算手段2で演算した目標の候補座標
qj と過去に特定した座標q(m)-で評価するベクトルA
jを演算する。
A1 = q 1 −−q 2 −A 2 = q 2 −−q 3 −A 3 = q (n) − −q (n−1) —Simultaneous target candidate coordinates calculated by the position coordinate calculation means 2 Vector A evaluated by qj and coordinates q (m) -specified in the past
Calculate j.

【0046】Aj=qj −q(m)- ここで、AjとAnの関係を演算する。2つのベクトル
のなす角度をθjnとする。このベクトルのなす角度θ
は次のように演算できる。θj n=cos-1(Aj・A
n/(|Aj||An|))このθjnを用いて評価値
Hj4を求める。
Aj = qj-q (m) -where the relationship between Aj and An is calculated. The angle between the two vectors is defined as θjn. Angle θ formed by this vector
Can be calculated as follows. θj n = cos -1 (Aj · A
n / (| Aj || An |)) The evaluation value Hj4 is obtained using the θjn.

【0047】 Hj4=B4×(θjn−C4) 〔但しθjn<C4〕 =0 〔但しθjn≧C4〕 パラメータB4、C4はシステムによって適宜最適なも
のを決定する必要がある。この後は前述と同様の処理を
位置座標特定手段4で行う。また、ベクトルには大きさ
の情報もある。
Hj4 = B4 × (θjn-C4) [where θjn <C4] = 0 [where θjn ≧ C4] The parameters B4 and C4 need to be appropriately determined depending on the system. Thereafter, the same processing as described above is performed by the position coordinate specifying means 4. The vector also has magnitude information.

【0048】例えば、 |Aj|>|An|:加速しているときは角度θjnは
45°以上にはあまりならない。 |AJ|<|An|:減速しているときは角度θjnに
はあまり制約がない(どんな値でも取り得る。) 等の条件も評価の対象となるので、Hj4の演算に組み入
れることでさらに、信頼性が上がる。
For example, | Aj |> | An |: When accelerating, the angle θjn is not so much as 45 ° or more. | AJ | <| An |: When the vehicle is decelerating, there are few restrictions on the angle θjn (any value can be taken). Increases reliability.

【0049】尚上述した説明以外の各部の動作及び構成
は実施形態4と同じであるからここでは省略する。 (実施形態6)本実施形態は、図14に示すように実施
形態5の構成において、評価値演算手段3に評価値重み
付け手段30を付加したものである。
The operation and configuration of each part other than the above description is the same as that of the fourth embodiment, and therefore will not be described here. (Embodiment 6) In this embodiment, an evaluation value weighting means 30 is added to the evaluation value calculation means 3 in the configuration of Embodiment 5 as shown in FIG.

【0050】即ち上述では、評価値演算式において、評
価が高いもの、つまり確からしいものとして、0が最大
のものと、大きいほど良いものとを混在して説明してき
たが、本実施形態では、評価値が大きいほど確からしい
と統一する。例えば、前述の三角形の面積Sjは0に近
いほど確からしいとしてきたが、 Hj =B×(Sj −C) 〔但しSj <C〕 =0 〔但しSj ≧C〕 として変換してやることができる。このようにして前述
の全ての評価値H1 〜H4 まで演算して統合し、次のよ
うな全体の評価値Hjaとして演算する。
That is, in the above description, in the evaluation value calculation formula, the one with the highest evaluation, that is, the one with the highest probability and the one with the higher the larger the better, are described in a mixed manner. Unify that the larger the evaluation value, the more likely it is. For example, although it has been assumed that the area Sj of the triangle is more likely to be closer to 0, it can be converted as Hj = B × (Sj−C) [where Sj <C] = 0 [where Sj ≧ C]. In this way, all the above-mentioned evaluation values H1 to H4 are calculated and integrated, and are calculated as the following overall evaluation value Hja.

【0051】Hja=D1×Hj1+D2×Hj2+D3×H
j3+D4×Hj4 ここで、パラメータD1〜D4はシステムに最適なよう
に適宜設定する必要がある。評価値演算手段3では、こ
のような演算を行う。この後は、前述のように座標特定
手段4で評価値の大きい目標の候補座標を検索し、評価
値が最大値となる座標を目標の座標として特定する。
Hja = D1 × Hj1 + D2 × Hj2 + D3 × H
j3 + D4 × Hj4 Here, the parameters D1 to D4 need to be appropriately set so as to be optimal for the system. The evaluation value calculation means 3 performs such calculation. Thereafter, as described above, the coordinate specifying means 4 searches for target candidate coordinates having a large evaluation value, and specifies the coordinates having the maximum evaluation value as target coordinates.

【0052】尚上述した説明以外の各部の動作及び構成
は実施形態5と同じであるからここでは省略する。 (実施形態7)本実施形態は、請求項7の発明に対応す
るもので、図15に示すように位置座標演算手段2以外
に第2の位置座標演算手段20を設けたもので、図16
に示すようにあらかじめ目標が存在すると思われる高さ
Zhを記憶しておき、第2の位置座標演算手段2’で次
の演算を行う。ここではCCDカメラ1iによる目標ま
での直線Liの方程式である前述の式(1)にz=Zh
を代入し、整理すると、目標の候補座標qi(Xqi,Y
qi,Zqi) は次のように演算できる。
The operation and configuration of each part other than the above description is the same as that of the fifth embodiment, and will not be described here. (Embodiment 7) This embodiment corresponds to the seventh aspect of the present invention, in which a second position coordinate calculating means 20 is provided in addition to the position coordinate calculating means 2 as shown in FIG.
As shown in (1), the height Zh at which the target is considered to exist is stored in advance, and the following calculation is performed by the second position coordinate calculation means 2 '. Here, z = Zh in the above-described equation (1) which is the equation of the straight line Li to the target by the CCD camera 1i.
Is substituted and the target candidate coordinates qi (Xqi, Y
qi, Zqi) can be calculated as follows.

【0053】 Xqi=li ×(Zh −Zci)/ni +Xci Yqi=mi ×(Zh-Zci)/ni +Yci Zqi=Zh 例えば、この目標の候補座標qiも前述までの候補座標と
同様に扱うことによって、目標が隠れたり、距離が離れ
たりで複数のCCDカメラ11 …で目標を検知すること
ができなくても簡易ではあるが候補座標を演算すること
ができる。
Xqi = li × (Zh−Zci) / ni + Xci Yqi = mi × (Zh−Zci) / ni + Yci Zqi = Zh For example, by treating the target candidate coordinates qi in the same manner as the above-described candidate coordinates, , hiding goals, the distance is not able to detect a plurality of CCD cameras 1 1 ... targets at or leave some in the simple also can be computed candidate coordinates.

【0054】尚上述した説明以外の各部の動作及び構成
は実施形態6と同じであるからここでは省略する。尚上
述のようにZhに対してあらかじめ設定したものだけで
はなく、前回特定した目標の座標のz座標を代入して演
算した座標も実施形態7と同様に同様に目標の候補座標
とするようにしても良い(請求項8の発明に対応する。
この実施形態の構成は図15と同じであるからここでは
省略する。)
The operation and configuration of each part other than the above description is the same as that of the sixth embodiment, and will not be described here. As described above, not only the coordinates set in advance for Zh but also the coordinates calculated by substituting the z coordinates of the previously specified target coordinates are set as target candidate coordinates in the same manner as in the seventh embodiment. (Corresponding to the invention of claim 8).
The configuration of this embodiment is the same as that of FIG. )

【0055】[0055]

【発明の効果】請求項1は、上述のようにある空間内で
自身の取付状態と自身の位置から位置を特定すべき目標
までの方向を検知するような複数の検知手段を備えて、
目標の座標を演算する座標特定装置において、前記複数
の検知手段の出力と、検知手段の取付座標から目標を結
ぶ複数の直線を特定し、その直線の交点、または、交点
近辺の座標を演算する位置座標演算手段と、前記位置座
標演算手段で演算された目標の候補座標に対してその座
標の本当らしさを表す評価値を演算する評価値演算手段
と、前記評価値演算手段で演算された結果の評価値から
目標の座標として最適な座標を選択し特定する位置座標
特定手段とを備えたので、検知手段の台数が増え、同じ
目標に対しての複数の候補座標がある場合でも、その候
補座標から最適なものを1つ特定することができ、また
ノイズ等を含んだ出力を検知手段から受け取っても演算
手段側でノイズを除去した目標の座標を特定することが
でき、さらに,目標の数が増えた場合でも検知手段1台
に対して複数の直線が特定できるようになるため、複数
の目標に対して最適なものを特定できるという効果があ
る。
According to the first aspect of the present invention, there are provided a plurality of detecting means for detecting the mounting state of the vehicle and the direction from the position of the vehicle to a target whose position is to be specified, as described above.
In a coordinate specifying device for calculating coordinates of a target, a plurality of straight lines connecting a target are specified from outputs of the plurality of detecting means and mounting coordinates of the detecting means, and an intersection of the straight lines or a coordinate near the intersection is calculated. Position coordinate calculation means, evaluation value calculation means for calculating an evaluation value representing the likelihood of the target candidate coordinates calculated by the position coordinate calculation means, and a result calculated by the evaluation value calculation means And position coordinate specifying means for selecting and specifying optimum coordinates as target coordinates from the evaluation value of the target, so that the number of detecting means is increased, and even when there are a plurality of candidate coordinates for the same target, One optimal coordinate can be specified from the coordinates, and even if an output including noise or the like is received from the detection means, the target coordinates from which noise has been removed can be specified by the calculation means. Order to be able to identify a plurality of straight lines with respect to the detection means one even when the number is increased in an effect that can identify the optimum for a plurality of targets.

【0056】請求項2乃至6の発明は、上述のように構
成しているから、評価値を求める時の情報として目標の
さまざまな場合の状態を考慮して評価値を演算すること
ができ、より信頼性の高い座標を候補座標の中から特定
できるという効果がある。特に請求項6の発明は、評価
値にそれぞれ重みを付ける評価値重み付け手段と、それ
ぞれの重み付けられた結果から1つの座標に対する評価
値を演算する機能を有する評価値演算手段とを備えたの
で、システムに合った評価値演算方法を組合せて考慮す
ることにより、更に目標の座標の特定精度を上げること
ができるという効果がある。
Since the inventions of claims 2 to 6 are configured as described above, the evaluation value can be calculated in consideration of various target states as information when obtaining the evaluation value. There is an effect that coordinates with higher reliability can be specified from the candidate coordinates. In particular, the invention according to claim 6 includes evaluation value weighting means for weighting the evaluation values, and evaluation value calculating means having a function of calculating an evaluation value for one coordinate from each weighted result. By considering the evaluation value calculation method suitable for the system in combination, there is an effect that the accuracy of specifying the target coordinates can be further increased.

【0057】請求項7,8の発明は、上述のように構成
したので、目標が隠れたり,目標の距離が離れたりして
複数の検知手段で目標を検知できない場合でも、複数あ
る検知手段の内の1台でも検知できていれば候補座標を
演算できるという効果がある。
According to the seventh and eighth aspects of the present invention, even if the target cannot be detected by a plurality of detection means because the target is hidden or the distance of the target is large, the detection of the plurality of detection means is not required. There is an effect that candidate coordinates can be calculated if at least one of them can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1の概略構成図である。FIG. 1 is a schematic configuration diagram of Embodiment 1 of the present invention.

【図2】(a)は同上の検知手段と目標との上方から見
た関係説明図である。(b)は同上の検知手段と目標と
の側方から見た関係説明図である。
FIG. 2 (a) is an explanatory diagram of a relation between the detecting means and a target as viewed from above. FIG. 3B is an explanatory diagram showing the relationship between the detection means and the target as viewed from the side.

【図3】同上の検知手段の座標系における撮像素子と目
標との関係説明図である。
FIG. 3 is an explanatory diagram showing a relationship between an image pickup device and a target in a coordinate system of the detection means.

【図4】同上の検知手段と目標との関係説明図である。FIG. 4 is an explanatory diagram showing a relationship between the detection means and a target.

【図5】(a)は同上の検知手段の撮像方向(照射方
向)と目標との関係説明図である。(b)は同上の検知
手段の撮像方向(照射方向)と目標との関係示す拡大図
である。
FIG. 5A is an explanatory diagram showing a relationship between an imaging direction (irradiation direction) of the detecting means and a target. (B) is an enlarged view showing the relationship between the imaging direction (irradiation direction) of the detection means and the target.

【図6】同上の目標の特定座標の評価値の説明図であ
る。
FIG. 6 is an explanatory diagram of an evaluation value of a specific coordinate of a target according to the embodiment.

【図7】本発明の実施形態2の概略構成図である。FIG. 7 is a schematic configuration diagram of Embodiment 2 of the present invention.

【図8】(a)は同上における画像処理例のテンプレー
トの説明図である。(b)は同上における画像処理例の
テンプレートと画面との関係説明図である。
FIG. 8A is an explanatory diagram of a template of an image processing example according to the embodiment. FIG. 3B is an explanatory diagram showing a relationship between a template and a screen of the image processing example in the embodiment.

【図9】同上に於ける撮像手段の取り付け状態の定義説
明図である。
FIG. 9 is an explanatory diagram of a definition of an attached state of the image pickup means in the embodiment.

【図10】(a)は同上の撮像手段と目標との上方から
見た関係説明図である。(b)は同上の撮像手段と目標
との側方から見た関係説明図である。
FIG. 10 (a) is an explanatory diagram of the relation between the imaging means and the target as viewed from above. FIG. 3B is an explanatory diagram illustrating a relationship between the imaging unit and the target as viewed from the side.

【図11】(a)は本発明の実施形態3の概略構成図で
ある。(b)は同上の評価値演算手段の概念的な構成図
である。
FIG. 11A is a schematic configuration diagram of Embodiment 3 of the present invention. (B) is a conceptual block diagram of an evaluation value calculating means of the above.

【図12】本発明の実施形態4の概略構成図である。FIG. 12 is a schematic configuration diagram of Embodiment 4 of the present invention.

【図13】本発明の実施形態5の概略構成図である。FIG. 13 is a schematic configuration diagram of Embodiment 5 of the present invention.

【図14】本発明の実施形態6の概略構成図である。FIG. 14 is a schematic configuration diagram of Embodiment 6 of the present invention.

【図15】本発明の実施形態7の概略構成図である。FIG. 15 is a schematic configuration diagram of Embodiment 7 of the present invention.

【図16】同上の第2の位置座標演算手段の演算の説明
図である。
FIG. 16 is an explanatory diagram of a calculation by a second position coordinate calculation means according to the embodiment;

【符号の説明】[Explanation of symbols]

1 〜1i 検知手段 2 位置演算手段 3 評価値演算手段 4 位置座標特定手段DESCRIPTION OF SYMBOLS 1 1-1i Detecting means 2 Position calculating means 3 Evaluation value calculating means 4 Position coordinate specifying means

フロントページの続き (72)発明者 福井 栄一 大阪府門真市大字門真1048番地松下電工株 式会社内Continued on the front page (72) Inventor Eiichi Fukui 1048 Kazuma Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Works, Ltd.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】ある空間内で自身の取付状態と自身の位置
から位置を特定すべき目標までの方向を検知するような
複数の検知手段を備えて、目標の座標を演算する座標特
定装置において、前記複数の検知手段の出力と、検知手
段の取付座標から目標を結ぶ複数の直線を特定し、その
直線の交点、または、交点近辺の座標を演算する位置座
標演算手段と、前記位置座標演算手段で演算された目標
の候補座標に対してその座標の本当らしさを表す評価値
を演算する評価値演算手段と、前記評価値演算手段で演
算された結果の評価値から目標の座標として最適な座標
を選択し特定する位置座標特定手段と、を備えたことを
特徴とする座標特定装置。
1. A coordinate specifying device for calculating a target coordinate, comprising a plurality of detecting means for detecting a mounting state of the device in a certain space and a direction from the position of the device to a target whose position is to be specified. Position coordinate calculating means for specifying a plurality of straight lines connecting a target from outputs of the plurality of detecting means and mounting coordinates of the detecting means, and calculating coordinates of intersections of the straight lines or coordinates near the intersections; and Evaluation value calculating means for calculating an evaluation value representing the likelihood of the coordinates with respect to the target candidate coordinates calculated by the means; and an optimum value as a target coordinate from the evaluation value of the result calculated by the evaluation value calculating means. And a position coordinate specifying means for selecting and specifying coordinates.
【請求項2】前記空間を撮影できるように設置された撮
像手段と、該撮像手段により取得された画像に対して目
標の特徴を記憶し、前記画像と目標の特徴との相関値を
演算する画像認識手段と、前記位置座標演算手段で演算
した目標座標の候補座標を前記撮像手段の撮像面に写像
するための写像座標演算手段と、前記撮像面に写像され
た座標に対する前記画像認識手段によって演算された相
関値を評価値の1つとすることができる評価値演算手段
と、を備えたことを特徴とする請求項1記載の座標特定
装置。
2. An image pickup device installed so as to be able to take an image of the space, a target feature stored in an image acquired by the image pickup device, and a correlation value between the image and the target feature is calculated. Image recognition means, mapping coordinate calculation means for mapping the candidate coordinates of the target coordinates calculated by the position coordinate calculation means on the imaging surface of the imaging means, and the image recognition means for the coordinates mapped on the imaging surface 2. The coordinate specifying device according to claim 1, further comprising: an evaluation value calculation unit configured to set the calculated correlation value as one of the evaluation values.
【請求項3】前回特定された座標を記憶して、該座標を
基準として該座標に対して今回演算した目標の座標の距
離を評価項目として評価値を演算する機能を有した評価
値演算手段を備えたことを特徴とする請求項2記載の座
標特定装置。
3. An evaluation value calculating means having a function of storing coordinates specified last time and calculating an evaluation value using a distance of a target coordinate calculated this time with respect to the coordinates with respect to the coordinates as an evaluation item. The coordinate specifying device according to claim 2, further comprising:
【請求項4】評価値を求めるための基準の座標を演算す
るために、記憶されている前回の特定した座標に対して
過去の動作状態から予測される動作量を加えた座標を演
算する位置座標予測手段を備えたことを特徴とする請求
項3記載の座標特定装置。
4. A position for calculating coordinates obtained by adding an operation amount predicted from a past operation state to previously stored coordinates stored in order to calculate reference coordinates for obtaining an evaluation value. 4. The coordinate specifying device according to claim 3, further comprising a coordinate predicting unit.
【請求項5】過去の特定した座標を記憶し、該座標から
当該目標の過去の動作を表すベクトルを演算するととも
に、位置演算手段で演算した今回の目標の候補座標と記
憶している過去の座標から目標の今回の動作を表すベク
トルを演算するベクトル演算手段と、前記演算した過去
の動作のベクトルに対する今回の動作のベクトルの変化
量を評価項目として評価値を演算する機能を有する評価
値演算手段とを備えたことを特徴とする請求項1乃至4
の何れか記載の座標特定装置。
5. A coordinate system which stores past specified coordinates, calculates a vector representing the past operation of the target from the coordinates, and stores the candidate coordinates of the current target calculated by the position calculating means and the stored past coordinates. Vector calculation means for calculating a vector representing the target current operation from the coordinates, and an evaluation value calculation having a function of calculating an evaluation value using the amount of change of the current operation vector with respect to the calculated past operation vector as an evaluation item 5. The method according to claim 1, further comprising:
The coordinate specifying device according to any one of the above.
【請求項6】評価値にそれぞれ重みを付ける評価値重み
付け手段と、それぞれの重み付けられた結果から1つの
座標に対する評価値を演算する機能を有する評価値演算
手段とを備えたことを特徴とする請求項1乃至4の何れ
か記載の座標特定装置。
6. An evaluation value weighting means for weighting each evaluation value, and an evaluation value calculation means having a function of calculating an evaluation value for one coordinate from each weighted result. The coordinate specifying device according to claim 1.
【請求項7】前記検知手段の1つで特定した位置を特定
すべき目標までの直線と予め記憶してある目標が存在す
ると思われる高さとから簡易的に位置座標を演算する第
2の位置座標演算手段を備えたことを特徴とする請求項
3乃至6の何れか記載の座標特定装置。
7. A second position for simply calculating a position coordinate from a straight line to a target whose position specified by one of said detecting means is to be specified and a height in which a pre-stored target is considered to exist. 7. The coordinate specifying device according to claim 3, further comprising a coordinate calculation unit.
【請求項8】予め記憶してある目標が存在すると思われ
る高さに代わって、前回、目標が存在する座標として特
定した座標のうち高さ座標を今回の目標が存在すると思
われる高さとして記憶する機能を有することを特徴とす
る請求項3乃至7の何れか記載の座標特定装置。
8. Instead of the previously stored height at which the target is assumed to exist, the height coordinate of the coordinates previously specified as the coordinates at which the target is present is set as the height at which the current target is assumed to be present. The coordinate specifying device according to claim 3, further comprising a storage function.
JP01990398A 1998-01-30 1998-01-30 Coordinate identification device Expired - Fee Related JP3427720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01990398A JP3427720B2 (en) 1998-01-30 1998-01-30 Coordinate identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01990398A JP3427720B2 (en) 1998-01-30 1998-01-30 Coordinate identification device

Publications (2)

Publication Number Publication Date
JPH11211419A true JPH11211419A (en) 1999-08-06
JP3427720B2 JP3427720B2 (en) 2003-07-22

Family

ID=12012178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01990398A Expired - Fee Related JP3427720B2 (en) 1998-01-30 1998-01-30 Coordinate identification device

Country Status (1)

Country Link
JP (1) JP3427720B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241609A (en) * 2007-03-28 2008-10-09 National Univ Corp Shizuoka Univ Distance measuring system and distance measuring method
JP2013083505A (en) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241609A (en) * 2007-03-28 2008-10-09 National Univ Corp Shizuoka Univ Distance measuring system and distance measuring method
JP2013083505A (en) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator

Also Published As

Publication number Publication date
JP3427720B2 (en) 2003-07-22

Similar Documents

Publication Publication Date Title
JP7140580B2 (en) stereo imager
JP4961234B2 (en) Object tracking device
JP5074322B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
CN103959307B (en) The method of detection and Expressive Features from gray level image
US8111877B2 (en) Image processing device and storage medium storing image processing program
JPH09501234A (en) Method for identifying spatial and rotational positions of properly marked objects in a digital image sequence
US20090207260A1 (en) Image pickup apparatus and image pickup method
JP2004340840A (en) Distance measuring device, distance measuring method and distance measuring program
KR20180059723A (en) Apparatus, method, computer program. computer readable recording medium for image processing
WO2019080743A1 (en) Target detection method and apparatus, and computer device
CN112270719A (en) Camera calibration method, device and system
US20170053416A1 (en) Image processing method, image processing apparatus, and recording medium
JP2011229080A (en) Image matching point detection device, image matching point detection method, and recording medium
JP2020149641A (en) Object tracking device and object tracking method
CN111275765A (en) Method and device for determining target GPS and camera
TWI635256B (en) Phase detection auto-focus-based positioning method and system thereof
JPH11211419A (en) Coordinate specifying device
JP4415870B2 (en) Fall / fall detection system and program
US10783646B2 (en) Method for detecting motion in a video sequence
JP5500915B2 (en) Imaging apparatus and exposure control method
Otepka et al. Algorithm developments for automated off-line vision metrology
JP2005062910A (en) Image recognition device
JPH10243281A (en) Device and method for measuring distance
KR101020921B1 (en) Controlling Method For Rotate Type Camera
JP2001119622A (en) Image-puckup device and control method therefor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100516

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees