JPH07114642A - Measuring instrument for mobile object - Google Patents

Measuring instrument for mobile object

Info

Publication number
JPH07114642A
JPH07114642A JP5261223A JP26122393A JPH07114642A JP H07114642 A JPH07114642 A JP H07114642A JP 5261223 A JP5261223 A JP 5261223A JP 26122393 A JP26122393 A JP 26122393A JP H07114642 A JPH07114642 A JP H07114642A
Authority
JP
Japan
Prior art keywords
image pickup
image
moving object
camera
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5261223A
Other languages
Japanese (ja)
Other versions
JP3388833B2 (en
Inventor
Toru Nakamura
亨 中村
Shigezumi Kuwajima
茂純 桑島
Hiromichi Sekiguchi
大陸 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OYO KEISOKU KENKYUSHO KK
Original Assignee
OYO KEISOKU KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OYO KEISOKU KENKYUSHO KK filed Critical OYO KEISOKU KENKYUSHO KK
Priority to JP26122393A priority Critical patent/JP3388833B2/en
Priority to US08/381,864 priority patent/US5764786A/en
Priority to EP94917790A priority patent/EP0662600A4/en
Priority to PCT/JP1994/000934 priority patent/WO1994029670A1/en
Publication of JPH07114642A publication Critical patent/JPH07114642A/en
Application granted granted Critical
Publication of JP3388833B2 publication Critical patent/JP3388833B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To find a coordinate conversion coefficient, etc., while actually a photograph by calculating three-dimensional spatial coordinates of an object on the basis of the distance of a vector to a restraint plane where a mobile object is present and the angle of rotation of a camera. CONSTITUTION:A controller 14 is equipped with a position arithmetic unit 16 which calculates the three-dimensional spatial coordinates of the object, and a driving control unit 17 which obtains information on the angle of rotation, zooming, focusing, a stop, etc., from a zoom lens 12 and a motor-driven universal head 13 and supplies the information to the position arithmetic unit 16. In this case the position of the object on a screen is obtained from an image position measuring instrument and the position is converted into a position on a projection surface (VT surface) as a plane in the space of the image position measuring instrument. Then the vector from the center of the projection to the center of rotation of the universal head 13 is regarded as an aimed vector. The vector is rotated around the center of rotation of the universal head 13 by the tilt of the universal head 13. The point where the straight line obtained by extending the rotated aimed vector and the restraint plane cross each other is the position of the object in the three-dimensional space.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、移動物体を撮像してそ
の撮像画像を用いて計測を行う装置に利用する。本発明
は、映像を利用して計測を行う場合や、放送などで使う
ために映像を編集する場合など、複数の動画像映像を組
み合わせて使う場合に利用できる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used in an apparatus for picking up an image of a moving object and measuring the picked up image. INDUSTRIAL APPLICABILITY The present invention can be used when a plurality of moving image videos are used in combination, such as a case where a video is used for measurement or a video is edited for use in broadcasting.

【0002】本発明は、特にスポーツ競技のような移動
する競技者を追尾して撮像し、その3次元空間座標情報
を抽出する装置に利用するに適する。
The present invention is particularly suitable for use in a device for tracking and imaging a moving athlete such as a sports competition and extracting the three-dimensional spatial coordinate information thereof.

【0003】[0003]

【従来の技術】移動物体を計測する方法として、移動物
体を撮像してその映像信号を処理することにより移動物
体の3次元空間座標を求めることが行われている。
2. Description of the Related Art As a method of measuring a moving object, a three-dimensional spatial coordinate of the moving object is obtained by imaging the moving object and processing a video signal thereof.

【0004】出願人は、このような移動物体を計測する
装置として、雲台に載置された撮像装置により得られた
映像信号に雲台や撮像装置から得られた情報を位置情報
として重畳する技術を特願平5−082178として、
移動物体を撮像した信号からその移動物体の3次元空間
座標を演算する技術を特願平5−082209、移動物
体の動きを予測または計測しておき、カメラ装置を制御
する技術を特願平5−138805、得られた移動物体
の3次元空間座標情報を映像データに重畳する技術を特
願平5−139629、映像信号から移動物体を識別す
る技術を特願平5−137857(いずれも本願出願時
に未公開)として出願した。
The Applicant, as a device for measuring such a moving object, superimposes the information obtained from the camera platform or the image pickup device as position information on the video signal obtained by the image pickup device mounted on the camera platform. The technology is Japanese Patent Application No. 5-082178,
Japanese Patent Application No. 05-082209 describes a technique for calculating the three-dimensional spatial coordinates of a moving object from a signal obtained by capturing an image of the moving object, and Japanese Patent Application No. 5-20209 describes a technique for predicting or measuring the movement of the moving object and controlling the camera device. 138805, Japanese Patent Application No. 5-139629 for a technique for superimposing the obtained three-dimensional spatial coordinate information of a moving object on video data, and Japanese Patent Application No. 5-137857 for a technique for identifying a moving object from a video signal. Sometimes unpublished).

【0005】[0005]

【発明が解決しようとする課題】これら出願人の提案し
た技術でも、種々の改良すべき点がある。
The techniques proposed by the applicant of the present invention have various points to be improved.

【0006】まず、撮像した画像から対象物体の3次元
空間座標を演算するには、カメラ装置や雲台から得られ
た、回転角、撮像面の位置等の情報から3次元実空間座
標に変換するための座標変換係数などの各種パラメータ
が必要である。しかし、前記出願はこれらのパラメータ
をどのように求めるかについては言及していない。ま
た、これらのパラメータは、カメラ装置や雲台ごとに製
造上の誤差があるため、設計上の値を用いることは好ま
しくない。さらにこれらのパラメータは経年変化や温度
変化等により変わるものである。このため具体的に実際
の撮像の場で装置等の分解等を行わずにこれらのパラメ
ータを求める必要がある。
First, in order to calculate the three-dimensional space coordinates of the target object from the picked-up image, the information such as the rotation angle and the position of the image pickup surface obtained from the camera device or the platform is converted into the three-dimensional real space coordinates. Various parameters such as the coordinate conversion coefficient are necessary for this. However, said application does not mention how to determine these parameters. Further, it is not preferable to use design values for these parameters because there is a manufacturing error for each camera device or platform. Furthermore, these parameters change due to aging and temperature changes. Therefore, it is necessary to specifically obtain these parameters without disassembling the device or the like in the actual imaging field.

【0007】また、これらのパラメータを正確に求めて
おくことは、移動物体の計測精度を高くすることであ
り、また、移動物体を自動追尾撮像する場合の自動追尾
制御の精度を上げるために必要であり、装置ごとに異な
るパラメータを実際の撮影の場所で求める必要がある。
Accurately obtaining these parameters is to increase the measurement accuracy of a moving object, and is necessary to increase the accuracy of automatic tracking control when a moving object is automatically tracked and imaged. Therefore, it is necessary to obtain different parameters for each device at the actual shooting location.

【0008】本発明の目的は、上述の先願を改良するも
ので、精度の高い3次元空間座標情報を得られる計測装
置を提供することにある。
An object of the present invention is to improve the above-mentioned prior application, and to provide a measuring device capable of obtaining highly accurate three-dimensional spatial coordinate information.

【0009】本発明の他の目的は、移動物体の3次元空
間座標の演算に用いる座標変換係数等を実際に撮影しな
がら求めることができる装置を提供することにある。
Another object of the present invention is to provide an apparatus capable of obtaining a coordinate conversion coefficient or the like used for calculation of a three-dimensional spatial coordinate of a moving object while actually photographing.

【0010】また本発明の他の目的は、移動物体の追尾
制御を精度よく行うことができるようにすることにあ
る。
Another object of the present invention is to enable tracking control of a moving object with high accuracy.

【0011】[0011]

【課題を解決するための手段】本発明は、移動物体を撮
像する撮像手段と、この撮像手段の撮像方向および撮像
範囲を設定する駆動手段と、前記撮像手段により得られ
た映像信号に含まれる移動物体の画像内の位置を演算に
より求める画像処理手段と、この画像処理手段により求
めた画像内の位置とその映像信号を得たときの撮像手段
の撮像方向および撮像範囲に関する情報とからその移動
物体の実空間内座標を演算により求める位置演算手段と
を備えた移動物体の計測装置において、前記位置演算手
段は、前記撮像手段のカメラのレンズの投影中心を設定
し、この投影中心を点対称として撮像された移動物体の
被写体を撮像素子面と点対称の位置にある投映面上の位
置に変換する手段と、この変換する手段で変換された画
像の被写体までの前記投影中心からのベクトルを設定し
このベクトルより移動物体の存在する拘束平面までの距
離と前記カメラの回転角に基づいて対象物体の3次元空
間座標を演算する手段とを含むことを特徴とする。
The present invention includes an image pickup means for picking up an image of a moving object, a drive means for setting an image pickup direction and an image pickup range of the image pickup means, and a video signal obtained by the image pickup means. The image processing means for calculating the position of the moving object in the image, and the position of the moving object in the image and the information about the image capturing direction and the image capturing range of the image capturing means when the video signal is obtained are moved. In a measuring device for a moving object, which comprises a position calculating means for calculating coordinates of an object in real space, the position calculating means sets a projection center of a lens of a camera of the image pickup means, and the projection center is point-symmetrical. Means for converting the object of the moving object imaged as a position on the projection surface at a position point-symmetrical to the image sensor surface, and up to the object of the image converted by this converting means. And a means for calculating a three-dimensional spatial coordinate of the target object based on the distance from the projection center to the constraining plane where the moving object exists and the rotation angle of the camera. .

【0012】また、前記撮像手段のカメラのレンズの中
心位置である画像の投影中心の位置および移動物体の3
次元空間座標を演算するに必要な変換用変数を仮の値と
して決めて拘束平面上に固定されその空間位置座標が分
かっている基準点を撮像してその空間位置座標を演算す
る手段と、演算結果に基づいてカメラの投影中心および
前記変換用変数を少しずつ変動させながら再度基準点を
撮像して投影中心および変換用変数を求める手段とを備
えることができる。
Further, the position of the projection center of the image which is the center position of the lens of the camera of the image pickup means and the moving object 3
A means for calculating a transformation variable necessary for computing the three-dimensional space coordinates as a temporary value, capturing a reference point fixed on the constraining plane and having a known spatial position coordinate, and computing the spatial position coordinate; Means for determining the projection center and the conversion variable by imaging the reference point again while gradually changing the projection center of the camera and the conversion variable based on the result.

【0013】また、前記撮像手段の駆動手段を複数の動
作点について動作させ、その駆動手段の駆動量を電気信
号として得る手段を備え、前記位置演算手段は、この得
られた複数の動作点での電気信号と、カメラのレンズの
焦点位置である投影中心位置との関係を求め、その複数
動作点における関係に基づいて投影中心位置と駆動量と
の関係式を求め対象移動物体の3次元空間座標を演算す
る手段を含むことができる。
Further, there is provided means for operating the drive means of the image pickup means for a plurality of operating points and obtaining the drive amount of the drive means as an electric signal, and the position computing means is provided at the plurality of obtained operating points. 3D space of the target moving object by obtaining the relational expression between the projection center position and the drive amount based on the relations at the plurality of operating points. Means for computing the coordinates may be included.

【0014】また、得られた移動物体の実空間内座標に
基づいてその移動物体の移動方向を予測する移動予測手
段と、この予測手段により前記駆動手段の制御を行う駆
動制御手段とを備え、前記移動予測手段は、前記位置演
算手段の位置演算の間隔より短い時間間隔で移動物体の
位置を複数回予測する手段を含み、前記駆動制御手段
は、前記位置演算手段の演算間隔より短い時間間隔で前
記駆動手段に前記予測された位置の値に基づく制御目標
値を与える手段を含むことができる。
Further, it comprises a movement predicting means for predicting the moving direction of the moving object based on the obtained coordinates in the real space of the moving object, and a drive control means for controlling the driving means by the predicting means. The movement predicting means includes means for predicting the position of the moving object a plurality of times at a time interval shorter than the position calculation interval of the position calculating means, and the drive control means is shorter than the calculation interval of the position calculating means. And a means for providing the drive means with a control target value based on the predicted position value.

【0015】また、前記撮像手段はカラーカメラを含
み、画像処理手段は、撮像された画像内から計測対象の
移動物体を背景から色によって分離する色抽出手段を含
むことができる。
Further, the image pickup means may include a color camera, and the image processing means may include color extracting means for separating the moving object to be measured from the background by color in the picked-up image.

【0016】さらに、得られた移動物体の実空間内座標
に基づいてその移動物体の移動方向を予測する移動予測
手段と、この予測手段により前記駆動手段の制御を行う
駆動制御手段とを備え、前記駆動制御手段は、前記撮像
手段の撮像範囲での照度分布あるいはホワイトバランス
分布情報をあらかじめ得ておき、この情報に基づき前記
駆動手段を制御して撮像手段のカメラ装置の絞りあるい
はホワイトバランスを調整する手段を含むことができ
る。
Further, it comprises a movement predicting means for predicting a moving direction of the moving object based on the obtained coordinates in the real space of the moving object, and a drive control means for controlling the driving means by the predicting means. The drive control means obtains in advance illuminance distribution or white balance distribution information in the image pickup range of the image pickup means, and controls the drive means based on this information to adjust the aperture or white balance of the camera device of the image pickup means. Means may be included.

【0017】[0017]

【作用】本発明では、映像だけでなく、実際の空間の3
次元空間位置座標を対象物体の撮像とともに計測し、映
像と同期させて記録しあるいは出力することができる。
3次元空間位置座標の測定は、対象物体そのものの3次
元座標または、撮影されている範囲の3次元座標、また
は撮影している範囲の中の中心など代表点などについて
行なわれる。
In the present invention, not only the image but also the real space 3
The dimensional space position coordinates can be measured together with the image of the target object, and can be recorded or output in synchronization with the image.
The measurement of the three-dimensional spatial position coordinates is performed on the three-dimensional coordinates of the target object itself, the three-dimensional coordinates of the imaged range, or the representative point such as the center of the imaged range.

【0018】対象物体の3次元空間位置座標の演算は、
ビデオカメラ装置のレンズの焦点位置を投影中心Oとし
て、CCDの撮像面とこの投影中心Oを点対称とする投
映面VTを考える。この投映面VT上には、CCDの撮
像面で得られた画像とは逆の被写体の撮像画像が得られ
る。この投映面VT上の被写体に対する投影中心Oから
のベルトルを設定する。そしてこの投影中心Oからのベ
ルトルに基づいて被写体の存在する拘束平面までの距離
と角度によりその被写体の3次元空間座標を演算する。
The calculation of the three-dimensional spatial position coordinates of the target object is
Consider the focal plane of the lens of the video camera device as the projection center O, and the image pickup surface of the CCD and the projection plane VT that is symmetrical about this projection center O. On the projection surface VT, an imaged image of the subject, which is the reverse of the image obtained on the imaging surface of the CCD, is obtained. A belt reel from the projection center O for the subject on the projection surface VT is set. Then, based on the belt from the projection center O, the three-dimensional space coordinates of the subject are calculated from the distance and the angle to the constraining plane where the subject exists.

【0019】また、この被写体の3次元空間座標を演算
するに際して、必要な座標変換係数など各種パラメータ
を、実際に拘束平面上にあり、あらかじめその3次元空
間座標が分かっている基準点をそれぞれカメラ装置のズ
ームあるいは雲台を動かしながら撮像して、カメラ装置
やズームなどのパラメータを決める。
Further, when calculating the three-dimensional space coordinates of the subject, various parameters such as necessary coordinate conversion coefficients are actually on the constraining plane, and reference points whose three-dimensional space coordinates are known in advance are respectively set. Parameters such as camera device and zoom are determined by imaging while zooming or moving the platform of the device.

【0020】また、雲台やズームレンズの制御には、カ
メラ装置の撮像回数がその撮像方式からきまっているた
め、撮像した画像によって求めた対象物体の位置情報に
より、撮像時間間隔で、雲台やズームレンズの制御を行
うと、対象物体の動きに追従できないことが生ずるの
で、撮像時間間隔の間に複数回にわたって対象物体の移
動位置を予測して、その予測値に基づいて制御目標値を
駆動手段に与えることにより、撮像手段の自動追尾制御
をスムーズに行うことができる。
Further, in controlling the pan / tilt head and the zoom lens, the number of times of imaging by the camera device depends on the imaging method. Therefore, based on the position information of the target object obtained from the picked-up image, the pan / tilt head or When the zoom lens is controlled, it may not be possible to follow the movement of the target object.Therefore, the moving position of the target object is predicted multiple times during the imaging time interval, and the control target value is driven based on the predicted value. The automatic tracking control of the image pickup means can be smoothly performed by providing the image pickup means.

【0021】さらに、カラーカメラ装置をより、色識別
を行うことにより対象物体を背景から抽出する。また、
あらかじめ移動物体の移動可能範囲内の照度分布あるい
はホワイトバランスのマップを作成しておき、カメラ装
置の絞り等を調整する。
Further, the target object is extracted from the background by performing color identification by the color camera device. Also,
A map of the illuminance distribution or white balance within the movable range of the moving object is created in advance, and the aperture of the camera device is adjusted.

【0022】[0022]

【実施例】以下図面を参照して本発明の実施例を説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0023】なお、以下の実施例は計測の対象となる選
手の動きが水平方向に比べて高さ方向の動きが少なく平
面とみなせる場合の実施例で説明する。
The following embodiment will be described as an embodiment in which the movement of the player to be measured has less movement in the height direction than in the horizontal direction and can be regarded as a plane.

【0024】(第一実施例)水泳競技のように、対象物
体(選手)の動きが水平方向にくらべて高さ方向の動き
が少なく平面とみなせる場合の実施例を以下に示す。
(First Embodiment) The following is an embodiment in the case where the movement of the target object (player) is less in the height direction than in the horizontal direction and can be regarded as a plane as in the swimming competition.

【0025】図1に移動物体の計測装置および編集装置
全体のブロック図を示す。全体は、カメラヘッド1、デ
ータ記録部2、動画像編集部3を備え、時間管理を行う
ためのタイムベースユニット4およびストップウォッチ
5を備えている。
FIG. 1 is a block diagram of the whole moving object measuring apparatus and editing apparatus. The whole includes a camera head 1, a data recording section 2, a moving image editing section 3, and a time base unit 4 and a stopwatch 5 for time management.

【0026】撮影は図2のように、対象物体7はカメラ
ヘッド1によって、映像と同時に3次元の位置が測定さ
れる。また、カメラヘッド1は対象物体7の動きにあわ
せて自動的に動き、対象物体を追尾する。
In photographing, as shown in FIG. 2, the three-dimensional position of the target object 7 is measured by the camera head 1 simultaneously with the image. Further, the camera head 1 automatically moves according to the movement of the target object 7 and tracks the target object.

【0027】対象物体7の動きは平面6に限定されると
してもよいから平面6に対してのカメラヘッド1の位置
とカメラヘッド1から対象物体7を見たときの方向がわ
かれば、平面と直線の交点をもとめることで対象物体の
3次元での位置がわかる。また同時にレンズの画角から
平面6の撮影されている範囲が計算できる。
Since the movement of the target object 7 may be limited to the plane 6, if the position of the camera head 1 with respect to the plane 6 and the direction when the target object 7 is viewed from the camera head 1 are known, the plane will be a plane. The position of the target object in three dimensions can be found by finding the intersection of the straight lines. At the same time, the photographed range of the plane 6 can be calculated from the angle of view of the lens.

【0028】図3は、このカメラヘッド1の構成の全体
の概念図を示すもので、ビデオカメラ11、ズームレン
ズ12、このビデオカメラ11およびズームレンズ12
を搭載する電動雲台13を備える。このカメラヘッド1
は特願平5−138805に示したカメラヘッド/演算
装置に対応するものである。電動雲台13およびズーム
レンズ12を制御するヘッドコントローラ14は、対象
物体の3次元空間座標を演算する位置演算装置16と、
ズームレンズ12、電動雲台13に対する駆動制御を行
うとともにズームレンズ12および電動雲台13からの
回転角度、ズーム、フォーカス、絞り量等の情報を得
て、位置演算装置16にその情報を与える駆動制御装置
17を備える。また、ビデオカメラ11の撮像した映像
は、動画像として、データ記録部に出力されるととも
に、計測の対象となる対象物体を抽出するための画像処
理を施す画像処理装置15が設けられている。なお、こ
のカメラヘッド1は図2に示されるように複数設けられ
る。
FIG. 3 is a conceptual diagram of the entire structure of the camera head 1, which includes a video camera 11, a zoom lens 12, the video camera 11 and the zoom lens 12.
It is equipped with an electric pan head 13 for mounting. This camera head 1
Corresponds to the camera head / arithmetic unit shown in Japanese Patent Application No. 5-138805. A head controller 14 that controls the electric platform 13 and the zoom lens 12 includes a position calculation device 16 that calculates three-dimensional spatial coordinates of a target object,
The drive control is performed for the zoom lens 12 and the electric pan head 13, and the drive information is obtained from the zoom lens 12 and the electric pan head 13 such as the rotation angle, zoom, focus, and diaphragm amount, and the position calculation device 16 is provided with the information. The controller 17 is provided. Further, the image captured by the video camera 11 is output to the data recording unit as a moving image, and an image processing device 15 that performs image processing for extracting a target object to be measured is provided. A plurality of camera heads 1 are provided as shown in FIG.

【0029】図4は、図3に示すカメラヘッド1の構成
をさらに詳しく示したものである。ビデオカメラ11
は、カラービデオカメラであり、その出力は、動画像と
してデータ記録部2あるいは動画像編集部3に出力され
る。また、画像処理装置15に対応するものとして、被
写体の対象物の背景から抽出する学習型色抽出装置21
および被写体の画面上の位置を演算する画像位置計測装
置22を備えている。学習型色抽出装置21には確認用
TVモニタ36が接続され、画像位置計測装置22には
操作用TVモニタ37が接続されている。画像位置計測
装置22の出力は、位置演算装置16内の対象物の空間
座標を演算する空間座標計算回路26に入力される。
FIG. 4 shows the configuration of the camera head 1 shown in FIG. 3 in more detail. Video camera 11
Is a color video camera, the output of which is output as a moving image to the data recording unit 2 or the moving image editing unit 3. Further, as a device corresponding to the image processing device 15, a learning type color extraction device 21 for extracting from the background of the object of the subject.
And an image position measuring device 22 for calculating the position of the subject on the screen. The learning type color extraction device 21 is connected to a confirmation TV monitor 36, and the image position measurement device 22 is connected to an operation TV monitor 37. The output of the image position measuring device 22 is input to the spatial coordinate calculating circuit 26 which calculates the spatial coordinates of the object in the position calculating device 16.

【0030】ズームレンズ12は、アイリス駆動用モー
タ121、アイリス位置検出用ポテンショメータ12
2、フォーカス駆動用モータ123、フォーカス位置検
出用ポテンショメータ124、ズーム駆動用モータ12
5、ズーム位置検出用ポテンショメータ126を備え
る。また、電動雲台13は雲台水平軸駆動用モータ13
1、雲台水平軸位置検出用ポテンショメータ132、雲
台垂直軸駆動用モータ133、雲台垂直軸位置検出用ポ
テンショメータ134を備える。
The zoom lens 12 includes an iris driving motor 121 and an iris position detecting potentiometer 12.
2, focus drive motor 123, focus position detection potentiometer 124, zoom drive motor 12
5. The potentiometer 126 for zoom position detection is provided. Further, the electric platform 13 is a motor 13 for driving the platform horizontal axis.
1, a pan head horizontal axis position detecting potentiometer 132, a pan head vertical axis driving motor 133, and a pan head vertical axis position detecting potentiometer 134.

【0031】本実施例では、位置制御サーボ回路201
〜205を備えたサーボ回路20が設けられており、ヘ
ッドコントローラ14の制御出力は、これらの位置制御
サーボ回路201〜205に導かれる。この位置制御サ
ーボ回路201〜205は、それぞれアイリス駆動用モ
ータ121、フォーカス駆動用モータ123、ズーム駆
動用モータ125、雲台水平軸駆動用モータ131、雲
台垂直軸駆動用モータ133の位置制御に用いられる。
In this embodiment, the position control servo circuit 201
The servo control circuit 20 is provided with the servo circuits 20 to 205, and the control output of the head controller 14 is guided to these position control servo circuits 201 to 205. The position control servo circuits 201 to 205 control the positions of the iris driving motor 121, the focus driving motor 123, the zoom driving motor 125, the pan head horizontal axis driving motor 131, and the pan head vertical axis driving motor 133, respectively. Used.

【0032】ヘッドコントローラ14は、アイリス位置
検出用ポテンショメータ122、フォーカス位置検出用
ポテンショメータ124、ズーム位置検出用ポテンショ
メータ126、雲台水平軸位置検出用ポテンショメータ
132、雲台垂直軸位置検出用ポテンショメータ134
からの出力をそれぞれディジタル信号に変換するA/D
変換器23を備える。また、各モータの制御信号は、D
/A変換器24からそれぞれの位置制御サーボ回路20
1〜205に出力される。
The head controller 14 includes an iris position detecting potentiometer 122, a focus position detecting potentiometer 124, a zoom position detecting potentiometer 126, a pan head horizontal axis position detecting potentiometer 132, and a pan head vertical axis position detecting potentiometer 134.
A / D that converts the output from each to a digital signal
A converter 23 is provided. The control signal for each motor is D
/ A converter 24 to each position control servo circuit 20
It is output to 1-205.

【0033】ヘッドコントローラ14は、A/D変換器
23の出力に基づいてビデオカメラ11の方向計算を行
うカメラの方向計算回路28、このカメラの方向計算回
路28の出力と画像位置計測装置22の出力とに基づい
て対象物の3次元空間位置座標を演算する空間座標計算
回路26と、この演算出力に基づいて対象物の移動予測
位置を演算する移動予測回路27と、この移動予測演算
結果に基づいて、ビデオカメラの方向決定を行うカメラ
の方向決定回路30、ズームレンズ12のズーム量の決
定を行うズーム量決定回路31、フォーカス量の決定を
行うフォーカス決定回路32を備える。これらの回路3
0〜32の出力は各モータの制御量を決定するモータの
制御回路33に入力される。モータの制御回路33は、
各モータの制御量を決定してその制御信号をD/A変換
器24を介してそれぞれの位置制御サーボ回路201〜
205に出力する。
The head controller 14 calculates the direction of the video camera 11 based on the output of the A / D converter 23. The camera direction calculation circuit 28 outputs the direction calculation circuit 28 of the camera and the image position measuring device 22. The spatial coordinate calculation circuit 26 that calculates the three-dimensional spatial position coordinates of the target object based on the output, the movement prediction circuit 27 that calculates the predicted movement position of the target object based on this calculation output, and the movement prediction calculation result Based on this, a camera direction determining circuit 30 for determining the direction of the video camera, a zoom amount determining circuit 31 for determining the zoom amount of the zoom lens 12, and a focus determining circuit 32 for determining the focus amount are provided. These circuits 3
The outputs of 0 to 32 are input to the motor control circuit 33 that determines the control amount of each motor. The motor control circuit 33
The control amount of each motor is determined, and its control signal is sent via the D / A converter 24 to each position control servo circuit 201-.
Output to 205.

【0034】なお、演算された移動物体の3次元空間位
置座標は、インタフェース34より3次元データ出力と
してデータ記録部2あるいは動画像編集部3へ出力され
る。また、インタフェース34は、対象物の位置を表示
する表示部、端末装置、操作部とを含む制御用端末装置
38にも接続され、そこから与えられる制御信号を各カ
メラの方向決定回路30、ズーム量決定回路31、フォ
ーカス決定回路32に与える。このように本実施例は手
動による操作が可能となっている。
The calculated three-dimensional spatial position coordinates of the moving object are output from the interface 34 to the data recording unit 2 or the moving image editing unit 3 as three-dimensional data output. The interface 34 is also connected to a control terminal device 38 including a display unit for displaying the position of an object, a terminal device, and an operation unit, and a control signal given from the interface is provided to the direction determination circuit 30 of each camera and the zoom. It is given to the amount determination circuit 31 and the focus determination circuit 32. In this way, this embodiment can be manually operated.

【0035】図5は、対象物体7を撮像するカメラヘッ
ド1のうち、ビデオカメラ11、ズームレンズ12およ
び電動雲台13の構成を説明する図である。ビデオカメ
ラ11は通常1フィールド1/60秒単位で撮影され
る。
FIG. 5 is a diagram for explaining the configuration of the video camera 11, the zoom lens 12, and the electric pan head 13 in the camera head 1 for picking up an image of the target object 7. The video camera 11 is normally photographed in units of 1/60 seconds per field.

【0036】カメラレンズは、固定焦点でもよいが、広
い範囲を撮影するときはズームレンズが便利である。こ
の実施例では電動ズームレンズにポテンショメータを設
け、ズームリングの回転角度を電圧値で読み取ること
で、常に現在の画角を知ることができるようになってい
る。また、そのデータをつかってサーボを構成してい
て、ヘッドコントローラ14の指令でズームを任意の位
置に動かすことができる。回転角度のセンサーにはこの
例ではポテンショメータを使ったが、ロータリーエンコ
ーダなど他のものでも良い。またこの例はレンズの画角
をズームリングの回転角度で機械的に検出するが、画像
に影響がない方法、たとえば写らない部分をつかった
り、カメラの素子の感度のない波長を使ったり、ブラン
キング期間を使ったりして光学的にリアルタイムに実測
することもできる。
The camera lens may have a fixed focus, but a zoom lens is convenient when photographing a wide range. In this embodiment, the electric zoom lens is provided with a potentiometer and the rotation angle of the zoom ring is read as a voltage value so that the current angle of view can be always known. Further, the servo is constructed by using the data, and the zoom can be moved to an arbitrary position by the command of the head controller 14. A potentiometer was used as the rotation angle sensor in this example, but other devices such as a rotary encoder may be used. In this example, the angle of view of the lens is mechanically detected by the angle of rotation of the zoom ring. It is also possible to measure in real time optically using the ranking period.

【0037】レンズの実際の画角とセンサーの出力は機
械的な結合になっているため、個体によるばらつきや、
経時変化が発生する。個体によるばらつきは工場で検査
し、補正データを持つことで対応できる。経時変化につ
いては、3次元座標演算のために行うカメラヘッドのキ
ャリブレーションの時に、大きさのわかっているもの
を、ズームを変化させながら撮影し、補正データを修正
することができる。
Since the actual angle of view of the lens and the output of the sensor are mechanically coupled, variations due to individuals and
Changes over time occur. Variations due to individuals can be dealt with by having inspection data at the factory and having correction data. Regarding the change with time, at the time of calibration of the camera head for the three-dimensional coordinate calculation, it is possible to correct the correction data by photographing a known size while changing the zoom.

【0038】レンズはまた、フォーカスおよびアイリス
にもモータとポテンショメータが取り付けられていて、
サーボが組まれている。ズームと同様にヘッドコントロ
ーラ14の指令で動かすことができ、またヘッドコント
ローラ14は現在の値を知ることができるようになって
いる。フォーカスのコントロールはカメラから得られた
画像の高周波成分を調べるなどのいわゆるオートフォー
カスアルゴリズムを使うこともできるが、このシステム
では対象物体の3次元位置がわかるから、カメラと対象
物体の距離が計算でき、その距離に応じてコントロール
している。またアイリスのコントロールも同様にカメラ
からの映像に応じて変化させる方法もあるが、水泳など
のように照明光の直接反射が入ったりする場合はいわゆ
るオートアイリスのアルゴリズムは最適とはいえない。
ここでは、対象物体の移動可能範囲つまりプールの、全
体あるいは何点かの輝度を測定し、プールの照度マップ
をあらかじめ作成しておき、対象物体の位置に応じてア
イリスをコントロールする。これはまた、ホワイトバラ
ンスも同様に行える。均一の照明であればホワイトバラ
ンスが変化することはないが、色温度のことなる複数の
照明がある場合は場所に応じてホワイトバランスを変化
させる必要がある。撮影された画像を使ったオートホワ
イトバランスのアルゴリズムではプールの様な画面のほ
とんどが単一の白以外の色で占められている画像は苦手
である。この例ではアイリスのコントロールと同様にプ
ール全体にホワイトバランスのマップを作成し、それに
よってカメラのホワイトバランスを調整している。
The lens also has a motor and potentiometer attached to the focus and iris,
Servo is assembled. Similar to zooming, the head controller 14 can be moved by a command, and the head controller 14 can know the current value. Focus control can also use so-called autofocus algorithms such as examining the high-frequency components of the image obtained from the camera, but this system can calculate the distance between the camera and the target object because the three-dimensional position of the target object is known. , Control according to the distance. There is also a method of changing the iris control according to the image from the camera as well, but the so-called auto iris algorithm is not optimal when direct reflection of illumination light occurs such as in swimming.
Here, the movable range of the target object, that is, the brightness of the entire pool or some points is measured, an illuminance map of the pool is created in advance, and the iris is controlled according to the position of the target object. This can also do white balance as well. If the illumination is uniform, the white balance does not change, but if there are multiple illuminations with different color temperatures, it is necessary to change the white balance depending on the location. The algorithm of auto white balance using captured images is not good for images where most of the screen like pool is occupied by a single color other than white. This example creates a white balance map for the entire pool, similar to the iris control, and adjusts the white balance of the camera accordingly.

【0039】電動雲台13は水平方向の回転のパン方向
と垂直方向の回転のティルト方向にカメラの向きを変え
ることができる。それぞれの軸にはポテンショメータが
取り付けてあり、カメラの現在の向きを知ることができ
る。またレンズと同様にサーボ系が組まれていて、ヘッ
ドコントローラからの指令で任意の向きに動かすことが
できる。レンズ系と異なり雲台は、慣性モーメントが大
きいため、サーボ回路に指示した位置にたどり着くまで
には時間がかかる。そのため、映像と同期したカメラの
向きはサーボ系への指示位置を使うのではなく、ポテン
ショメータの読みを使うようにしている。ここでは回転
角度のセンサーとしてポテンショメータを使ったが、光
学式のロータリーエンコーダなどほかのものでも角度の
情報が得られるものであればなんでもよい。
The electric pan head 13 can change the orientation of the camera between a pan direction for horizontal rotation and a tilt direction for vertical rotation. A potentiometer is attached to each axis so that you can know the current orientation of the camera. Also, like the lens, it has a servo system and can be moved in any direction by a command from the head controller. Unlike the lens system, the platform has a large moment of inertia, so it takes time to reach the position indicated by the servo circuit. Therefore, instead of using the position indicated to the servo system, the direction of the camera synchronized with the image uses the reading of the potentiometer. Although the potentiometer is used as the rotation angle sensor here, any other device such as an optical rotary encoder may be used as long as the angle information can be obtained.

【0040】図4に示すように、ヘッドコントローラ1
4には5つのポテンショメータ読み込み用のA/D変換
器23とサーボ系への位置指令用電圧を発生する5つの
D/A変換器24がある。この例ではアナログ電圧をサ
ーボ計とのインタフェースとして使ったが、パラレルや
シリアルのディジタル信号を用いてもよい。
As shown in FIG. 4, the head controller 1
Reference numeral 4 has five A / D converters 23 for reading potentiometers and five D / A converters 24 for generating a position command voltage for the servo system. In this example, the analog voltage is used as an interface with the servo meter, but parallel or serial digital signals may be used.

【0041】次に自動追尾制御について説明する。Next, the automatic tracking control will be described.

【0042】自動追尾の場合、カメラから得られた画像
の中で対象物体と背景を自動的に分離しなければならな
い。この例では、ビデオカメラ11としてカラーカメラ
を用い、学習型色抽出装置21が色で分離している。対
象物体は背景にない色であるたとえば水泳帽とする。普
通水泳帽はプールで目立つような色が使われているため
背景と分離するのに適している。またこの例では色をつ
かって対象物体を背景から分離しているが、分離ができ
れば例えば輝度、特定のパターンとの相関、など何を用
いてもよい。背景から分離された対象物体は、その画像
のなかでの位置が画像位置計測装置22によって計算さ
れる。この例では分離された図形の図心の位置が、画面
内のどこにあるかを計算している。自動追尾は対象物体
が、常に映像の中心など、特定の位置に映し出されるよ
うに雲台とレンズをコントロールする。
In the case of automatic tracking, the target object and the background must be automatically separated in the image obtained from the camera. In this example, a color camera is used as the video camera 11, and the learning type color extraction device 21 separates the colors. The target object has a color that is not in the background, for example, a swimming cap. Ordinary swimming caps are suitable for separating from the background because they use colors that stand out in the pool. Further, in this example, the target object is separated from the background by using a color, but if the separation is possible, anything such as brightness or correlation with a specific pattern may be used. The position of the target object separated from the background in the image is calculated by the image position measuring device 22. In this example, the position of the centroid of the separated graphic is calculated on the screen. Automatic tracking controls the platform and lens so that the target object is always displayed at a specific position such as the center of the image.

【0043】画像位置計測装置22のデータだけを使っ
て、画像の中で対象物体の位置と目的位置との差が常に
小さくなるように雲台をコントロールする方法では、対
象物体とカメラの距離が変わったり、レンズのズームが
変わったりした場合、画面上の差と雲台の回転量との比
率が変化してしまうため、制御ループのゲインが変化し
てしまい最適に制御することが困難である。そのためこ
の例では以下のように対象物体の3次元位置計測と、雲
台制御を分けて行っている。
In the method of controlling the pan head so that the difference between the position of the target object and the target position in the image is always small by using only the data of the image position measuring device 22, the distance between the target object and the camera is If it changes or the zoom of the lens changes, the ratio of the difference on the screen and the rotation amount of the platform changes, so the gain of the control loop changes and it is difficult to control optimally. . Therefore, in this example, the three-dimensional position measurement of the target object and the pan head control are separately performed as follows.

【0044】まず画像内の対象物体の位置とカメラの向
きおよびレンズのパラメータから対象物体の実際の3次
元位置を求める。次に求めた3次元位置が画面の中心な
ど目標とする位置になるカメラの方向と傾きを計算す
る。そしてその方向にカメラが向くように雲台を制御す
るようにしている。またこの例では、対象物体の動きは
平面に限定しているため、この拘束平面内での対象物体
の位置を計算するようにした。こうして対象物体の位置
がわかれば、対象物体とカメラの距離がわかるため、そ
の距離に合うようにレンズのフォーカスを制御する。ま
た、対象物体がだいたい同じ大きさに写るように、ズー
ムを距離に応じて制御している。
First, the actual three-dimensional position of the target object is obtained from the position of the target object in the image, the orientation of the camera and the parameters of the lens. Next, the direction and tilt of the camera at which the obtained three-dimensional position becomes a target position such as the center of the screen is calculated. Then, the camera platform is controlled so that the camera faces in that direction. Further, in this example, since the movement of the target object is limited to the plane, the position of the target object within this constraining plane is calculated. If the position of the target object is known in this way, the distance between the target object and the camera can be known. Therefore, the focus of the lens is controlled so as to match the distance. In addition, the zoom is controlled according to the distance so that the target object appears to be approximately the same size.

【0045】制御する場合に、サーボ系へは目標値を電
圧で指示する。この指示は1フィールドの1/60秒間
隔では、間隔が広すぎてなめらかな制御ができない。対
象物体の3次元位置の計測は1フィールド間隔でしか行
なえないため、対象物体の3次元空間内での動きを予想
している。サーボ系への目標値設定はこの予想値をつか
うことで、フィールド周期に関係なく間隔を狭くでき
る。この例では、約4ミリ秒間隔で、1フィールドあた
り4回の目標指示をすることでなめらかな動きを得てい
る。対象物体の動きの予測には、1つ前のフィールドと
の差をそのまま延長する1次補間を使っているが、たと
えば重力場での運動物体には常に重力加速度が加わって
いるなど、対象物体の性質がわかっていればその物理法
則にしたがった予想方法をとってもよい。またカルマン
フィルタなどで予測することもできる。
When controlling, the target value is indicated to the servo system by voltage. This instruction cannot be controlled smoothly because the interval is too wide at 1/60 second intervals in one field. Since the measurement of the three-dimensional position of the target object can be performed only in one field interval, the movement of the target object in the three-dimensional space is predicted. The target value can be set in the servo system by using this predicted value, and the interval can be narrowed regardless of the field cycle. In this example, a smooth movement is obtained by giving a target instruction four times per field at intervals of about 4 milliseconds. For the prediction of the motion of the target object, linear interpolation that extends the difference from the previous field as it is is used, but for example, the gravitational acceleration is always added to the moving object in the gravitational field. If you know the property of, you may take the prediction method according to the physical law. It can also be predicted with a Kalman filter or the like.

【0046】次に対象物体の3次元座標の計算方法につ
いて説明する。
Next, a method of calculating the three-dimensional coordinates of the target object will be described.

【0047】図6に示すように、座標系は右手座標系を
使用し、原点には雲台の回転中心とした。対象物体が動
く拘束平面に垂直にY軸をとる。雲台の2つの軸はY軸
方向を0度とする。(2つの軸をともに0度とすると、
カメラの光軸はY軸と平行になる。)また図7に示すよ
うにカメラの撮像面(CCD面)は雲台の2軸を0度と
したとき、回転中心から、XYZ方向にそれぞれOffset
X,OffsetY,OffsetZ だけ離れた位置にある。図9に示す
ようにズームレンズでは投影中心をN1、N2の2つ考
えなくてはならない。しかし計算を容易にするためこの
例では、N1、N2の距離に対して被写体までの距離が
十分に大きいものとして、投映中心を1つの薄いレンズ
で、さらに軸に近い光線という近似をして図8のような
ピンホールカメラモデルを使う。現実の撮像系ではレン
ズはこのような理想状態からずれていて非線形要素があ
る。非線形要素を考慮するためには、線形の数値計算の
かわりに大きな数値テーブルをもって処理する必要があ
る。しかし自動追尾の制御が十分によく働き、対象物体
が画像の中心になるように動くと、レンズの中心付近に
3次元の位置計測対象がくることになりレンズの特性の
もっともよいところをつかえるため、雲台の設置場所の
強度や、角度センサーの精度以上の光学精度をだすのに
線形近似でも十分なレンズを選ぶことは困難ではない。
As shown in FIG. 6, the coordinate system is a right-handed coordinate system, and the origin is the center of rotation of the platform. The Y axis is taken perpendicular to the constraining plane in which the target object moves. The two axes of the platform are 0 degrees in the Y-axis direction. (If both axes are 0 degrees,
The optical axis of the camera is parallel to the Y axis. ) Also, as shown in FIG. 7, when the two axes of the platform are set to 0 degrees, the image pickup surface (CCD surface) of the camera is offset from the center of rotation in the XYZ directions.
They are X, OffsetY, OffsetZ apart. As shown in FIG. 9, in the zoom lens, two projection centers N1 and N2 must be considered. However, in order to facilitate the calculation, in this example, assuming that the distance to the subject is sufficiently larger than the distances N1 and N2, the projection center is approximated by a thin lens and rays closer to the axis. Use a pinhole camera model like 8. In an actual image pickup system, the lens is deviated from such an ideal state and has a non-linear element. In order to consider the non-linear element, it is necessary to process with a large numerical table instead of linear numerical calculation. However, if the automatic tracking control works well enough and the target object moves to the center of the image, the three-dimensional position measurement target will come near the center of the lens, and the best part of the lens characteristics can be used. , It is not difficult to choose a lens that is sufficient even with linear approximation to obtain the strength of the platform installation location and the optical accuracy that exceeds the accuracy of the angle sensor.

【0048】対象物体の3次元空間座標を得るには、図
10のように、画像位置計測装置から対象物体の画面上
の位置を得て、その位置を画像位置計測装置の空間上の
平面である投映面(VT面)上の位置に変換する。なお
VT面は、CCD面に対して投映中心の点対称の位置に
あるから、VT面上の像の大きさは撮像素子上にレンズ
で結像する像と大きさは等しくなる。また画像の中心
は、光軸が投影面と交わる点(主点)と必ずしも一致し
ないため、そのずれ分の補正を画像位置計測装置の位置
を平行移動させてする必要がある。図11のように投影
中心からVT面の対象物体の位置までのベクトルを注目
ベクトルとする。つぎにその注目ベクトルを雲台の回転
中心を中心に雲台の傾きと同じだけ回転させる。図12
のように回転させた注目ベクトルを延長した直線と拘束
平面が交わる点が対象物体の3次元空間の位置である。
また、注目ベクトルのかわりにVT面の四隅までのベク
トルを用いることで、写っている範囲である拘束平面上
の視野を計算することができる。次に、求めた対象物体
の3次元空間位置を目標点として、目標点が画面の指定
した場所、たとえば主点に写るように雲台を制御する角
度を求める。画像の主点の位置にもっていく場合、図1
3のように主点を通るカメラの中心線が拘束平面上の目
標点と交差するような雲台の2軸の回転角を求める。図
13で角Aは、拘束平面までの距離と、拘束平面上の目
標点のY軸からの距離を使ってアークタンジェントで求
まる。同時に、回転中心から目標点までの距離dも求ま
る。また角Bは距離dと、カメラ中心線の回転中心から
の距離をつかってアークコサインで求めることができ
る。また主点以外へもってくる場合は、図14のように
投影中心からVT面の指定点をさすベクトルaを延長
し、拘束平面上の目標点と交わるような回転角度を求め
ればよい。
In order to obtain the three-dimensional spatial coordinates of the target object, the position of the target object on the screen is obtained from the image position measuring device and the position is determined by the plane in the space of the image position measuring device, as shown in FIG. It is converted to a position on a certain projection surface (VT surface). Since the VT plane is located in a point-symmetrical position with respect to the CCD plane with respect to the projection center, the size of the image on the VT plane is the same as the size of the image formed by the lens on the image sensor. Further, since the center of the image does not always coincide with the point (principal point) where the optical axis intersects the projection surface, it is necessary to correct the deviation by translating the position of the image position measuring device. As shown in FIG. 11, a vector from the projection center to the position of the target object on the VT plane is the attention vector. Next, the vector of interest is rotated about the center of rotation of the platform by the same amount as the inclination of the platform. 12
The point where the straight line obtained by extending the vector of interest rotated as described above and the constraint plane intersect is the position of the target object in the three-dimensional space.
Further, by using the vectors up to the four corners of the VT surface instead of the vector of interest, it is possible to calculate the field of view on the constrained plane, which is the imaged range. Next, using the obtained three-dimensional spatial position of the target object as a target point, an angle for controlling the platform so that the target point is imaged at a designated location on the screen, for example, the principal point, is determined. To move to the position of the principal point of the image,
The rotation angles of the two axes of the platform such that the center line of the camera passing through the principal point intersects the target point on the constraining plane as shown in 3 are obtained. In FIG. 13, the angle A is obtained by arc tangent using the distance to the constraining plane and the distance from the Y axis of the target point on the constraining plane. At the same time, the distance d from the center of rotation to the target point is also obtained. The angle B can be obtained by arc cosine using the distance d and the distance from the rotation center of the camera center line. Further, in the case of bringing to a position other than the principal point, the vector a indicating the designated point on the VT plane may be extended from the projection center as shown in FIG. 14, and the rotation angle that intersects with the target point on the constraining plane may be obtained.

【0049】このようにして計算された回転角度になる
ようにサーボ回路20をコントロールする。
The servo circuit 20 is controlled so that the rotation angle thus calculated is obtained.

【0050】次に、実際のパラメータについて説明す
る。これまで述べてきた空間座標の計算や、雲台の回転
角の計算には、投影中心の位置、撮像面の位置、画像位
置計測装置から得られた座標を実際の空間座標に変換す
るための係数などのパラメータがある。これらのパラメ
ータは精度に大きく影響していて、精度を出すためには
正確にパラメータを求めなければならない。ところが、
この種のパラメータには製造上の誤差が必ず含まれる上
に運搬などでずれる可能性もある。さらに動作している
ときにはいろいろな加速度が加わり経時変化や、温度変
化などが考えられる。そのため設計上の値をそのまま使
い続けることは望ましくない。そこで、本発明では、こ
れらのパラメータを、分解等をせずに動作可能状態で実
測することを行なっている。測定方法を以下に示す。
Next, the actual parameters will be described. The calculation of the spatial coordinates described above and the calculation of the rotation angle of the platform are performed in order to convert the position of the projection center, the position of the imaging surface, and the coordinates obtained from the image position measuring device into the actual spatial coordinates. There are parameters such as coefficients. These parameters have a great influence on the accuracy, and it is necessary to accurately obtain the parameters in order to obtain the accuracy. However,
This kind of parameter always contains a manufacturing error and may be displaced during transportation. Further, when it is operating, various accelerations are applied, and it is possible to consider changes over time and changes in temperature. Therefore, it is not desirable to keep using the designed value. Therefore, in the present invention, these parameters are measured in an operable state without disassembling or the like. The measuring method is shown below.

【0051】主点は、ズームを変化させても画像のなか
で移動しない点である。固定対象物体を仮の主点に写る
ようにして、ズームを変化させる。ズームの変化で画像
内で位置が変化したら、それは正しい主点からずれてい
るから仮の主点を変化させ、ズームによらない点をさが
す。
The main point is that it does not move in the image even if the zoom is changed. The zoom is changed so that the fixed target object is imaged at the temporary principal point. When the position changes in the image due to the change in zoom, it is shifted from the correct principal point, so the temporary principal point is changed to find a point not depending on the zoom.

【0052】投影中心と、画像位置計測装置座標の変換
係数は相互に関係していて、どちらかが正確に求まって
いないと他方は求まらない。そのためまず設計値などか
ら仮の座標変換係数と投影中心の位置を決める。対象物
体として拘束平面上に固定された基準点を撮影する。次
に雲台の回転軸を実際に回転させながら、基準点の座標
を計算する。投影中心と座標変換係数を少しずつ変動さ
せながら回転、計算させる。点は固定であるから、計算
結果が回転軸の角度によらず一定となるような値とし
て、正しい投影中心と座標変換係数が求まる。ここでは
まだズームは変化させていない。ズームを変化させると
投影中心の位置は移動するから次に、いま求まった座標
変換係数をつかって、ズームを変化させながら、それぞ
れの焦点距離の対応する投影中心を求める。
The projection center and the conversion coefficient of the coordinates of the image position measuring device are related to each other, and if either one is not accurately found, the other is not. Therefore, first, the temporary coordinate conversion coefficient and the position of the projection center are determined from design values and the like. A reference point fixed on the constraining plane is photographed as a target object. Next, the coordinates of the reference point are calculated while actually rotating the rotation axis of the platform. Rotate and calculate while gradually changing the projection center and the coordinate transformation coefficient. Since the point is fixed, the correct projection center and coordinate conversion coefficient can be obtained as a value that makes the calculation result constant regardless of the angle of the rotation axis. I haven't changed the zoom here yet. Since the position of the projection center moves when the zoom is changed, next, the corresponding projection center of each focal length is obtained while changing the zoom by using the coordinate conversion coefficient just obtained.

【0053】ここで、実際のパラメータの例を示す。レ
ンズのズームはズームリングをモータで回転させること
で変化させ、その回転角度をズーム位置検出用ポテンシ
ョメータ126で電圧として検出して、A/D変換器2
3でディジタルの値として読み込む。したがってコント
ローラが知ることができるのはこのA/D変換器23の
値だけである。投影中心の位置はレンズのズームの関数
である。したがって実際の投影中心の位置を求めるため
にはレンズのズームリングのA/D変換器23の値から
求めなければならない。前に述べたように本発明では、
パラメータは実測を基本としているため、A/D変換器
の値と、投影中心の位置との関係をすべての値について
測定することは非常に多くの時間を使ってしまい現実的
でない。そのためいくつかの点だけを測定し、それらか
ら関係式をもとめることを行なっている。一度関係式の
係数が決まってしまえばすべての点の値をあらかじめ計
算しておくテーブル方式をとることもできるが、この例
では計算機のスピードが十分にあるため、毎回計算を行
なっている。図15にA/D変換器と投影中心の位置の
実測値のグラフを示す。このレンズでは、投影中心の位
置の逆数がA/D変換器の読みの3次式で近似できる。
投影中心の位置の逆数とA/D変換器の読みの関係のグ
ラフを図16に示す。このなかで丸が実測値で曲線はそ
れをもとに作った3次式による曲線である。同様にフォ
ーカスについてもA/D変換器の読みと実際のレンズの
フォーカスの実測値から関係式を求める。距離の逆数と
A/D変換器の関係を図17に示す。この場合は1次式
で関係が表わせる。同様なパラメータの決定手法は、サ
ーボ系にも使っている。前述したように、対象物体の追
尾は対象物体が主点に近ければ、光学系の誤差の影響が
すくなくなり計測精度があがる。したがってサーボ系を
適切に組むことは重要である。光学系に比較してサーボ
系は変動に強いがそれでも、実際の系でパラメータを実
測することは重要である。その様子を次に示す。図18
は水平回転軸のステップ応答(細い実線)と、この実測
値にもっとも近くなるようにパラメータを決定したモデ
ル(太い実線と破線)の特性を示す。これによって求ま
った伝達関数の例を式1に示す。メンテナンスなどでレ
ンズやカメラの一部あるいは全部を交換した場合でも、
このように実際に動作する系の特性を測定しそこからパ
ラメータを決定する手法を用いることで最適な制御が行
なえる。
Here, examples of actual parameters will be shown. The zoom of the lens is changed by rotating the zoom ring with a motor, and the rotation angle is detected as a voltage by the potentiometer 126 for zoom position detection, and the A / D converter 2
It is read as a digital value at 3. Therefore, the controller can know only the value of the A / D converter 23. The position of the center of projection is a function of the zoom of the lens. Therefore, in order to obtain the actual position of the projection center, it must be obtained from the value of the A / D converter 23 of the zoom ring of the lens. As mentioned previously, in the present invention,
Since the parameters are based on actual measurement, it is not realistic to measure the relationship between the value of the A / D converter and the position of the projection center for all values because it takes a lot of time. Therefore, we measure only some points and find the relational expression from them. Once the coefficients of the relational expression have been determined, it is possible to use a table method in which the values of all points are calculated in advance. However, in this example, the calculation is performed every time because the speed of the computer is sufficient. FIG. 15 shows a graph of measured values of the A / D converter and the position of the projection center. In this lens, the reciprocal of the position of the projection center can be approximated by the cubic expression of the reading of the A / D converter.
FIG. 16 is a graph showing the relationship between the reciprocal of the position of the projection center and the reading of the A / D converter. The circle is the measured value, and the curve is the curve based on the cubic formula based on it. Similarly, for the focus, a relational expression is obtained from the reading of the A / D converter and the actual measured value of the focus of the lens. The relationship between the reciprocal of the distance and the A / D converter is shown in FIG. In this case, the relationship can be expressed by a linear expression. The same parameter determination method is used for the servo system. As described above, in tracking a target object, if the target object is close to the principal point, the influence of the error in the optical system is lessened and the measurement accuracy is improved. Therefore, it is important to properly configure the servo system. Although the servo system is more resistant to fluctuations than the optical system, it is still important to actually measure the parameters in the actual system. The situation is shown below. FIG.
Shows the step response of the horizontal rotation axis (thin solid line) and the characteristics of the model (thick solid line and broken line) in which the parameters were determined so as to be the closest to the measured value. An example of the transfer function obtained by this is shown in Expression 1. Even if you replace part or all of the lens or camera for maintenance,
Optimal control can be performed by using the method of measuring the characteristics of the actually operating system and determining the parameters from the characteristics.

【0054】[0054]

【数1】 次に自動追尾制御について説明する。[Equation 1] Next, the automatic tracking control will be described.

【0055】前述したように、テレビカメラのフィール
ド周期は約60Hzすなわち約16.7m秒のため対象
物体の位置も16.7m秒間隔で得られるが、モータを
制御するためには16.7m秒間隔では広すぎるためこ
の例ではそれを4等分した約4m秒間隔で行っている。
具体的には回転角を検出するポテンショメータの値を読
み込み、その値と目標値との差をもとにPID制御でモ
ータに指令を送るのが4m秒間隔である。前述のように
この目標値は対象物体の動きをもとに16.7m秒間隔
のデータから推定している。ヘッドの制御はこの雲台制
御以外に、レンズのズーム、フォーカスなどがある。図
19、図20にフローチャートの1例を示す。
As described above, since the field cycle of the television camera is about 60 Hz, that is, about 16.7 msec, the position of the target object can be obtained at 16.7 msec intervals, but in order to control the motor, 16.7 msec. Since the interval is too wide, in this example, it is divided into four equal intervals at about 4 msec intervals.
Specifically, the value of the potentiometer for detecting the rotation angle is read, and the command is sent to the motor by PID control based on the difference between the value and the target value at intervals of 4 msec. As described above, this target value is estimated from the data at 16.7 msec intervals based on the movement of the target object. In addition to this pan head control, head control includes lens zoom and focus. 19 and 20 show an example of the flowchart.

【0056】初期設定が終わり自動追尾動作に入ると、
まず画像位置計測装置から対象物体の位置を読み取る。
画像位置計測装置のデータはテレビカメラのフィールド
周期で得られ、これを時間タイミングの基準にしている
(タイマーリセット)。また一方でモータの制御のため
回転角のポテンショメータを読み込みPID制御の計算
をしてモータに指令を出す。このときの目標値は前回の
計算で得られた4つの目標値の最後の値を使う。画像位
置計測装置からの情報と、ポテンショメータの値から対
象物体の3次元空間での位置を計算する。対象物体の動
きに雲台の性能が追い付かない場合も考えられるため、
対象物体が画面にあるかどうかの判断を行なう。対象物
体が画面内にある場合は、4m秒間隔の目標値4つを対
象物体の運動法則から予測する。この例では単純に1次
外挿補完によっている。この目標値へカメラの向きを合
わせるための雲台の回転角度を4組計算する。この回転
角度がモータへの目標値となる。雲台の回転角度がわか
ると、その角度がそのシステムの動特性で可能なのかど
うかが判断できる。もしシステムの動特性よりも対象物
体の動きが早く、そのままでは画面からはみ出すことが
わかった場合は、ズームを広角側に移動させ、見える範
囲を広くすることで見失うことをさける。そうでない場
合は、対象物体とカメラの距離から、対象物体の大きさ
がほぼ同じになるようにズームの位置を計算する。また
同様にしてフォーカスの位置を距離に合わせて計算す
る。これらの値は雲台の時と同じで、目標値となり、制
御はこの目標に合わせるように行う。これで1つの画像
からのデータによる計算は終わりであとは4m秒ごとに
モータをコントロールするだけである。
When the initial setting is completed and the automatic tracking operation is started,
First, the position of the target object is read from the image position measuring device.
The data of the image position measuring device is obtained in the field cycle of the TV camera, and this is used as the reference of the time timing (timer reset). On the other hand, in order to control the motor, the potentiometer for the rotation angle is read, the PID control is calculated, and a command is issued to the motor. As the target value at this time, the last value of the four target values obtained in the previous calculation is used. The position of the target object in the three-dimensional space is calculated from the information from the image position measuring device and the value of the potentiometer. Since the performance of the platform may not catch up with the movement of the target object,
Determine whether the target object is on the screen. When the target object is on the screen, four target values at 4 msec intervals are predicted from the law of motion of the target object. In this example, linear extrapolation is simply used. Four sets of rotation angles of the platform for adjusting the camera direction to this target value are calculated. This rotation angle becomes the target value for the motor. Knowing the angle of rotation of the platform allows us to determine if that angle is possible due to the dynamics of the system. If it is found that the target object moves faster than the dynamic characteristics of the system, and if it goes out of the screen as it is, move the zoom to the wide-angle side to widen the visible range to avoid losing sight. Otherwise, the zoom position is calculated from the distance between the target object and the camera so that the size of the target object is almost the same. Similarly, the focus position is calculated according to the distance. These values are the same as for the platform, and are the target values, and the control is performed to match this target. This completes the calculation with the data from one image and only controls the motor every 4 ms.

【0057】以上は対象物が映像内にあった場合である
が、もし対象物が見つからなかったときは、以下のよう
な処理を行なう。対象物が見えない時間によって2種類
の処理が考えられる。これは、本当に見失った場合と、
たまたまなんらかの原因、たとえばカメラの前を障害物
が一瞬横切った場合などで一瞬見えなくなった場合の2
通りに対応する。対象物体が見えない時間は、フイール
ド周波数の16・7m秒を単位として計るのが簡単であ
る。隠れた時間が短い場合は、今までの対象物体の動き
から対象物体の位置を予測して、そこに対象物体がある
ものとして制御し、同時にズームを若干広角にし、予測
の範囲を広げる。また隠れている時間が長い場合は、見
失ったと判断し、あらかじめ設定しておいたアルゴリズ
ムにしたがった処理を行なう。例えば、きめられた範囲
をスキャンして自動的に対象物体をさがす動作や、見失
った時点で静止する、あるいは原点に復帰するなど、の
処理が考えられる。実際の計算スピードは、浮動小数点
コプロセッサを使ったシステムではマイクロコンピュー
タを使っても計算には2〜3ミリ秒である。したがっ
て、1フィールドのなかの4m秒単位の処理では、3つ
はこれに関する処理は何もしないで時間の経過を待つだ
けになる。処理が4m秒以内であることが確定している
処理であればこのなかで行なうことができる。この例で
は、得られた3次元情報を外部に伝えるための通信処理
を行なっている。
The above is the case where the object is in the image, but if the object is not found, the following processing is performed. Two types of processing are possible depending on the time during which the object is invisible. This is when you really lose sight,
It happens for some reason, for example, when an obstacle crosses the front of the camera for a moment and it disappears for a moment. 2
Correspond to the street. The time during which the target object cannot be seen is easy to measure in units of the field frequency of 16.7 ms. If the hidden time is short, the position of the target object is predicted from the movement of the target object up to now, and the target object is controlled to be there, and at the same time, the zoom is slightly widened to widen the prediction range. If the hidden time is long, it is determined that the user has lost sight of it, and the process according to the preset algorithm is performed. For example, a process of scanning a set range to automatically search for a target object, stopping at the time of losing sight, or returning to the origin can be considered. The actual calculation speed is 2 to 3 milliseconds for calculation in a system using a floating point coprocessor, even if a microcomputer is used. Therefore, in the processing in the unit of 4 msec in one field, the three do not perform any processing relating to this and just wait for the passage of time. If it is determined that the processing is within 4 ms, the processing can be performed in this. In this example, communication processing for transmitting the obtained three-dimensional information to the outside is performed.

【0058】(第二実施例)第一実施例では自動追尾の
カメラヘッドを使った映像データの取り込みを行った
が、対象物体によっては、背景から抜き出すのが難しい
ものもある。そのような対象物体では自動追尾とすると
ノイズなどの影響が大きくなってかえって精度が落ちる
こともある。そのため、同様なヘッドを使い人間が、対
象物体を追いかける方法がある。カメラを動かすのに、
第一の実施例のカメラヘッドをそのまま使って、モニタ
ーを見ながらリモコン操作で人間が対象物体を追いかけ
る方法もある。しかし、人間が対象物体を追いかける場
合は、モニター画面も使うがそれ以外の情報、たとえば
直接見た動きや、周りの状況などを使って総合的な判断
で追いかける場合がほとんどである。そのためリモコン
操作ではなく実際にカメラの場所に人間がいて直接カメ
ラを操作するほうが追尾能力が高くなる。したがって、
人間が操作するのに適したカメラを使ってそのカメラの
回転軸とレンズに角度などのセンサーを取り付けるほう
がよい。この場合、対象物体の画像内での位置は検出で
きないため対象物体の正確な3次元位置を計算すること
はできない。しかし、カメラの向きや、画角などで、3
次元空間でのそのカメラの視野は計算できる。また、通
常対象物体は視野の中心付近となるように撮影すると考
えられるから、たとえば視野の中心の座標計算し、それ
によってフォーカスなどのコントロールを自動化するこ
とも考えられる。
(Second Embodiment) In the first embodiment, the image data is captured by using the camera head for automatic tracking, but it may be difficult to extract it from the background depending on the target object. When such an object is automatically tracked, the influence of noise or the like may increase and the accuracy may deteriorate. Therefore, there is a method in which a person uses the same head to chase the target object. To move the camera
There is also a method in which a person follows a target object by using the camera head of the first embodiment as it is and operating the remote control while looking at the monitor. However, when a human chases an object, he or she also uses a monitor screen, but in most cases, he or she makes a comprehensive judgment by using other information, such as the movement seen directly or the surrounding situation. Therefore, the tracking ability becomes higher when a person is actually at the camera and directly operates the camera instead of operating the remote controller. Therefore,
It is better to use a camera suitable for human operation and attach sensors such as angle to the rotation axis and lens of the camera. In this case, since the position of the target object in the image cannot be detected, the accurate three-dimensional position of the target object cannot be calculated. However, depending on the orientation of the camera and the angle of view,
The field of view of the camera in dimensional space can be calculated. Further, since it is considered that the target object is usually photographed so as to be in the vicinity of the center of the visual field, it is also possible to calculate the coordinates of the center of the visual field and automate the control such as focus according to the calculation.

【0059】[0059]

【発明の効果】以上説明したように、本発明では、移動
物体の計測装置において、(1)移動物体の計測精度を
高くすることができる、(2)カメラ装置ごとに異なる
移動物体の3次元空間位置座標を求めるためのパラメー
タをその場で求めることができる、(3)カメラヘッド
の自動追尾制御を正確にかつ滑らかにすることができ
る、(4)計測すべき移動物体を背景から正確に取り出
すことができる効果がある。
As described above, according to the present invention, in the moving object measuring apparatus, (1) the measuring accuracy of the moving object can be increased, and (2) the three-dimensional moving object which is different for each camera device. The parameters for obtaining the spatial position coordinates can be obtained on the spot, (3) the automatic tracking control of the camera head can be accurately and smoothly performed, and (4) the moving object to be measured can be accurately obtained from the background. There is an effect that can be taken out.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明第一実施例の画像処理装置の全体構成の
一例を示すブロック図。
FIG. 1 is a block diagram showing an example of the overall configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】本発明第一実施例の移動物体を撮影する様子を
示す図。
FIG. 2 is a diagram showing a manner of photographing a moving object according to the first embodiment of the present invention.

【図3】本発明第一実施例のカメラヘッドの全体構成の
概念図を示す図。
FIG. 3 is a diagram showing a conceptual diagram of the overall configuration of a camera head of a first embodiment of the present invention.

【図4】カメラヘッドの詳細構成を示す図。FIG. 4 is a diagram showing a detailed configuration of a camera head.

【図5】カメラヘッドにおけるビデオカメラ、ズームレ
ンズ、電動雲台の構成を示す図。
FIG. 5 is a diagram showing a configuration of a video camera, a zoom lens, and an electric pan head in the camera head.

【図6】カメラヘッドの座標系を説明する図。FIG. 6 is a diagram illustrating a coordinate system of a camera head.

【図7】カメラの撮像面と座標系との関係を説明する
図。
FIG. 7 is a diagram illustrating a relationship between an image pickup surface of a camera and a coordinate system.

【図8】ピンホールカメラモデルによる被写体の投影関
係を説明する図。
FIG. 8 is a diagram illustrating a projection relationship of a subject by a pinhole camera model.

【図9】ズームレンズによる被写体の投影関係を説明す
る図。
FIG. 9 is a diagram illustrating a projection relationship of a subject by a zoom lens.

【図10】画像位置計測装置による被写体のVT面への
変換を説明する図。
FIG. 10 is a diagram for explaining conversion of a subject into a VT plane by the image position measuring device.

【図11】被写体の注目ベクトルを説明する図。FIG. 11 is a diagram illustrating an attention vector of a subject.

【図12】注目ベクトルと拘束平面上の被写体との関係
を説明する図。
FIG. 12 is a diagram for explaining a relationship between a vector of interest and a subject on a constraint plane.

【図13】被写体の3次元空間座標の演算を説明する
図。
FIG. 13 is a diagram illustrating calculation of three-dimensional spatial coordinates of a subject.

【図14】被写体の3次元空間座標の演算を説明する
図。
FIG. 14 is a diagram for explaining calculation of three-dimensional spatial coordinates of a subject.

【図15】A/D変換器の値と投影中心の位置との関係
の実測値例を示す図。
FIG. 15 is a diagram showing an example of actually measured values of the relationship between the value of the A / D converter and the position of the projection center.

【図16】A/D変換器の値と投影中心の位置の逆数と
の関係の例を示す図。
FIG. 16 is a diagram showing an example of the relationship between the value of the A / D converter and the reciprocal of the position of the projection center.

【図17】距離の逆数とA/D変換器の値との関係の例
を示す図。
FIG. 17 is a diagram showing an example of the relationship between the reciprocal of the distance and the value of the A / D converter.

【図18】水平回転軸のステップ応答の実測値とこの実
測値に近くなるように決定されたパラメータによるモデ
ルの特性を示す図。
FIG. 18 is a diagram showing the characteristics of the model based on the measured values of the step response of the horizontal rotation axis and the parameters determined so as to be close to the measured values.

【図19】カメラヘッドの制御フローチャート例を示す
図。
FIG. 19 is a diagram showing an example of a control flowchart of the camera head.

【図20】カメラヘッドの制御フローチャート例を示す
図。
FIG. 20 is a diagram showing an example of a control flowchart of a camera head.

【符号の説明】[Explanation of symbols]

1 カメラヘッド 2 データ記録部 3 動画像編集部 4 タイムベースユニット 5 ストップウォッチ 11 ビデオカメラ 12 ズームレンズ 13 電動雲台 14 ヘッドコントローラ 15 画像処理装置 16 位置演算装置 17 駆動制御装置 20 サーボ回路 21 学習型色抽出装置 22 画像位置計測装置 23 A/D変換器 24 D/A変換器 26 空間座標計算回路 27 移動予測回路 28 カメラの方向計算回路 30 カメラの方向決定回路 31 ズーム量決定回路 32 フォーカス決定回路 33 モータの制御回路 34 インタフェース 36 確認用TVモニタ 37 操作用TVモニタ 38 制御用端末装置 121 アイリス駆動用モータ 122 アイリス位置検出用ポテンショメータ 123 フォーカス駆動用モータ 124 フォーカス位置検出用ポテンショメータ 125 ズーム駆動用モータ 126 ズーム位置検出用ポテンショメータ 131 雲台水平軸駆動用モータ 132 雲台水平軸位置検出用ポテンショメータ 133 雲台垂直軸駆動用モータ 134 雲台垂直軸位置検出用ポテンショメータ 201〜205 位置制御サーボ回路 1 camera head 2 data recording unit 3 moving image editing unit 4 time base unit 5 stopwatch 11 video camera 12 zoom lens 13 electric pan head 14 head controller 15 image processing device 16 position calculation device 17 drive control device 20 servo circuit 21 learning type Color extraction device 22 Image position measurement device 23 A / D converter 24 D / A converter 26 Spatial coordinate calculation circuit 27 Movement prediction circuit 28 Camera direction calculation circuit 30 Camera direction determination circuit 31 Zoom amount determination circuit 32 Focus determination circuit 33 Motor Control Circuit 34 Interface 36 TV Monitor for Confirmation 37 TV Monitor for Operation 38 Control Terminal Device 121 Iris Drive Motor 122 Iris Position Detection Potentiometer 123 Focus Drive Motor 124 Focus Position Detection Tensioner 125 Zoom drive motor 126 Zoom position detection potentiometer 131 Pan head horizontal axis drive motor 132 Pan head horizontal axis position detection potentiometer 133 Pan head vertical axis drive motor 134 Pan head vertical axis position detection potentiometer 201-205 Position control servo circuit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 移動物体を撮像する撮像手段と、 この撮像手段の撮像方向および撮像範囲を設定する駆動
手段と、 前記撮像手段により得られた映像信号に含まれる移動物
体の画像内の位置を演算により求める画像処理手段と、 この画像処理手段により求めた画像内の位置とその映像
信号を得たときの撮像手段の撮像方向および撮像範囲に
関する情報とからその移動物体の実空間内座標を演算に
より求める位置演算手段とを備えた移動物体の計測装置
において、 前記位置演算手段は、 前記撮像手段のカメラのレンズの投影中心を設定し、こ
の投影中心を点対称として撮像された移動物体の被写体
を撮像素子面と点対称の位置にある投映面上の位置に変
換する手段と、 この変換する手段で変換された画像の被写体までの前記
投影中心からのベクトルを設定しこのベクトルより移動
物体の存在する拘束平面までの距離と前記カメラの回転
角に基づいて対象物体の3次元空間座標を演算する手段
とを含むことを特徴とする移動物体の計測装置。
1. An image pickup unit for picking up an image of a moving object, a drive unit for setting an image pickup direction and an image pickup range of the image pickup unit, and a position in an image of the moving object included in a video signal obtained by the image pickup unit. The coordinates in the real space of the moving object are calculated from the image processing means obtained by calculation, the position in the image obtained by the image processing means, and the information on the image pickup direction and the image pickup range of the image pickup means when the video signal is obtained. In the apparatus for measuring a moving object, the position calculating means sets a projection center of a lens of the camera of the imaging means, and the object of the moving object imaged with the projection center as point symmetry. To a position on the projection surface that is point-symmetrical to the image sensor surface, and a vector from the projection center up to the subject of the image converted by this conversion means. A moving object measuring apparatus, which includes means for setting a torque and calculating a three-dimensional spatial coordinate of the target object based on the distance from the vector to the constraining plane where the moving object exists and the rotation angle of the camera. .
【請求項2】 移動物体を撮像する撮像手段と、 この撮像手段の撮像方向および撮像範囲を設定する駆動
手段と、 前記撮像手段により得られた映像信号に含まれる移動物
体の画像内の位置を演算により求める画像処理手段と、 この画像処理手段により求めた画像内の位置とその映像
信号を得たときの撮像手段の撮像方向および撮像範囲に
関する情報とからその移動物体の実空間内座標を演算に
より求める位置演算手段とを備えた移動物体の計測装置
において、 前記撮像手段のカメラのレンズの中心位置である画像の
投影中心の位置および移動物体の3次元空間座標を演算
するに必要な変換用変数を仮の値として決めて拘束平面
上に固定されその空間位置座標が分かっている基準点を
撮像してその空間位置座標を演算する手段と、 演算結果に基づいてカメラの投影中心および前記変換用
変数を少しずつ変動させながら再度基準点を撮像して投
影中心および変換用変数を求める手段とを備えることを
特徴とする移動物体の計測装置。
2. An image pickup means for picking up an image of a moving object, a driving means for setting an image pickup direction and an image pickup range of the image pickup means, and a position in an image of the moving object included in a video signal obtained by the image pickup means. The coordinates in the real space of the moving object are calculated from the image processing means obtained by calculation, the position in the image obtained by the image processing means, and the information on the image pickup direction and the image pickup range of the image pickup means when the video signal is obtained. In the measuring device for a moving object, the position of the projection center of the image, which is the central position of the lens of the camera of the image pickup means, and the three-dimensional spatial coordinates of the moving object are calculated. A means for calculating the spatial position coordinates by imaging a reference point that is fixed on the constraining plane and whose spatial position coordinates are known by setting a variable as a temporary value. Measuring device of the moving object, characterized in that it comprises means for the camera projection center and said conversion variables little by little by imaging again reference point while changing seeking projection center and conversion variables Zui.
【請求項3】 移動物体を撮像する撮像手段と、 この撮像手段の撮像方向および撮像範囲を設定する駆動
手段と、 前記撮像手段により得られた映像信号に含まれる移動物
体の画像内の位置を演算により求める画像処理手段と、 この画像処理手段により求めた画像内の位置とその映像
信号を得たときの撮像手段の撮像方向および撮像範囲に
関する情報とからその移動物体の実空間内座標を演算に
より求める位置演算手段とを備えた移動物体の計測装置
において、 前記撮像手段の駆動手段を複数の動作点について動作さ
せ、その駆動手段の駆動量を電気信号として得る手段を
備え、 前記位置演算手段は、この得られた複数の動作点での電
気信号と、カメラのレンズの投影中心位置との関係を求
め、その複数動作点における関係に基づいて投影中心位
置と駆動量との関係式を求め対象移動物体の3次元空間
座標を演算する手段を含むことを特徴とする移動物体の
計測装置。
3. An image pickup means for picking up an image of a moving object, a driving means for setting an image pickup direction and an image pickup range of the image pickup means, and a position in an image of the moving object included in a video signal obtained by the image pickup means. The coordinates in the real space of the moving object are calculated from the image processing means obtained by calculation, the position in the image obtained by the image processing means, and the information on the image pickup direction and the image pickup range of the image pickup means when the video signal is obtained. In the apparatus for measuring a moving object, the position calculating means is provided with means for operating the driving means of the imaging means for a plurality of operating points and obtaining the drive amount of the driving means as an electric signal. Calculates the relationship between the obtained electrical signals at the multiple operating points and the projection center position of the camera lens, and performs projection based on the relationship at the multiple operating points. Position and measuring device of the moving object, characterized in that it comprises a means for calculating the three-dimensional coordinates of the target moving object obtained relation expression between the drive quantity.
【請求項4】 移動物体を撮像する撮像手段と、 この撮像手段の撮像方向および撮像範囲を設定する駆動
手段と、 前記撮像手段により得られた映像信号に含まれる移動物
体の画像内の位置を演算により求める画像処理手段と、 この画像処理手段により求めた画像内の位置とその映像
信号を得たときの撮像手段の撮像方向および撮像範囲に
関する情報とからその移動物体の実空間内座標を演算に
より求める位置演算手段と、 得られた移動物体の実空間内座標に基づいてその移動物
体の移動方向を予測する移動予測手段と、 この予測手段により前記駆動手段の制御を行う駆動制御
手段とを備えた移動物体の計測装置において、 前記移動予測手段は、前記位置演算手段の位置演算の間
隔より短い時間間隔で移動物体の位置を複数回予測する
手段を含み、 前記駆動制御手段は、前記位置演算手段の演算間隔より
短い時間間隔で前記駆動手段に前記予測された位置の値
に基づく制御目標値を与える手段を含むことを特徴とす
る移動物体の計測装置。
4. An image pickup means for picking up an image of a moving object, a driving means for setting an image pickup direction and an image pickup range of the image pickup means, and a position in an image of the moving object included in a video signal obtained by the image pickup means. The coordinates in the real space of the moving object are calculated from the image processing means obtained by calculation, the position in the image obtained by the image processing means, and the information on the image pickup direction and the image pickup range of the image pickup means when the video signal is obtained. A position calculation means for calculating the moving direction of the moving object based on the obtained coordinates in the real space of the moving object, and a drive control means for controlling the driving means by the predicting means. In the moving object measuring device provided with, the movement predicting means includes means for predicting a position of the moving object a plurality of times at a time interval shorter than an interval of position calculation of the position calculating means. In addition, the drive control means includes means for giving a control target value based on the predicted position value to the drive means at a time interval shorter than the calculation interval of the position calculation means. apparatus.
【請求項5】 移動物体を撮像する撮像手段と、 この撮像手段の撮像方向および撮像範囲を設定する駆動
手段と、 前記撮像手段により得られた映像信号に含まれる移動物
体の画像内の位置を演算により求める画像処理手段と、 この画像処理手段により求めた画像内の位置とその映像
信号を得たときの撮像手段の撮像方向および撮像範囲に
関する情報とからその移動物体の実空間内座標を演算に
より求める位置演算手段とを備えた移動物体の計測装置
において、 前記撮像手段はカラーカメラを含み、 画像処理手段は、撮像された画像内から計測対象の移動
物体を背景から色によって分離する色抽出手段を含むこ
とを特徴とする移動物体の計測装置。
5. An image pickup means for picking up an image of a moving object, a driving means for setting an image pickup direction and an image pickup range of the image pickup means, and a position in an image of the moving object included in a video signal obtained by the image pickup means. The coordinates in the real space of the moving object are calculated from the image processing means obtained by calculation, the position in the image obtained by the image processing means, and the information on the image pickup direction and the image pickup range of the image pickup means when the video signal is obtained. In the measuring device for moving objects, the image pickup means includes a color camera, and the image processing means extracts color from the background of the moving object to be measured from the captured image. A moving object measuring apparatus comprising means.
【請求項6】 移動物体を撮像する撮像手段と、 この撮像手段の撮像方向および撮像範囲を設定する駆動
手段と、 前記撮像手段により得られた映像信号に含まれる移動物
体の画像内の位置を演算により求める画像処理手段と、 この画像処理手段により求めた画像内の位置とその映像
信号を得たときの撮像手段の撮像方向および撮像範囲に
関する情報とからその移動物体の実空間内座標を演算に
より求める位置演算手段と、 得られた移動物体の実空間内座標に基づいてその移動物
体の移動方向を予測する移動予測手段と、 この予測手段により前記駆動手段の制御を行う駆動制御
手段とを備えた移動物体の計測装置において、 前記駆動制御手段は、前記撮像手段の撮像範囲での照度
分布あるいはホワイトバランス分布情報をあらかじめ得
ておき、この情報に基づき前記駆動手段を制御して撮像
手段のカメラ装置の絞りあるいはホワイトバランスを調
整する手段を含むことを特徴とする移動物体の計測装
置。
6. An image pickup means for picking up an image of a moving object, a driving means for setting an image pickup direction and an image pickup range of the image pickup means, and a position in an image of the moving object included in a video signal obtained by the image pickup means. The coordinates in the real space of the moving object are calculated from the image processing means obtained by calculation, the position in the image obtained by the image processing means, and the information on the image pickup direction and the image pickup range of the image pickup means when the video signal is obtained. A position calculation means for calculating the moving direction of the moving object based on the obtained coordinates in the real space of the moving object, and a drive control means for controlling the driving means by the predicting means. In the moving object measuring device, the drive control means may obtain in advance illuminance distribution or white balance distribution information in the imaging range of the imaging means. A measuring device for a moving object, comprising means for controlling the drive means based on this information to adjust the aperture or white balance of the camera device of the image pickup means.
JP26122393A 1993-06-10 1993-10-19 Measuring device for moving objects Expired - Fee Related JP3388833B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP26122393A JP3388833B2 (en) 1993-10-19 1993-10-19 Measuring device for moving objects
US08/381,864 US5764786A (en) 1993-06-10 1994-06-10 Moving object measurement device employing a three-dimensional analysis to obtain characteristics of the moving object
EP94917790A EP0662600A4 (en) 1993-06-10 1994-06-10 Apparatus for measuring position of moving object.
PCT/JP1994/000934 WO1994029670A1 (en) 1993-06-10 1994-06-10 Apparatus for measuring position of moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26122393A JP3388833B2 (en) 1993-10-19 1993-10-19 Measuring device for moving objects

Publications (2)

Publication Number Publication Date
JPH07114642A true JPH07114642A (en) 1995-05-02
JP3388833B2 JP3388833B2 (en) 2003-03-24

Family

ID=17358858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26122393A Expired - Fee Related JP3388833B2 (en) 1993-06-10 1993-10-19 Measuring device for moving objects

Country Status (1)

Country Link
JP (1) JP3388833B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365018A (en) * 2001-06-05 2002-12-18 Hamamatsu Photonics Kk Measurement apparatus of moving object
JP2005216070A (en) * 2004-01-30 2005-08-11 Fujitsu Ltd Photographic condition setting program, photographic condition setting method, and photographic condition setting device
JP2006229322A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
WO2007043452A1 (en) * 2005-10-12 2007-04-19 Pioneer Corporation Vehicle-mounted imaging device and method of measuring imaging/movable range
JP2007274703A (en) * 2002-11-27 2007-10-18 Bosch Security Systems Inc Video tracing system and method
JP2010117856A (en) * 2008-11-12 2010-05-27 Nippon Telegr & Teleph Corp <Ntt> Time series parameter estimating device, time series parameter estimation method, and time series parameter estimation program
US9417688B2 (en) 2014-01-29 2016-08-16 Ricoh Company, Ltd. Measurement method, measurement device, projection apparatus, and computer-readable recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365018A (en) * 2001-06-05 2002-12-18 Hamamatsu Photonics Kk Measurement apparatus of moving object
JP2007274703A (en) * 2002-11-27 2007-10-18 Bosch Security Systems Inc Video tracing system and method
US9876993B2 (en) 2002-11-27 2018-01-23 Bosch Security Systems, Inc. Video tracking system and method
JP2005216070A (en) * 2004-01-30 2005-08-11 Fujitsu Ltd Photographic condition setting program, photographic condition setting method, and photographic condition setting device
US7630515B2 (en) 2004-01-30 2009-12-08 Fujitsu Limited Method of and apparatus for setting image-capturing conditions, and computer program
JP2006229322A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
JP4699040B2 (en) * 2005-02-15 2011-06-08 パナソニック株式会社 Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
WO2007043452A1 (en) * 2005-10-12 2007-04-19 Pioneer Corporation Vehicle-mounted imaging device and method of measuring imaging/movable range
JPWO2007043452A1 (en) * 2005-10-12 2009-04-16 パイオニア株式会社 On-vehicle imaging device and imaging movable range measurement method of on-vehicle camera
JP2010117856A (en) * 2008-11-12 2010-05-27 Nippon Telegr & Teleph Corp <Ntt> Time series parameter estimating device, time series parameter estimation method, and time series parameter estimation program
US9417688B2 (en) 2014-01-29 2016-08-16 Ricoh Company, Ltd. Measurement method, measurement device, projection apparatus, and computer-readable recording medium

Also Published As

Publication number Publication date
JP3388833B2 (en) 2003-03-24

Similar Documents

Publication Publication Date Title
US5812193A (en) Video camera system which automatically follows subject changes
JP4589261B2 (en) Surveillance camera device
JP4858263B2 (en) 3D measuring device
US20090238549A1 (en) Autofocus system
WO1994029670A1 (en) Apparatus for measuring position of moving object
CN111062987A (en) Virtual matrix type three-dimensional measurement and information acquisition device based on multiple acquisition regions
JP3388833B2 (en) Measuring device for moving objects
JP4464902B2 (en) Camera control apparatus and camera control program
JP3631266B2 (en) Measuring device for moving objects
JP3615868B2 (en) Automatic camera system
JP3491029B2 (en) Automatic monitoring device
JP3615867B2 (en) Automatic camera system
JP2018134712A (en) Robot system and control method for robot system
JPH09322053A (en) Image pickup method for object in automatic image pickup camera system
JP4517813B2 (en) Panning camera and video editing program
JPH1023465A (en) Image pickup method and its device
JP2005266520A (en) Imaging apparatus and imaging method
JP2006203504A (en) Image pickup device
JPH10294890A (en) Automatic/manual photographic camera system
JPS6110372A (en) Automatic tracking device in camera
JP2603212B2 (en) Automatic tracking device in camera
JP2605004B2 (en) Automatic tracking device in camera
CN110726407A (en) Positioning monitoring method and device
JP2005175852A (en) Photographing apparatus and method of controlling photographing apparatus
JP2580516B2 (en) Real-time three-dimensional motion measuring apparatus and method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees