JP2001245280A - Camera control system, device, method, and computer- readable storage medium - Google Patents

Camera control system, device, method, and computer- readable storage medium

Info

Publication number
JP2001245280A
JP2001245280A JP2000053205A JP2000053205A JP2001245280A JP 2001245280 A JP2001245280 A JP 2001245280A JP 2000053205 A JP2000053205 A JP 2000053205A JP 2000053205 A JP2000053205 A JP 2000053205A JP 2001245280 A JP2001245280 A JP 2001245280A
Authority
JP
Japan
Prior art keywords
camera
position information
controlling
control function
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000053205A
Other languages
Japanese (ja)
Inventor
Takashi Oya
崇 大矢
Tsuneyoshi Takagi
常好 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000053205A priority Critical patent/JP2001245280A/en
Publication of JP2001245280A publication Critical patent/JP2001245280A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain distance measurement with high accuracy by building up a camera control system which concurrently copes with an applied environment and the wideness of an applied object with economy and conducting zoom control, when measuring a distance up to a photographing object. SOLUTION: A master camera, selected from among cameras 1-1 to 1-4, uses an automatic focusing function and a zooming function for measuring the position of a photographing object 1-12 and transfers the position information to a camera operation terminal 1-10 and other cameras (slave cameras). A camera controller of each slave camera calculates, in which direction the photographing object 1-12 exists, when viewing from each slave camera and controls each slave camera, based on the result of calculation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ制御システ
ム、装置、方法、及びコンピュータ読み取り可能な記憶
媒体関し、複数台のカメラによって同一の撮影対象を追
尾して撮影するに用いて好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera control system, an apparatus, a method, and a computer-readable storage medium, which are suitable for use in tracking and photographing the same photographing target by a plurality of cameras. is there.

【0002】[0002]

【従来の技術】監視カメラシステムや放送メディア用カ
メラシステム等の分野において、複数台のカメラを用い
て同一の撮影対象を追尾するシステムが実用化されてい
る。この種のシステムにおいては、複数台のカメラ全て
の姿勢制御を人間が手動で行うのが一般的であった。
2. Description of the Related Art In the field of surveillance camera systems and broadcast media camera systems, systems for tracking the same object using a plurality of cameras have been put to practical use. In this type of system, it has been common for a person to manually control the attitude of all of a plurality of cameras.

【0003】一方で、市販カメラにおいては、自動合焦
機能を用いて撮影対象までの距離を計測する方式が知ら
れている。
On the other hand, a method of measuring the distance to an object to be photographed using a commercially available camera using an automatic focusing function is known.

【0004】[0004]

【発明が解決しようとする課題】しかし、上記従来例の
ように全てのカメラの制御を人間が手動で行うのでは、
一度に制御できるカメラの個数が限定されてしまい、大
規模なシステムを構築することは不可能であった。
However, if a person manually controls all cameras as in the above-described conventional example,
The number of cameras that can be controlled at one time is limited, making it impossible to construct a large-scale system.

【0005】又、全てのカメラを自動制御する方式も提
案されているが、使用環境や使用対象になんらかの制約
条件が課されることが多く、専用の画像処理ハードウェ
アを使用する高額なシステムとなることが一般的であっ
た。
Although a system for automatically controlling all the cameras has been proposed, some restrictions are often imposed on the use environment and the use object, and expensive systems using dedicated image processing hardware are required. It was common to be.

【0006】一方、自動合焦機能を用いて撮影対象まで
の距離を計測する方式では、ズームを固定している場
合、距離の計測精度が低くなるといった問題があった。
On the other hand, the method of measuring the distance to the object using the automatic focusing function has a problem that when the zoom is fixed, the distance measurement accuracy is reduced.

【0007】本発明は上記のような事情に鑑みてなされ
たものであり、複数台のカメラを個々に手動制御或いは
自動制御するのではなく、手動制御する一のカメラに追
従させて他のカメラを制御することにより、適用環境や
適用対象の広さと経済性とを兼ね備えたシステムを構築
し、さらには撮影対象までの距離計測を行う際にズーム
制御を行うことにより、精度の高い距離計測を可能にす
ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and does not manually control or automatically control a plurality of cameras, but causes one camera to be manually controlled to follow another camera. By controlling the distance between the camera and the target object, a system with both economy and economy can be constructed, and by performing zoom control when measuring the distance to the shooting target, highly accurate distance measurement can be performed. The purpose is to make it possible.

【0008】[0008]

【課題を解決するための手段】本発明のカメラ制御シス
テムは、姿勢制御可能な複数台のカメラと、上記各カメ
ラを制御するカメラ制御手段とを備え、一のカメラから
得られる撮影対象の位置情報を用いて、他のカメラの撮
影方向を制御する構成にしたカメラ制御システムであっ
て、上記一のカメラにおけるズーム制御機能及び焦点制
御機能を用いて、上記撮影対象の位置情報を得る位置情
報取得手段を備えた点に特徴を有する。
A camera control system according to the present invention includes a plurality of cameras whose posture can be controlled, and camera control means for controlling each of the cameras, and a position of a photographing target obtained from one camera. A camera control system configured to control a shooting direction of another camera by using information, wherein position information for obtaining position information of the shooting target by using a zoom control function and a focus control function in the one camera. It is characterized by having an acquisition means.

【0009】又、本発明のカメラ制御システムは、上記
位置情報取得手段は、上記撮影対象に対して上記一のカ
メラのズーム倍率を上げ、自動合焦機能により距離計測
を行い、その距離計測情報と撮影位置及び方位情報とか
ら上記撮影対象の位置情報を得る点に特徴を有する。
Further, in the camera control system according to the present invention, the position information acquiring means increases a zoom magnification of the one camera with respect to the object to be photographed, measures a distance by an automatic focusing function, and acquires the distance measurement information. It is characterized in that the above-mentioned position information of the photographing target is obtained from the photographing position and the direction information.

【0010】又、本発明のカメラ制御システムは、上記
複数台のカメラ全てがズーム制御機能及び焦点制御機能
を有する点に特徴を有する。
A camera control system according to the present invention is characterized in that all of the plurality of cameras have a zoom control function and a focus control function.

【0011】又、本発明のカメラ制御システムは、上記
複数台のカメラのうち任意の1台を上記一のカメラとし
て選択可能にした点に特徴を有する。
The camera control system according to the present invention is characterized in that any one of the plurality of cameras can be selected as the one camera.

【0012】又、本発明のカメラ制御システムは、上記
他のカメラにおけるズーム制御機能及び焦点制御機能を
用いて、上記撮影対象の位置情報を得る他の位置情報取
得手段を備えた点に特徴を有する。
Further, the camera control system of the present invention is characterized in that the camera control system further includes another position information acquiring means for obtaining the position information of the object to be photographed by using the zoom control function and the focus control function of the another camera. Have.

【0013】本発明のカメラ制御装置は、姿勢制御可能
なカメラを制御するカメラ制御装置であって、上記姿勢
制御可能なカメラのズーム制御機能及び焦点制御機能を
用いて、撮影対象の位置情報を得る位置情報取得手段
と、上記位置情報取得手段により得られた上記撮影対象
の位置情報を、他の姿勢制御可能なカメラを制御するた
めの情報として外部に送信する送信手段とを備えた点に
特徴を有する。
A camera control device according to the present invention is a camera control device for controlling a camera capable of controlling a posture, and uses a zoom control function and a focus control function of the camera capable of controlling a posture to obtain position information of an object to be photographed. Position information obtaining means for obtaining, and a transmitting means for transmitting the position information of the photographing target obtained by the position information obtaining means to the outside as information for controlling another posture-controllable camera. Has features.

【0014】又、本発明のカメラ制御装置は、上記位置
情報取得手段は、上記撮影対象に対して上記カメラのズ
ーム倍率を上げ、自動合焦機能により距離計測を行い、
その距離計測情報及び撮影位置情報から上記撮影対象の
位置情報を得る点に特徴を有する。
Further, in the camera control device according to the present invention, the position information acquiring means increases a zoom magnification of the camera with respect to the object to be photographed, and measures a distance by an automatic focusing function.
It is characterized in that the position information of the photographing target is obtained from the distance measurement information and the photographing position information.

【0015】又、本発明のカメラ制御装置は、ズーム倍
率の上昇に制限を課すズーム制限手段を備えた点に特徴
を有する。
Further, the camera control device according to the present invention is characterized in that the camera control device is provided with zoom limiting means for imposing a limit on an increase in zoom magnification.

【0016】本発明のカメラ制御方法は、複数台のカメ
ラのうち一のカメラから得られる撮影対象の位置情報を
用いて、他のカメラの撮影方向を制御するカメラ制御方
法であって、上記一のカメラにおけるズーム制御機能及
び焦点制御機能を用いて、上記撮影対象の位置情報を得
る手順を有する点に特徴を有する。
A camera control method according to the present invention is a camera control method for controlling a shooting direction of another camera using position information of a shooting target obtained from one of a plurality of cameras. It is characterized in that the method has a procedure for obtaining the position information of the photographing target by using the zoom control function and the focus control function in the camera.

【0017】又、本発明のカメラ制御方法は、姿勢制御
可能なカメラを制御するカメラ制御方法であって、上記
姿勢制御可能なカメラのズーム制御機能及び焦点制御機
能を用いて、撮影対象の位置情報を得る手順と、上記手
順により得られた上記撮影対象の位置情報を、他の姿勢
制御可能なカメラを制御するための情報として外部に送
信する手順とを有する点に特徴を有する。
A camera control method according to the present invention is a camera control method for controlling a camera capable of controlling a posture, wherein a position of an object to be photographed is determined by using a zoom control function and a focus control function of the camera capable of controlling the posture. It is characterized in that it has a procedure of obtaining information and a procedure of transmitting the position information of the imaging target obtained by the above procedure to the outside as information for controlling another camera capable of controlling the attitude.

【0018】本発明のコンピュータ読み取り可能な記憶
媒体は、複数台のカメラのうち一のカメラから得られる
撮影対象の位置情報を用いて、他のカメラの撮影方向を
制御するためのプログラムを格納したコンピュータ読み
取り可能な記憶媒体であって、上記一のカメラにおける
ズーム制御機能及び焦点制御機能を用いて、上記撮影対
象の位置情報を得る処理を実行するためのプログラムを
格納した点に特徴を有する。
The computer-readable storage medium according to the present invention stores a program for controlling a shooting direction of another camera by using position information of a shooting target obtained from one of a plurality of cameras. A computer-readable storage medium characterized by storing a program for executing a process of obtaining position information of an imaging target using a zoom control function and a focus control function of the one camera.

【0019】又、本発明のコンピュータ読み取り可能な
記憶媒体は、姿勢制御可能なカメラを制御するためのプ
ログラムを格納したコンピュータ読み取り可能な記憶媒
体であって、上記姿勢制御可能なカメラのズーム制御機
能及び焦点制御機能を用いて、撮影対象の位置情報を得
る処理と、上記処理により得られた上記撮影対象の位置
情報を、他の姿勢制御可能なカメラを制御するための情
報として外部に送信する処理とを実行するプログラムを
格納した点に特徴を有する。
A computer-readable storage medium according to the present invention is a computer-readable storage medium storing a program for controlling a posture-controllable camera, and includes a zoom control function of the posture-controllable camera. And a process of obtaining position information of the photographing target using the focus control function, and transmitting the position information of the photographing target obtained by the above process to the outside as information for controlling another posture-controllable camera. The feature is that a program for executing the processing is stored.

【0020】[0020]

【発明の実施の形態】以下、図面に基づいて、本発明の
実施の形態について説明する。 (第1の実施の形態)第1の実施の形態では、複数台の
カメラの姿勢(撮影方向)を外部制御可能にしたカメラ
制御システムにおいて、1つのカメラを選択して撮影対
象の撮影及び撮影対象の位置計測を行う。そして、当該
撮影対象の位置情報を他のカメラに送信して当該他のカ
メラを制御することにより、これら複数台のカメラが同
時に同一の撮影対象を撮影するカメラ制御システムを構
築する。又、撮影対象の位置計測の際に、ズーム制御及
びフォーカス制御を用いることにより、その計測精度を
向上させる。以下では、本実施の形態のハードウェア構
成、制御原理、及び処理手順について説明する。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) In a first embodiment, in a camera control system in which postures (shooting directions) of a plurality of cameras can be externally controlled, one camera is selected to shoot and shoot a shooting target. Measure the position of the target. Then, by transmitting the position information of the imaging target to another camera and controlling the other camera, a camera control system in which the plurality of cameras simultaneously shoot the same imaging target is constructed. In addition, when the position of the object to be photographed is measured, the accuracy of the measurement is improved by using zoom control and focus control. Hereinafter, a hardware configuration, a control principle, and a processing procedure of the present embodiment will be described.

【0021】図1は、本実施の形態のカメラ制御システ
ムのハードウェア構成を示すブロック図である。カメラ
モジュールは、姿勢制御可能なカメラ及びカメラ制御装
置が対となり、複数の組のカメラ1-1〜1-4及びカメラ制
御装置1-5〜1-8がネットワーク1-9に接続する構成とな
っている。なお、図1には4組のカメラモジュールを示
すが、少なくとも2組以上あれば何組であってもよい。
FIG. 1 is a block diagram showing a hardware configuration of the camera control system according to the present embodiment. The camera module has a configuration in which a camera and a camera control device capable of attitude control are paired, and a plurality of sets of cameras 1-1 to 1-4 and camera control devices 1-5 to 1-8 are connected to a network 1-9. Has become. Although FIG. 1 shows four camera modules, any number of camera modules may be used as long as at least two or more camera modules are provided.

【0022】ネットワーク1-9にはカメラ操作端末1-10
が接続され、オペレータ1-11は、ネットワーク1-9を通
じて同時に一又は複数のカメラ1-1〜1-4の映像を見るこ
とができ、そのうち1つのカメラモジュールの手動制御
を行うことができる。ここでは、ネットワーク1-9とし
てLANを想定するが、EtherNet、ATM、C/FDDI等その伝送
方式に依存するものではない。
A camera operation terminal 1-10 is connected to the network 1-9.
Is connected, and the operator 1-11 can simultaneously watch images of one or more cameras 1-1 to 1-4 through the network 1-9, and can manually control one of the camera modules. Here, a LAN is assumed as the network 1-9, but does not depend on the transmission method such as EtherNet, ATM, C / FDDI, and the like.

【0023】各カメラ制御装置1-5〜1-8には、映像ソフ
トウェアとカメラ制御ソフトウェアとが搭載されてい
る。映像ソフトウェアは、各カメラ1-1〜1-4から映像信
号を取り込み、ネットワーク1-9に送信する機能を有す
る。又、カメラ制御ソフトウェアは、カメラに割り当て
られた役割に応じてカメラの姿勢を直接制御する機能
と、撮影対象1-12の位置情報を与えたときに、当該撮影
対象1-12が視野に入るよう姿勢制御を行う機能と、撮影
対象1-12の位置を計測し、その位置情報をカメラ操作端
末1-10や他のカメラ側に送信する機能とを有する。
Each of the camera control devices 1-5 to 1-8 is equipped with video software and camera control software. The video software has a function of capturing a video signal from each of the cameras 1-1 to 1-4 and transmitting the video signal to the network 1-9. In addition, the camera control software has a function of directly controlling the attitude of the camera according to the role assigned to the camera, and when the position information of the imaging target 1-12 is given, the imaging target 1-12 enters the field of view. And a function of measuring the position of the imaging target 1-12 and transmitting the position information to the camera operation terminal 1-10 and other cameras.

【0024】カメラ操作端末1-10には、カメラモジュー
ルからの映像信号や各種情報の受信や表示、オペレータ
1-11のカメラ切り替え命令やカメラ制御命令の入力、及
びカメラ制御装置1-5〜1-8への転送等の機能を持ったハ
ードウェア及びソフトウェアが搭載されている。
The camera operation terminal 1-10 receives and displays video signals and various information from the camera module,
Hardware and software having a function of inputting a camera switching command and a camera control command of 1-11 and transferring the command to the camera control devices 1-5 to 1-8 are mounted.

【0025】以下、図1に示すカメラ制御システムにお
いて、オペレータ1-11が直接操作を行うカメラを「マス
ターカメラ」と称し、オペレータ1-11が直接操作を行わ
ないカメラを「スレーブカメラ」と称する。全てのカメ
ラモジュールは同一のハードウェア及びソフトウェアに
よって構成され、使用状況に応じてマスターカメラ若し
くはスレーブカメラとしての役割を担うことになる。
Hereinafter, in the camera control system shown in FIG. 1, a camera directly operated by the operator 1-11 is referred to as a "master camera", and a camera not directly operated by the operator 1-11 is referred to as a "slave camera". . All camera modules are constituted by the same hardware and software, and play a role as a master camera or a slave camera depending on the use situation.

【0026】図2には、カメラモジュールのハードウェ
ア構成及びカメラ操作端末のハードウェア構成を示す。
ハードウェアは、図1に示したカメラ1-1〜1-4を構成す
るカメラ2-1と、図1に示したカメラ制御装置1-5〜1-8
を構成するカメラ制御装置2-6とから構成される。
FIG. 2 shows a hardware configuration of the camera module and a hardware configuration of the camera operation terminal.
The hardware includes the camera 2-1 constituting the cameras 1-1 to 1-4 shown in FIG. 1 and the camera control devices 1-5 to 1-8 shown in FIG.
And a camera control device 2-6.

【0027】カメラ2-1は、画像を入力する撮像系2-2
と、撮像の際のカメラパラメータを制御するカメラパラ
メータ制御装置2-3と、姿勢制御装置2-4とを備える。こ
こで、カメラパラメータとは、ズーム、フォーカス、ア
イリス、ゲイン、シャッタスピード、ホワイトバランス
等を制御するのパラメータを指す。
The camera 2-1 has an image pickup system 2-2 for inputting an image.
And a camera parameter control device 2-3 for controlling camera parameters at the time of imaging, and a posture control device 2-4. Here, the camera parameters refer to parameters for controlling zoom, focus, iris, gain, shutter speed, white balance, and the like.

【0028】又、カメラ制御装置2-6は、CPU2-7と、
RAM2-8と、ROM2-9と、二次記憶装置2-10と、I/
O2-11と、モニタ2-13が接続されたビデオキャプチャボ
ード2-12とを備える。又、ネットワーク2-18を通じて外
部からカメラ制御命令を取得したり、外部に映像信号や
カメラの状態信号を転送したりする通信部2-17を備え
る。又、保守、点検のために必要に応じてキーボード2-
14、マウス等のポインティングデバイス2-15を接続す
る。これら各部はバス2-16により接続されている。この
カメラ制御装置2-6は汎用のコンピュータにより実現す
ることができる。
The camera control device 2-6 includes a CPU 2-7,
RAM 2-8, ROM 2-9, secondary storage device 2-10, I / O
O2-11 and a video capture board 2-12 to which a monitor 2-13 is connected. In addition, a communication unit 2-17 is provided for acquiring a camera control command from the outside through the network 2-18 and transferring a video signal and a camera status signal to the outside. Also, if necessary for maintenance and inspection,
14. Connect a pointing device 2-15 such as a mouse. These units are connected by a bus 2-16. The camera control device 2-6 can be realized by a general-purpose computer.

【0029】上記カメラ2-1のカメラパラメータ制御装
置2-3及び姿勢制御装置2-4は、制御信号線を通じて上記
カメラ制御装置2-6のI/O2-11に接続され、同装置と
通信することによりカメラパラメータや水平(パン)・
垂直(チルト)方向の現在角度の取得及び設定(制御)
が可能である。なお、制御信号方式としては、RS-232C
やパラレルIO等があるが限定されるものではない。
The camera parameter control device 2-3 and the attitude control device 2-4 of the camera 2-1 are connected to the I / O 2-11 of the camera control device 2-6 through control signal lines, and communicate with the same. The camera parameters and horizontal (pan)
Acquisition and setting (control) of the current angle in the vertical (tilt) direction
Is possible. The control signal method is RS-232C
And parallel IO, but are not limited.

【0030】又、上記カメラ2-1の撮像系2-2から出力さ
れる映像信号は、上記カメラ制御装置2-6のビデオキャ
プチャボード2-12によってディジタル化されてネットワ
ーク2-18に送信される。ビデオキャプチャボード2-12は
VRAMを兼ねており、モニタ2-13にカメラ映像とコン
ピュータ出力とを重畳して表示することができる。な
お、出力信号の形式はNTSC方式やY/C分離方式等がある
が、信号の方式に依存するものではない。
The video signal output from the imaging system 2-2 of the camera 2-1 is digitized by the video capture board 2-12 of the camera control device 2-6 and transmitted to the network 2-18. You. The video capture board 2-12 also serves as a VRAM, and can superimpose and display a camera image and a computer output on the monitor 2-13. The output signal format includes the NTSC format and the Y / C separation format, but does not depend on the signal format.

【0031】上記カメラ制御装置2-6は、キーボード2-1
4やマウス2-15からの入力、ネットワーク2-18を介して
送信された制御信号を、制御信号線を通じて上記カメラ
2-1のカメラ制御装置2-3及び姿勢制御装置2-4に送信
し、これらカメラ制御装置2-3及び姿勢制御装置2-4を制
御する。
The camera control device 2-6 includes a keyboard 2-1.
4 and the input from the mouse 2-15, the control signal transmitted via the network 2-18, the camera through the control signal line
The camera control device 2-3 and the attitude control device 2-4 of 2-1 are transmitted to control the camera control device 2-3 and the attitude control device 2-4.

【0032】又、図2には、図1に示したカメラ操作端
末1-10を構成するカメラ操作端末2-19の構成を示す。構
成カメラ操作端末2-19は、CPU2-20、RAM2-22、R
OM2-21、二次記憶装置2-23、モニタ2-25が接続された
VRAM2-24、キーボード2-26、マウス2-27、通信部2-
29を備え、これら各部はバス2-28により接続されてい
る。すなわち、このカメラ操作端末2-19は、上記カメラ
制御装置2-6において、ビデオキャプチャボード2-12を
VRAM2-24に変更し、又、カメラ2-1を直接制御する
ためのI/O2-11を除いた他は同様であり、ネットワー
クインターフェース及びグラフィック表示機能を有する
市販のコンピュータを用いて実現することが可能であ
る。
FIG. 2 shows a configuration of a camera operation terminal 2-19 which constitutes the camera operation terminal 1-10 shown in FIG. Configuration Camera operation terminal 2-19 has CPU 2-20, RAM 2-22, R
OM2-21, secondary storage device 2-23, VRAM2-24 to which monitor 2-25 is connected, keyboard 2-26, mouse 2-27, communication unit 2-
29, and these units are connected by a bus 2-28. That is, the camera operation terminal 2-19 changes the video capture board 2-12 to the VRAM 2-24 in the camera control device 2-6 and also controls the I / O 2 for directly controlling the camera 2-1. Other than 11 is the same, and can be realized using a commercially available computer having a network interface and a graphic display function.

【0033】図1に戻って、本実施の形態におけるカメ
ラ制御方式の概念について説明する。図1では、上述し
たように4組のカメラモジュール(カメラ1-1〜1-4及び
カメラ制御装置1-5〜1-8)が存在する。三次元ワールド
座標上での各カメラ(1-1〜1-4)の位置及び姿勢は既知
となっているとする。
Returning to FIG. 1, the concept of the camera control system in the present embodiment will be described. In FIG. 1, there are four camera modules (cameras 1-1 to 1-4 and camera control devices 1-5 to 1-8) as described above. It is assumed that the position and orientation of each camera (1-1 to 1-4) on three-dimensional world coordinates are known.

【0034】撮影対象1-12がカメラ前方を移動している
とすると、オペレータ1-11は、最初にカメラ操作端末1-
10上のカメラ操作ソフトウェアを用いてマスターカメラ
を選択し、当該マスターカメラの視線方向を指示して姿
勢制御を行う。
Assuming that the photographing target 1-12 is moving in front of the camera, the operator 1-11 first enters the camera operation terminal 1-
A master camera is selected using the camera operation software on 10, and the attitude control is performed by instructing the line of sight of the master camera.

【0035】全てのカメラモジュールはオートフォーカ
ス機能(自動合焦機能)を利用した距離計測機能を有
し、画像中のある領域に存在する撮影対象1-12までの距
離を計測することができる。自動合焦機能の対象となる
画像領域は、マスターカメラにおいてはオペレータ1-11
が指定する。又、スレーブカメラでは画像中央に固定す
る。マスターカメラの視線(方位)方向、撮影対象1-12
の画像上での位置、及び対象1-12までの距離から、撮影
対象1-12の三次元ワールド座標における位置を計測する
ことができる。
All camera modules have a distance measuring function utilizing an autofocus function (automatic focusing function), and can measure a distance to an object 1-12 existing in a certain area in an image. The image area targeted for the automatic focusing function is the operator 1-11 in the master camera.
Is specified. In the case of a slave camera, it is fixed at the center of the image. Gaze (azimuth) direction of master camera, shooting target 1-12
The position of the imaging target 1-12 in three-dimensional world coordinates can be measured from the position on the image and the distance to the target 1-12.

【0036】ここで、自動合焦機能を利用した距離計測
方式について説明する。自動合焦機能はカメラモジュー
ルのカメラパラメータ制御装置1-4〜1-8に具備されるも
のであり、画像中の部分領域に対してフォーカスレンズ
駆動モータの最適な制御位置を求め、合焦させるもので
ある。このようなフォーカスその他のカメラパラメータ
の最適化を目的として設定する画像中の部分領域を、以
下「検出領域」と称する。
Here, a distance measurement method using the automatic focusing function will be described. The automatic focusing function is provided in the camera parameter control devices 1-4 to 1-8 of the camera module, and finds an optimal control position of the focus lens drive motor for a partial area in an image and focuses. Things. The partial area in the image set for the purpose of optimizing the focus and other camera parameters is hereinafter referred to as a “detection area”.

【0037】自動合焦機能では、検出領域内の画像の高
周波成分のエネルギーが最大となるようフォーカスレン
ズ駆動モータの位置を制御する方式が一般的に知られて
いる。このような自動合焦機能は、市販のカメラに実装
されている機能を用いて実現することが可能である。
In the automatic focusing function, a method is generally known in which the position of a focus lens drive motor is controlled so that the energy of the high frequency component of the image in the detection area is maximized. Such an automatic focusing function can be realized by using a function mounted on a commercially available camera.

【0038】そして、フォーカスレンズ駆動モータの制
御位置から距離を求める方式としては、予め距離が既知
である被写体を用いて自動合焦動作を行い、最適化後の
フォーカスレンズ駆動モータのパルス値と距離との関係
を測定してこれを表として保持する方式や、光学系の設
計からこれを解析的に求める方式等がある。
As a method for obtaining the distance from the control position of the focus lens drive motor, an automatic focusing operation is performed using a subject whose distance is known in advance, and the pulse value and the distance of the optimized focus lens drive motor are calculated. And a method of measuring this relationship and holding the result as a table, and a method of analytically obtaining this from the design of the optical system.

【0039】以上はズームを固定した場合の話である
が、ズームを変更することにより、距離計測の精度を向
上させることができる。図3、4を用いて、その原理に
ついて説明する。
The above is a case where the zoom is fixed. By changing the zoom, the accuracy of the distance measurement can be improved. The principle will be described with reference to FIGS.

【0040】図3(a)、(b)は、一般的なカメラの被写
界深度と合焦限界距離とを模式化して示したものであ
る。被写界深度とは焦点の合う範囲をいい、鮮鋭深度と
もいう。又、合焦限界距離とはこれ以上近い距離では焦
点を合わせることのできない距離をいい、最短撮影距離
ともいう。図3(a)に示すように被写界深度はズームと
ともに狭くなり、図3(b)に示すように合焦限界距離は
ズームとともに大きく(遠く)なるのが分かる。
FIGS. 3A and 3B schematically show the depth of field and the focusing distance of a general camera. The depth of field refers to an in-focus range, and is also referred to as a sharp depth. Further, the focusing limit distance refers to a distance at which focusing cannot be performed at a distance shorter than this, and is also referred to as a shortest shooting distance. As shown in FIG. 3A, it can be seen that the depth of field becomes smaller with zooming, and the focusing distance becomes larger (farther) with zooming as shown in FIG. 3B.

【0041】このため、ズーム倍率を上げて自動合焦機
能により被写体までの距離を計測した方が精度が高くな
る。この様子を図4に示す。図4(a)では、カメラ4の
画角がθ1であり、自動合焦機能による距離計測を行っ
た結果、誤差範囲がe1と計測され、計測位置P1が撮影
対象の実際の位置Rからややずれている。
For this reason, it is more accurate to increase the zoom magnification and measure the distance to the subject by the automatic focusing function. This is shown in FIG. In FIG. 4A, the angle of view of the camera 4 is θ1, the distance is measured by the automatic focusing function, the error range is measured as e1, and the measurement position P1 is slightly shifted from the actual position R of the imaging target. It is out of alignment.

【0042】ここで、誤差範囲e1は被写界深度に対応
するものであり、図3(a)で説明したように、ズーム倍
率を上げると狭くなる。すなわち、図4(b)に示すよう
に、ズーム倍率を上げて画角をθ2(<θ1)とし、再度自
動合焦機能による距離計測を行えば、誤差範囲e2が上
記誤差範囲e1よりも狭くなり、計測位置P2が実際の位
置Rにより近づく。さらに、図4(c)に示すように、同
様にズーム倍率を上げて画角をθ3(<θ2)とし、再度自
動合焦機能による距離計測を行えば、誤差範囲e3上記
誤差範囲e2よりも狭くなり、計測位置P3が実際の位置
Rとほぼ合致する。
Here, the error range e1 corresponds to the depth of field, and as described with reference to FIG. 3A, becomes narrower as the zoom magnification is increased. That is, as shown in FIG. 4B, if the angle of view is set to θ2 (<θ1) by increasing the zoom magnification and the distance measurement is performed again by the automatic focusing function, the error range e2 is narrower than the error range e1. That is, the measurement position P2 comes closer to the actual position R. Further, as shown in FIG. 4 (c), if the angle of view is set to θ3 (<θ2) and the distance is again measured by the automatic focusing function, the error range e3 becomes larger than the error range e2. The measurement position P3 substantially matches the actual position R.

【0043】以上のようにズーム倍率を上げるほど撮影
対象までの距離計測の精度が向上するが、あまりズーム
倍率を上げすぎると、画面上での撮影対象が大きくなり
すぎ、又、合焦限界距離も大きくなることから、ズーム
倍率の上昇にも限界がある。そこで、ズーム倍率の上昇
を予め定めた一定値以下となるよう制限したり、合焦の
状態を観察して合焦できないようならばズーム倍率を下
げたりする等のズーム制限処理を行う。なお、上記自動
合焦機能、ズーム機能は市販のカメラが有するももので
あり、なんらコストアップすることなく、精度の高い位
置計測を行うことができる。
As described above, as the zoom magnification is increased, the accuracy of the distance measurement to the object to be photographed is improved. However, if the zoom magnification is too high, the object to be photographed on the screen becomes too large, and the focusing limit distance is increased. Therefore, there is a limit to the increase in zoom magnification. Therefore, zoom restriction processing such as restricting the increase in the zoom magnification to be equal to or less than a predetermined fixed value or lowering the zoom magnification if the in-focus state cannot be achieved by observing the in-focus state is performed. Note that the above-mentioned automatic focusing function and zoom function are provided in a commercially available camera, so that highly accurate position measurement can be performed without increasing the cost at all.

【0044】次に、本実施の形態におけるカメラ制御の
処理動作について説明する。図1を用いて概略を説明す
れば、まず、選択したマスターカメラにおいて撮影対象
1-12の位置を計測する。三次元ワールド座標での撮影対
象1-12の位置が決まれば、マスターカメラは、撮影対象
1-12の位置情報をカメラ操作端末1-10及びスレーブカメ
ラに転送する。
Next, the processing operation of camera control in the present embodiment will be described. The outline will be described with reference to FIG. 1.
Measure the position of 1-12. Once the position of the shooting target 1-12 in 3D world coordinates is determined, the master camera
The position information of 1-12 is transferred to the camera operation terminal 1-10 and the slave camera.

【0045】スレーブカメラのカメラ制御装置上のカメ
ラ制御ソフトウェアは、スレーブカメラの三次元ワール
ド座標上での位置及び姿勢が既知であることから、スレ
ーブカメラから見て撮影対象1-12がどの方向にあるかを
計算し、この結果に基づいてスレーブカメラを制御す
る。
The camera control software on the camera control device of the slave camera knows the position and orientation of the slave camera on the three-dimensional world coordinates. It calculates whether there is, and controls the slave camera based on the result.

【0046】このように、マスターカメラを選択し、撮
影対象1-12に向けて制御することで、人手を介すること
なくスレーブカメラを撮影対象1-12に向けることができ
る。以下、具体的に説明する。
As described above, by selecting the master camera and controlling it toward the photographing target 1-12, the slave camera can be pointed at the photographing target 1-12 without manual intervention. Hereinafter, a specific description will be given.

【0047】図5は、カメラ操作端末1-10のユーザイン
ターフェースを構成するGUI(Graphical User Inter
face)の一例を示す。画面には、マスターカメラの映像
表示部5-1(図5では撮影対象5-2が映し出されてい
る)、自動合焦機能の対象領域である検出領域5-3、カ
メラを操作するためのカメラ操作ボタン5-4、自動ズー
ム制御ボタン5-5、プログラム終了ボタン5-6、撮影対象
5-2の位置表示5-7、カメラ選択ボタン5-8が表示されて
いる。
FIG. 5 shows a GUI (Graphical User Interface) constituting a user interface of the camera operation terminal 1-10.
face). On the screen, an image display unit 5-1 of the master camera (the photographing target 5-2 is shown in FIG. 5), a detection area 5-3 which is a target area of the automatic focusing function, and a screen for operating the camera. Camera operation button 5-4, automatic zoom control button 5-5, program end button 5-6, shooting target
The position display 5-7 of 5-2 and the camera selection button 5-8 are displayed.

【0048】制御を開始するにあたり、オペレータは、
まずマスターカメラを選択する。これは、カメラ選択ボ
タン5-8のうち所望のカメラ番号をマウス等によって指
定することにより行われる。
In starting the control, the operator
First, select the master camera. This is performed by designating a desired camera number among the camera selection buttons 5-8 with a mouse or the like.

【0049】マスターカメラを選択したら、オペレータ
は、「直接操作」若しくは「対象の指定操作」によりマ
スターカメラを操作する。
After selecting the master camera, the operator operates the master camera by "direct operation" or "target designation operation".

【0050】直接操作とは、操作ボタン5-4を使用する
方法であり、上下左右、ホームポジションへの移動等の
制御を行うことができる。この場合、検出領域5-3の位
置は、例えば中央に固定されたまま変化しない。
The direct operation is a method using the operation buttons 5-4, and can control up, down, left, right, movement to a home position, and the like. In this case, the position of the detection area 5-3 does not change, for example, while being fixed at the center.

【0051】対象の指定操作とは、検出領域5-3を移動
させることによりカメラを制御する方法であり、マウス
等のポインティングデバイスを用いてドラッグ操作によ
り検出領域5-3の移動操作を行う。検出領域5-3を画像上
の撮影対象5-2に重ね合わせることにより、マスターカ
メラのカメラ制御装置において自動合焦機能を用いた距
離計測を行い、距離と撮影位置とから後述する手法によ
る位置計測を行う。そして、撮影対象5-2の位置情報を
カメラ操作端末1-10を通じて各スレーブカメラに送信す
ることにより、最終的に各スレーブカメラの操作制御を
行う。
The operation of designating an object is a method of controlling the camera by moving the detection area 5-3. The operation of moving the detection area 5-3 is performed by a drag operation using a pointing device such as a mouse. By superimposing the detection area 5-3 on the imaging target 5-2 on the image, distance measurement using the automatic focusing function is performed by the camera control device of the master camera. Perform measurement. Then, by transmitting the position information of the photographing target 5-2 to each slave camera through the camera operation terminal 1-10, operation control of each slave camera is finally performed.

【0052】なお、自動ズームボタン5-5により自動ズ
ームのON/OFFを選択することができる。自動ズー
ムがONになっているときは、距離計測においてズーム
制御を行い、その結果、上述した方式により位置計測精
度の向上を図ることが可能となる。
The automatic zoom button 5-5 allows the user to select ON / OFF of the automatic zoom. When the automatic zoom is ON, zoom control is performed in the distance measurement, and as a result, it is possible to improve the position measurement accuracy by the above-described method.

【0053】次に、図6に従って、マスターカメラにお
ける撮影対象の位置計測、及びスレーブカメラにおける
姿勢制御目標値の計算について説明する。
Next, the measurement of the position of the object to be photographed by the master camera and the calculation of the attitude control target value by the slave camera will be described with reference to FIG.

【0054】まず、マスターカメラにおける撮影対象の
位置計測について述べる。図6(a)において、マスター
カメラの視点は三次元座標空間上の点Cm(Xm,Ym,Z
m)にあり、スレーブカメラの視点は点Cs(Xs,Ys
s)にある。又、撮影対象は点Pt(Xt,Yt,Zt
にある。
First, the measurement of the position of the object to be photographed by the master camera will be described. In FIG. 6A, the viewpoint of the master camera is a point C m (X m , Y m , Z) on the three-dimensional coordinate space.
m ), and the viewpoint of the slave camera is a point C s (X s , Y s ,
Z s ). The object to be photographed is a point Pt ( Xt , Yt , Zt ).
It is in.

【0055】ここで、オペレータが、図5に示す画面上
で撮影対象5-2に検出領域5-3を重ね合わせたとする。図
6(b)は、マスターカメラの画像座標系を表示したもの
である。ここでは、画像座標を画像の左上を原点とし、
右にX軸の正方向、下にY軸の正方向をとる。検出領域
5-3の画像座標を(uf,vf)、画像中心の座標を
(uc,vc)、とし、レンズの焦点距離をfm[mm]と
すると、マスターカメラから見た撮影対象の方向θf
φfは、下記の式(1)のように表される。 θf=tan-1{kX|uf−uc|/fm} φf=tan-1{kY|vf−vc|/sqrt[{kX|uf−uc|}2+fm 2]}…(1)
Here, it is assumed that the operator superimposes the detection area 5-3 on the photographing object 5-2 on the screen shown in FIG. FIG. 6B shows an image coordinate system of the master camera. Here, the image coordinates are set to the origin at the upper left of the image,
The positive direction of the X-axis is to the right, and the positive direction of the Y-axis is below. Detection area
5-3 the image coordinates (u f, v f), the coordinates of the image center (u c, v c), and then, when the focal length of the lens is f m [mm], the imaging object as viewed from the master camera Direction θ f ,
φ f is represented by the following equation (1). θ f = tan -1 {k X | u f -u c | / f m} φ f = tan -1 {k Y | v f -v c | / sqrt [{k X | u f -u c |} 2 + f m 2]} ... (1)

【0056】ただし、sqrt(X)はXの平方根である。
又、kX、kYは1画素の大きさ(横幅、縦幅)であり、
単位は[mm/pixel]である。これはCCD撮像素子のサ
イズ、有効画素数、及び画像平面のサイズ等から計算す
ることができる。
Where sqrt (X) is the square root of X.
K X and k Y are the size of one pixel (width and height),
The unit is [mm / pixel]. This can be calculated from the size of the CCD image sensor, the number of effective pixels, the size of the image plane, and the like.

【0057】問題の簡素化のために、マスターカメラ座
標系のXYZ各軸は三次元ワールド座標系のXYZ各軸
と平行であり、パン方向の回転角はY軸の正方向を原点
とし、Z軸周りにX軸の正方向への回転角として定義す
る。又、チルト方向の回転角はXY平面からの仰角であ
ると定義する。このように定義すると、図6(a)の三次
元ワールド座標系において撮影対象の座標(Xt,Yt
t)は、マスターカメラからの距離rmt、マスターカ
メラの視点の位置(Xm,Ym,Zm)、マスターカメラ
の姿勢(マスターカメラから見た撮影対象の方向)θ
f、φfを用いて、下記の式(2)のように表される。
To simplify the problem, the XYZ axes of the master camera coordinate system are parallel to the XYZ axes of the three-dimensional world coordinate system, and the rotation angle in the pan direction is based on the positive Y axis as the origin. It is defined as the rotation angle of the X axis in the positive direction around the axis. The rotation angle in the tilt direction is defined as an elevation angle from the XY plane. With this definition, the coordinates (X t , Y t , and Y t ) of the photographing target in the three-dimensional world coordinate system of FIG.
Z t ) is the distance r mt from the master camera, the position of the viewpoint (X m , Y m , Z m ) of the master camera, and the attitude of the master camera (the direction of the shooting target as viewed from the master camera) θ
Using f and φf, it is expressed as the following equation (2).

【0058】[0058]

【数1】 (Equation 1)

【0059】マスターカメラの初期位置及び初期姿勢
は、実測により求める。又、動作中の姿勢変化分につい
ては、カメラとの通信によって得た値を使用する。一般
に三次元空間中においてカメラの位置及び姿勢を求める
手法をカメラのキャリブレーションと呼び、公知の研究
例[R.Y.Tsai,``An efficient and accurate camera c
alibration technique f3D machine vision``, Proc.of
CVPR,pp.364-374,1986]をはじめとして多くの研究例
がある。
The initial position and initial attitude of the master camera are obtained by actual measurement. Also, as for the posture change during operation, a value obtained by communication with the camera is used. In general, a method for obtaining the position and orientation of a camera in a three-dimensional space is called camera calibration, and a known research example [RYTsai, `` An efficient and accurate camera c
alibration technique f3D machine vision ,, Proc.of
CVPR, pp. 364-374, 1986].

【0060】本実施の形態では、マスターカメラはオペ
レータの操作に応じて視線方向を変更するが、このとき
に視点の位置とパン・チルト軸の回転中心とがずれてい
る場合、視点の位置が変化する。しかし、カメラの機構
が既知であれば、公知の手法による正確なキャリブレー
ションにより、カメラの回転運動に伴う視点の移動を計
算することが可能である。なお、厳密にはズームやフォ
ーカス変更に伴うレンズ位置の変化によっても視点は変
化するが、本実施の形態ではその変化分は無視する。
In this embodiment, the master camera changes the line of sight according to the operation of the operator. At this time, if the position of the viewpoint is shifted from the rotation center of the pan / tilt axis, the position of the viewpoint is changed. Change. However, if the mechanism of the camera is known, it is possible to calculate the movement of the viewpoint accompanying the rotational movement of the camera by accurate calibration using a known method. Note that, strictly speaking, the viewpoint also changes due to a change in the lens position due to zoom or focus change, but in the present embodiment, the change is ignored.

【0061】次に、スレーブカメラにおける姿勢制御目
標値の計算について述べる。上記のようにして得られた
撮影対象の位置情報(撮影対象の座標(Xt,Yt
t))からスレーブカメラのパン・チルト制御値
θst、φstを求めると、下記の式(3)のように表され
る。ここで、スレーブカメラ座標系の原点は点C
s(Xs,Ys,Zs)であり、XYZ各軸はマスターカメ
ラ座標系のXYZ各軸と平行に設定する。 θst=tan-1{(Xt−Xs)/(Yt−Ys)} φst=tan-1{(Zt−Zs)/sqrt[(Xt−Xs2+(Yt−Ys2]}…( 3)
Next, the calculation of the attitude control target value in the slave camera will be described. The position information (the coordinates (X t , Y t ,
When the pan / tilt control values θ st and φ st of the slave camera are obtained from Z t )), they are expressed as the following equation (3). Here, the origin of the slave camera coordinate system is point C
s (X s , Y s , Z s ), and each XYZ axis is set parallel to each XYZ axis of the master camera coordinate system. θ st = tan -1 {(X t −X s ) / (Y t −Y s )} φ st = tan −1 {(Z t −Z s ) / sqrt [(X t −X s ) 2 + ( Y t −Y s ) 2 ]}… (3)

【0062】パン・チルト制御値θst、φstが求まれ
ば、その角度を制御目標値としてスレーブカメラを制御
するようにカメラ制御装置から指令を送ればよい。
When the pan / tilt control values θ st and φ st are obtained, a command may be sent from the camera control device to control the slave camera using the angles as control target values.

【0063】以上述べた原理により、オペレータの制御
するマスターカメラを用いて撮影対象の位置計測を行
い、その結果を使用してスレーブカメラの姿勢を制御す
ることにより、各スレーブカメラを撮影対象の方向に向
けることができる。
According to the principle described above, the position of the object to be photographed is measured using the master camera controlled by the operator, and the attitude of the slave camera is controlled using the result, whereby each slave camera can be moved in the direction of the object to be photographed. Can be turned on.

【0064】以下、図7、8のフローチャートを用い
て、本実施の形態のカメラ制御システムの制御処理手順
について説明する。
The control processing procedure of the camera control system according to the present embodiment will be described below with reference to the flowcharts of FIGS.

【0065】図7は、カメラ操作端末上で動作するカメ
ラ操作ソフトウェアによる処理を示す。まず処理開始後
において、初期化処理を行う(ステップS701)。こ
れは、図5に示したGUIの表示を初期化する等の処理
である。次に、ステップS702に移行して、入力イベ
ント待ちループに入る。入力イベントには、カメラ操作
端末のGUIを通じてのオペレータの制御入力と、マス
ターカメラからのメッセージとが存在する。
FIG. 7 shows processing by the camera operation software operating on the camera operation terminal. First, after the process is started, an initialization process is performed (step S701). This is processing such as initializing the display of the GUI shown in FIG. Next, the process proceeds to step S702, and enters an input event waiting loop. The input event includes an operator's control input through the GUI of the camera operation terminal and a message from the master camera.

【0066】GUIにおいてカメラの方向ボタン5-4が
押された場合や、検出領域5-3を画像中の撮影対象5-2に
重ね合わせる操作がされた場合、カメラ移動入力イベン
トが発生する(ステップS703)。この場合、ステッ
プS704において、マスターカメラの姿勢を変更する
モータの制御コマンドを作成する。方向ボタン5-4によ
る入力である場合、単に一定角度回転を行う制御コマン
ドを生成する。又、検出領域5-3を移動させる入力であ
る場合、上記式(1)におけるθf、φfはカメラの光軸を
基準にした対象の角度変位なので、この値θf、φfを移
動目標角度とする制御コマンドを生成する。制御コマン
ド生成後、ステップS705において、当該制御コマン
ドをマスターカメラに送信する。
When the direction button 5-4 of the camera is pressed in the GUI, or when the detection area 5-3 is overlapped with the photographing target 5-2 in the image, a camera movement input event occurs ( Step S703). In this case, in step S704, a control command for the motor for changing the attitude of the master camera is created. When the input is made by the direction button 5-4, a control command for simply rotating by a certain angle is generated. The mobile when an input of moving the detection area 5-3, theta f in the formula (1), since phi f is a target angular displacement relative to the optical axis of the camera, the value theta f, the phi f Generate a control command to set the target angle. After the generation of the control command, the control command is transmitted to the master camera in step S705.

【0067】GUIにおいてマスター選択ボタン5-8が
押された場合、マスター選択イベントが発生する(ステ
ップS706)。この場合、ステップS707におい
て、制御コマンドを送信するマスターカメラを指定され
たカメラに変更する。又、映像受信ソフトウェアにも受
信を行うカメラの変更を指示する。本実施の形態では、
各カメラの映像受信ソフトウェアはネットワーク上に映
像を送り続けて受信側で選択する構成としたが、カメラ
操作ソフトウェアからの映像受信要求があるときのみ送
信側で映像を送信する方式をとってもよい。
When the master selection button 5-8 is pressed on the GUI, a master selection event occurs (step S706). In this case, in step S707, the master camera that transmits the control command is changed to the designated camera. Also, it instructs the video receiving software to change the camera that receives the video. In the present embodiment,
Although the video receiving software of each camera is configured to continuously transmit the video on the network and select the video on the receiving side, a method of transmitting the video on the transmitting side only when there is a video receiving request from the camera operation software may be adopted.

【0068】マスターカメラは、後述するようにカメラ
制御を行った後に、撮影対象の位置計測を行い、その結
果をカメラ操作端末のカメラ操作ソフトウェアに送信す
る。このメッセージをカメラ操作ソフトウェアが受け取
った場合(ステップS708)、撮影対象の位置に関す
る表示5-7の更新を行う(ステップS709)。
After performing the camera control as described later, the master camera measures the position of the object to be photographed, and transmits the result to the camera operation software of the camera operation terminal. When this message is received by the camera operation software (step S708), the display 5-7 relating to the position of the imaging target is updated (step S709).

【0069】GUIにおいて終了ボタン5-6が押された
場合、終了イベントが発生する(ステップS710)。
この場合、ステップS711において、終了処理として
全てのカメラモジュールに処理の終了を告知して、シス
テムを終了する。
When the end button 5-6 is pressed on the GUI, an end event occurs (step S710).
In this case, in step S711, the end of processing is notified to all camera modules as end processing, and the system ends.

【0070】図8は、各カメラ制御装置上で動作するカ
メラ制御ソフトウェアによる処理を示す。マスターカメ
ラとスレーブカメラとは同一のプログラムにより動作
し、メッセージの種類に応じてその役割を変更する。
FIG. 8 shows processing by camera control software operating on each camera control device. The master camera and the slave camera operate by the same program, and change their roles according to the type of message.

【0071】まずカメラの初期化を行った後(ステップ
S820)、メッセージ待ちを行う(ステップS82
1)。なんらかのメッセージがあった場合には、ステッ
プS822、823、828においてその内容を確認す
る。
After initializing the camera (step S820), a message is waited for (step S82).
1). If there is any message, the contents are confirmed in steps S822, 823, and 828.

【0072】終了イベントであった場合(ステップS8
22)、カメラ制御ソフトウェアを終了する。
If the event is an end event (step S8)
22) Exit the camera control software.

【0073】イベントがモータの回転角度を指定する制
御コマンドであった場合(ステップS823)、マスタ
ーカメラとしての動作命令である。この場合、ステップ
S824において、制御コマンドに従ってモータの制御
を行い、ステップS825において、上述した手法によ
り撮影対象の位置計測を行う。その計測結果は、カメラ
操作端末のカメラ操作ソフトウェアに送信する(ステッ
プS826)。又、スレーブカメラにも制御命令及び制
御情報として送信する(ステップS827)。
If the event is a control command for specifying the rotation angle of the motor (step S823), it is an operation command as a master camera. In this case, in step S824, the motor is controlled according to the control command, and in step S825, the position of the imaging target is measured by the above-described method. The measurement result is transmitted to the camera operation software of the camera operation terminal (step S826). Further, the control command and the control information are transmitted to the slave camera (step S827).

【0074】イベントが三次元ワールド座標を指定して
の姿勢制御命令であった場合(ステップS828)、ス
レーブカメラとしての動作命令である。この場合、ステ
ップS829において、指定された位置を向くようなカ
メラの姿勢を計算し、ステップS830において、モー
タの制御を行う。この際に、スレーブカメラの移動角度
は、上記式(3)で求められるθst、φstを採用する。
If the event is a posture control command designating three-dimensional world coordinates (step S828), it is an operation command as a slave camera. In this case, in step S829, the posture of the camera to be directed to the designated position is calculated, and in step S830, the motor is controlled. At this time, θ st and φ st obtained by the above equation (3) are adopted as the movement angles of the slave camera.

【0075】以上述べたようにイベントに対する処理を
行ったならば、ステップS821に戻ってイベント待ち
を行う。
When the processing for the event has been performed as described above, the flow returns to step S821 to wait for the event.

【0076】以上述べた第1の実施の形態では、姿勢制
御可能な複数台のカメラをネットワークで接続し、その
うちの1つのカメラをオペレータが制御するマスターカ
メラとして選択して制御を行い、残りのカメラをスレー
ブカメラとして上記マスターカメラから得られた情報に
従って制御するようにしている。これにより、複数台の
カメラを個々に制御する必要がなくなり、コストの削減
と正確かつ柔軟な制御とを両立させたカメラ制御システ
ムを構築することができる。
In the first embodiment described above, a plurality of cameras whose posture can be controlled are connected via a network, one of them is selected as a master camera controlled by an operator, and control is performed. The camera is controlled as a slave camera in accordance with information obtained from the master camera. This eliminates the need to individually control a plurality of cameras, and makes it possible to construct a camera control system that achieves both cost reduction and accurate and flexible control.

【0077】しかも、自動合焦機能だけでなく、ズーム
機能を組み合わせて撮影対象までの距離計測を行うこと
により、精度の高い位置計測を行うことが可能となる。
Further, by measuring the distance to the object by combining the zoom function as well as the automatic focusing function, it is possible to perform highly accurate position measurement.

【0078】(第2の実施の形態)第2の実施の形態で
は、上述した第1の実施の形態において、スレーブカメ
ラでもマスターカメラと同様な手法を用いて撮影対象の
位置計測を行うことにしている。その結果、マスターカ
メラ及びスレーブカメラから得られる複数の位置情報を
用いて、撮影対象の位置計測の精度をさらに向上させる
ものである。
(Second Embodiment) In the second embodiment, in the above-described first embodiment, the position of the object to be photographed is measured using the same method as that of the master camera in the slave camera. ing. As a result, the accuracy of the position measurement of the imaging target is further improved using a plurality of pieces of position information obtained from the master camera and the slave cameras.

【0079】本実施の形態におけるカメラ制御システム
のハードウェア構成、全てのカメラ及びカメラ制御装置
等の構成は、上記第1の実施の形態と同じであり、その
説明は省略する。本実施の形態においても、上記第1の
実施の形態と同じく、カメラモジュールは2組以上あれ
ばよい。
The hardware configuration of the camera control system according to the present embodiment, the configuration of all cameras and camera control devices, and the like are the same as those in the first embodiment, and a description thereof will be omitted. Also in this embodiment, as in the first embodiment, two or more camera modules are required.

【0080】図9に示すように、3台のカメラ9-1〜9-3
があり、カメラ9-1がマスターカメラとなっているとす
る。図9(a)は、オペレータが図5に示したGUIによ
りマスターカメラ9-1を操作し、撮影対象Rに照準を合
わせ、位置計測を行った状態を示す。θ11、θ21、θ31
はそれぞれカメラ9-1〜9-3の画角であり、位置計測結果
はP1、誤差範囲はe1として示す。
As shown in FIG. 9, three cameras 9-1 to 9-3
And camera 9-1 is the master camera. FIG. 9A shows a state in which the operator operates the master camera 9-1 with the GUI shown in FIG. 5 to aim at the photographing target R and measure the position. θ11, θ21, θ31
Is the angle of view of each of the cameras 9-1 to 9-3, the position measurement result is shown as P1, and the error range is shown as e1.

【0081】マスターカメラ9-1での位置計測結果P1は
スレーブカメラ9-2、9-3に送信され、これらスレーブカ
メラ9-2、9-3でも位置計測が行われる。この様子を図9
(b)に示す。同図では、マスターカメラ9-1から得られ
た撮影対象Rの位置計測結果P1を用いて、後述するよ
うにしてスレーブカメラ9-2、9-3自身が位置計測を行
い、スレーブカメラ9-2における位置計測結果及び誤差
範囲結果(P2,e2)と、スレーブカメラ9-3における
位置計測結果及び誤差範囲結果(P3,e3)とを得てい
る。全てのカメラ9-1〜9-3の位置計測結果を統合し、統
合の方法として例えば計測結果の平均を求めるとEとな
り、実際の撮影対象の位置Rに近い計測結果が得られ、
マスターカメラが単体で求めた計測結果よりも精度を向
上させることができる。
The position measurement result P1 of the master camera 9-1 is transmitted to the slave cameras 9-2 and 9-3, and the position of the slave cameras 9-2 and 9-3 is also measured. This situation is shown in FIG.
It is shown in (b). In the figure, using the position measurement result P1 of the imaging target R obtained from the master camera 9-1, the slave cameras 9-2 and 9-3 themselves perform position measurement as described later, and the slave camera 9- 2, the position measurement result and the error range result (P2, e2) of the slave camera 9-3 and the position measurement result and the error range result (P3, e3) of the slave camera 9-3 are obtained. When the position measurement results of all the cameras 9-1 to 9-3 are integrated and an average of the measurement results is obtained as an integration method, for example, E is obtained, and a measurement result close to the actual position R of the imaging target is obtained.
The accuracy can be improved more than the measurement result obtained by the master camera alone.

【0082】ここで、スレーブカメラ9-2がマスターカ
メラ9-1の位置計測結果P1を用いて位置計測結果P2を
求める方法について説明する。位置計測結果P1を受け
取ったスレーブカメラ9-2は、その位置P1の方向に姿勢
を制御する。その結果、撮影対象が視野に入るが、計測
誤差により撮影対象が必ずしも画面の中央に位置するわ
けではない。自動合焦機能による位置計測は、上記第1
の実施の形態で述べたように、検出領域(観測領域)を
設定し、その領域内で焦点が合うようにレンズの制御を
行う。したがって、この検出領域を視野内でずらして真
の撮影対象を探す必要がある。この処理は、画面中央を
中心としてその周囲に検出領域を移動して、それぞれの
位置で自動合焦を行って距離計測し、距離の最も近くな
る領域の位置を割り出して、その方向にカメラを制御す
ることで結果として撮影対象が画面中央に収まるように
なる。
Here, a method in which the slave camera 9-2 obtains the position measurement result P2 using the position measurement result P1 of the master camera 9-1 will be described. The slave camera 9-2 having received the position measurement result P1 controls the attitude in the direction of the position P1. As a result, the imaging target enters the field of view, but the imaging target is not necessarily located at the center of the screen due to measurement errors. The position measurement by the automatic focusing function
As described in the first embodiment, the detection area (observation area) is set, and the lens is controlled so that the focal point is set within the detection area. Therefore, it is necessary to shift the detection area within the field of view to search for a true imaging target. In this process, the detection area is moved around the center of the screen, the auto focus is performed at each position, the distance is measured, the position of the area where the distance is closest is determined, and the camera is moved in that direction. As a result of the control, the object to be photographed fits in the center of the screen.

【0083】次に、本実施の形態のカメラ制御システム
の制御処理について説明する。カメラ操作端末上で動作
するカメラ操作ソフトウェアによる処理は、基本的には
上記第1の実施の形態と同じであり、その相違点のみを
図7を用いて説明する。本実施の形態では、ステップS
708における位置情報はマスターカメラに加えてスレ
ーブカメラからも受け取る。そして、ステップS709
において、現在分かっている複数の位置情報からより正
確な撮影対象の位置を推定する。推定値として、例えば
複数の位置情報の平均値を用いる。位置情報は、マスタ
ーカメラ及び各スレーブカメラから断続的に入手できる
が、いずれか1つのカメラからの情報が入力されるたび
に図5に示したGUIの位置情報5-7を更新する。
Next, control processing of the camera control system according to the present embodiment will be described. The processing by the camera operation software operating on the camera operation terminal is basically the same as in the first embodiment, and only the differences will be described with reference to FIG. In the present embodiment, step S
The position information at 708 is received from slave cameras in addition to the master camera. Then, step S709
In, a more accurate position of the imaging target is estimated from a plurality of pieces of currently known position information. As the estimated value, for example, an average value of a plurality of pieces of position information is used. Although the position information can be obtained intermittently from the master camera and each slave camera, the position information 5-7 of the GUI shown in FIG. 5 is updated each time information is input from any one of the cameras.

【0084】次に、各カメラ制御装置上で動作するカメ
ラ制御ソフトウェアによる処理を説明する。図10は、
上記第1の実施の形態で説明した図8と基本的には同一
であるので、以下では相違点のみを説明する。動作が異
なるのは、ステップS1009〜ステップS1013に
示すスレーブカメラとしての動作命令を受け取った場合
であり、それ以外のステップS1001〜ステップS1
008については、図8に示したステップS820〜ス
テップS827と同様である。
Next, processing by camera control software operating on each camera control device will be described. FIG.
Since this is basically the same as FIG. 8 described in the first embodiment, only the differences will be described below. The operation is different when the operation command as a slave camera shown in steps S1009 to S1013 is received, and the other steps S1001 to S1 are performed.
Step 008 is the same as step S820 to step S827 shown in FIG.

【0085】スレーブカメラは、ステップS1009に
おいてスレーブカメラとしての動作指令、すなわち三次
元ワールド座標を指定しての姿勢制御命令を受け取る
と、ステップS1010においてモータの制御角度を計
算する。ここで、先に述べたように、検出領域を画面上
で移動し、最も距離の近いところにある画面上の位置が
最終的に画面中央になるように制御角度を計算する。
When the slave camera receives an operation command as a slave camera in step S1009, that is, an attitude control command specifying three-dimensional world coordinates, it calculates a motor control angle in step S1010. Here, as described above, the detection area is moved on the screen, and the control angle is calculated such that the position on the screen closest to the distance finally becomes the center of the screen.

【0086】次に、ステップS1011においてモータ
の制御を行い、計算した制御角度にカメラの姿勢を向け
る。そして、ステップS1012において再度位置計測
を行い、ステップS1013においてその結果をカメラ
操作端末のカメラ操作ソフトウェアに送信する。カメラ
操作ソフトウェアでは、上述したように受け取った情報
を統合して、位置計測結果を計算し表示する。
Next, in step S1011 the motor is controlled, and the attitude of the camera is turned to the calculated control angle. Then, the position is measured again in step S1012, and the result is transmitted to the camera operation software of the camera operation terminal in step S1013. The camera operation software integrates the information received as described above, calculates and displays the position measurement result.

【0087】以上述べた第2の実施の形態によれば、マ
スターカメラ及びスレーブカメラの双方において撮影対
象の位置計測を行い、その結果得られた複数の位置計測
結果を統合することにより、位置計測精度の向上を実現
することができる。
According to the second embodiment described above, the position of the object to be photographed is measured by both the master camera and the slave camera, and a plurality of position measurement results obtained as a result are integrated to obtain the position measurement. Improvement of accuracy can be realized.

【0088】(その他の実施の形態)上述した実施の形
態の機能を実現するべく各種のデバイスを動作させるよ
うに、該各種デバイスと接続された装置或いはシステム
内のコンピュータに対し、上記実施の形態の機能を実現
するためのソフトウェアのプログラムコードを供給し、
そのシステム或いは装置のコンピュータ(CPU或いは
MPU)に格納されたプログラムに従って上記各種デバ
イスを動作させることによって実施したものも、本発明
の範疇に含まれる。
(Other Embodiments) In order to operate various devices in order to realize the functions of the above-described embodiments, an apparatus connected to the various devices or a computer in a system is used in the above-described embodiments. Supply the software program code to realize the functions of
The present invention also includes those implemented by operating the various devices according to programs stored in a computer (CPU or MPU) of the system or apparatus.

【0089】又、この場合、上記ソフトウェアのプログ
ラムコード自体が上述した実施の形態の機能を実現する
ことになり、そのプログラムコード自体、及びそのプロ
グラムコードをコンピュータに供給するための手段、例
えばかかるプログラムコードを格納した記録媒体は本発
明を構成する。かかるプログラムコードを記憶する記録
媒体としては、例えばフロッピーディスク、ハードディ
スク、光ディスク、光磁気ディスク、CD−ROM、磁
気テープ、不揮発性のメモリカード、ROM等を用いる
ことができる。
In this case, the program code itself of the software realizes the functions of the above-described embodiment, and the program code itself and means for supplying the program code to the computer, for example, the program The recording medium storing the code constitutes the present invention. As a recording medium for storing such a program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM and the like can be used.

【0090】又、コンピュータが供給されたプログラム
コードを実行することにより、上述の実施の形態の機能
が実現されるだけでなく、そのプログラムコードがコン
ピュータにおいて稼働しているOS(オペレーティング
システム)或いは他のアプリケーションソフト等と共同
して上述の実施の形態の機能が実現される場合にもかか
るプログラムコードは本発明の実施の形態に含まれるこ
とはいうまでもない。
The computer executes the supplied program code to realize not only the functions of the above-described embodiment, but also the operating system (OS) running on the computer or another program code. It goes without saying that such program codes are also included in the embodiments of the present invention when the functions of the above-described embodiments are realized in cooperation with the application software or the like.

【0091】さらに、供給されたプログラムコードがコ
ンピュータの機能拡張ボードやコンピュータに接続され
た機能拡張ユニットに備わるメモリに格納された後、そ
のプログラムコードの指示に基づいてその機能拡張ボー
ドや機能拡張ユニットに備わるCPU等が実際の処理の
一部又は全部を行い、その処理によって上述した実施の
形態の機能が実現される場合にも本発明に含まれること
はいうまでもない。
Further, after the supplied program code is stored in a memory provided in a function expansion board of a computer or a function expansion unit connected to the computer, the function expansion board or the function expansion unit is specified based on the instruction of the program code. It is needless to say that the present invention also includes a case where the CPU or the like provided for performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0092】なお、上記実施の形態において示した各部
の形状及び構造は、何れも本発明を実施するにあたって
の具体化のほんの一例を示したものに過ぎず、これらに
よって本発明の技術的範囲が限定的に解釈されてはなら
ないものである。すなわち、本発明はその精神、又はそ
の主要な特徴から逸脱することなく、様々な形で実施す
ることができる。
The shapes and structures of the respective parts shown in the above embodiments are merely examples of the embodiment for carrying out the present invention, and the technical scope of the present invention is thereby reduced. It should not be interpreted restrictively. That is, the present invention can be implemented in various forms without departing from the spirit or main features thereof.

【0093】[0093]

【発明の効果】以上述べたように本発明によれば、複数
台のカメラを個々に手動制御或いは自動制御するのでは
なく、一のカメラに追従させて他のカメラを制御するこ
とにより、新たな機能を持たせることなく、適用環境や
適用対象の広さと経済性とを兼ね備えたシステムを構築
することができる。しかも、撮影対象までの距離計測を
行う際にズーム制御を行うことにより、精度の高い距離
計測を行うことができる。
As described above, according to the present invention, a plurality of cameras are not manually controlled or automatically controlled, but are controlled by following one camera to control another camera. It is possible to construct a system that has both the application environment and the breadth of the application target, and is economical, without having a special function. In addition, by performing zoom control when measuring the distance to the imaging target, highly accurate distance measurement can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態のカメラ制御システムの構成
を示す図である。
FIG. 1 is a diagram illustrating a configuration of a camera control system according to a first embodiment.

【図2】カメラ、カメラ制御装置、及びカメラ操作端末
の構成を示す図である。
FIG. 2 is a diagram illustrating configurations of a camera, a camera control device, and a camera operation terminal.

【図3】(a)がズームと被写界深度との関係を示す図
で、(b)がズームと合焦限界距離との関係を示す図であ
る。
3A is a diagram illustrating a relationship between a zoom and a depth of field, and FIG. 3B is a diagram illustrating a relationship between a zoom and a focusing distance.

【図4】ズーム制御と自動合焦制御とによる距離計測の
原理を説明するための図である。
FIG. 4 is a diagram for explaining the principle of distance measurement by zoom control and automatic focusing control.

【図5】カメラ操作端末のユーザインターフェースを構
成するGUI(Graphical UserInterface)の一例を示
す図である。
FIG. 5 is a diagram illustrating an example of a GUI (Graphical User Interface) constituting a user interface of the camera operation terminal.

【図6】撮影対象の位置計測及びカメラ制御目標値の計
算の原理を説明するための図である。
FIG. 6 is a diagram for explaining the principle of position measurement of a shooting target and calculation of a camera control target value.

【図7】第1の実施の形態におけるカメラ操作ソフトウ
ェアによる処理を示すフローチャートである。
FIG. 7 is a flowchart showing processing by camera operation software according to the first embodiment.

【図8】第1の実施の形態におけるカメラ制御ソフトウ
ェアによる処理を示すフローチャートである。
FIG. 8 is a flowchart illustrating processing by camera control software according to the first embodiment.

【図9】第2の実施の形態において複数のカメラの位置
計測結果を統合する原理を説明するための図である。
FIG. 9 is a diagram for describing a principle of integrating position measurement results of a plurality of cameras in the second embodiment.

【図10】第2の実施の形態におけるカメラ制御ソフト
ウェアによる処理を示すフローチャートである。
FIG. 10 is a flowchart illustrating processing by camera control software according to the second embodiment.

【符号の説明】[Explanation of symbols]

1-1〜1-4、4 カメラ 1-5〜1-8 カメラ制御装置 1-9 ネットワーク 1-10 カメラ操作端末 1-11 オペレータ 1-12 撮影対象 2-1 カメラ 2-2 撮像系 2-3 カメラパラメータ制御装置 2-4 姿勢制御装置 2-6 カメラ制御装置 2-7 CPU 2-8 RAM 2-9 ROM 2-10 二次記憶装置 2-11 I/O 2-12 ビデオキャプチャボード 2-13 モニタ 2-14 キーボード 2-15 マウス等のポインティングデバイス 2-16 バス 2-17 通信部 2-18 ネットワーク 2-19 カメラ制御装置 2-20 CPU 2-21 ROM 2-22 RAM 2-23 二次記憶装置 2-24 ビデオRAM 2-25 モニタ 2-26 キーボード 2-27 マウス等のポインティングデバイス 2-28 バス 2-29 通信部 1-1 to 1-4, 4 Cameras 1-5 to 1-8 Camera control unit 1-9 Network 1-10 Camera operation terminal 1-11 Operator 1-12 Photo subject 2-1 Camera 2-2 Imaging system 2- 3 Camera parameter controller 2-4 Attitude controller 2-6 Camera controller 2-7 CPU 2-8 RAM 2-9 ROM 2-10 Secondary memory 2-11 I / O 2-12 Video capture board 2- 13 Monitor 2-14 Keyboard 2-15 Pointing device such as mouse 2-16 Bus 2-17 Communication unit 2-18 Network 2-19 Camera controller 2-20 CPU 2-21 ROM 2-22 RAM 2-23 Secondary Storage device 2-24 Video RAM 2-25 Monitor 2-26 Keyboard 2-27 Pointing device such as mouse 2-28 Bus 2-29 Communication unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA06 AA31 EE00 FF10 FF21 FF63 FF65 FF67 JJ03 JJ05 JJ26 LL06 LL30 NN13 NN20 PP05 QQ00 QQ23 QQ28 SS02 SS03 SS13 5C022 AA01 AB22 AB65 AB66 AC74 5C054 AA02 CF05 DA01 DA09  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA04 AA06 AA31 EE00 FF10 FF21 FF63 FF65 FF67 JJ03 JJ05 JJ26 LL06 LL30 NN13 NN20 PP05 QQ00 QQ23 QQ28 SS02 SS03 SS13 5C022 AA01 AB22 AB05 AB66 A74 5

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 姿勢制御可能な複数台のカメラと、上記
各カメラを制御するカメラ制御手段とを備え、一のカメ
ラから得られる撮影対象の位置情報を用いて、他のカメ
ラの撮影方向を制御する構成にしたカメラ制御システム
であって、 上記一のカメラにおけるズーム制御機能及び焦点制御機
能を用いて、上記撮影対象の位置情報を得る位置情報取
得手段を備えたことを特徴とするカメラ制御システム。
1. A camera comprising: a plurality of cameras capable of controlling a posture; and camera control means for controlling each of the cameras, and using a position information of a photographing target obtained from one camera, a photographing direction of another camera is determined. A camera control system configured to perform control, comprising: position information obtaining means for obtaining position information of the shooting target using a zoom control function and a focus control function of the one camera. system.
【請求項2】 上記位置情報取得手段は、上記撮影対象
に対して上記一のカメラのズーム倍率を上げ、自動合焦
機能により距離計測を行い、その距離計測情報と撮影位
置及び方位情報とから上記撮影対象の位置情報を得るこ
とを特徴とする請求項1に記載のカメラ制御システム。
2. The position information acquiring means increases a zoom magnification of the one camera with respect to the object to be photographed, measures a distance by an automatic focusing function, and uses the distance measurement information and the photographing position and azimuth information to calculate the distance. 2. The camera control system according to claim 1, wherein position information of the photographing target is obtained.
【請求項3】 上記複数台のカメラ全てがズーム制御機
能及び焦点制御機能を有することを特徴とする請求項1
に記載のカメラ制御システム。
3. The apparatus according to claim 1, wherein all of the plurality of cameras have a zoom control function and a focus control function.
The camera control system according to item 1.
【請求項4】 上記複数台のカメラのうち任意の1台を
上記一のカメラとして選択可能にしたことを特徴とする
請求項3に記載のカメラ制御システム。
4. The camera control system according to claim 3, wherein any one of the plurality of cameras can be selected as the one camera.
【請求項5】 上記他のカメラにおけるズーム制御機能
及び焦点制御機能を用いて、上記撮影対象の位置情報を
得る他の位置情報取得手段を備えたことを特徴とする請
求項3に記載のカメラ制御システム。
5. The camera according to claim 3, further comprising another position information acquisition unit that obtains position information of the photographing target by using a zoom control function and a focus control function of the another camera. Control system.
【請求項6】 姿勢制御可能なカメラを制御するカメラ
制御装置であって、 上記姿勢制御可能なカメラのズーム制御機能及び焦点制
御機能を用いて、撮影対象の位置情報を得る位置情報取
得手段と、 上記位置情報取得手段により得られた上記撮影対象の位
置情報を、他の姿勢制御可能なカメラを制御するための
情報として外部に送信する送信手段とを備えたことを特
徴とするカメラ制御装置。
6. A camera control device for controlling a camera capable of controlling the attitude, comprising: a position information obtaining unit configured to obtain position information of a shooting target using a zoom control function and a focus control function of the camera capable of controlling the attitude. Transmitting means for transmitting the position information of the photographing target obtained by the position information obtaining means to the outside as information for controlling another camera capable of controlling the posture, a camera control device comprising: .
【請求項7】 上記位置情報取得手段は、上記撮影対象
に対して上記カメラのズーム倍率を上げ、自動合焦機能
により距離計測を行い、その距離計測情報及び撮影位置
情報から上記撮影対象の位置情報を得ることを特徴とす
る請求項6に記載のカメラ制御装置。
7. The position information acquiring means increases a zoom magnification of the camera with respect to the object to be photographed, measures a distance by an automatic focusing function, and determines a position of the object to be photographed from the distance measurement information and the photographing position information. 7. The camera control device according to claim 6, wherein information is obtained.
【請求項8】 ズーム倍率の上昇に制限を課すズーム制
限手段を備えたことを特徴とする請求項7に記載のカメ
ラ制御装置。
8. The camera control device according to claim 7, further comprising a zoom limiter that limits a rise in zoom magnification.
【請求項9】 複数台のカメラのうち一のカメラから得
られる撮影対象の位置情報を用いて、他のカメラの撮影
方向を制御するカメラ制御方法であって、 上記一のカメラにおけるズーム制御機能及び焦点制御機
能を用いて、上記撮影対象の位置情報を得る手順を有す
ることを特徴とするカメラ制御方法。
9. A camera control method for controlling a shooting direction of another camera using position information of a shooting target obtained from one of a plurality of cameras, wherein a zoom control function of the one camera is provided. And a procedure for obtaining the position information of the photographing target using a focus control function.
【請求項10】 姿勢制御可能なカメラを制御するカメ
ラ制御方法であって、 上記姿勢制御可能なカメラのズーム制御機能及び焦点制
御機能を用いて、撮影対象の位置情報を得る手順と、 上記手順により得られた上記撮影対象の位置情報を、他
の姿勢制御可能なカメラを制御するための情報として外
部に送信する手順とを有することを特徴とするカメラ制
御方法。
10. A camera control method for controlling an attitude-controllable camera, comprising: obtaining a position information of a shooting target using a zoom control function and a focus control function of the attitude-controllable camera; Transmitting the position information of the photographing target obtained by the method as information for controlling another posture-controllable camera to the outside.
【請求項11】 複数台のカメラのうち一のカメラから
得られる撮影対象の位置情報を用いて、他のカメラの撮
影方向を制御するためのプログラムを格納したコンピュ
ータ読み取り可能な記憶媒体であって、 上記一のカメラにおけるズーム制御機能及び焦点制御機
能を用いて、上記撮影対象の位置情報を得る処理を実行
するためのプログラムを格納したことを特徴とするコン
ピュータ読み取り可能な記憶媒体。
11. A computer-readable storage medium storing a program for controlling a shooting direction of another camera by using position information of a shooting target obtained from one of a plurality of cameras, and A computer-readable storage medium storing a program for executing a process of obtaining position information of an imaging target using a zoom control function and a focus control function of the one camera.
【請求項12】 姿勢制御可能なカメラを制御するため
のプログラムを格納したコンピュータ読み取り可能な記
憶媒体であって、 上記姿勢制御可能なカメラのズーム制御機能及び焦点制
御機能を用いて、撮影対象の位置情報を得る処理と、 上記処理により得られた上記撮影対象の位置情報を、他
の姿勢制御可能なカメラを制御するための情報として外
部に送信する処理とを実行するためのプログラムを格納
したことを特徴とするコンピュータ読み取り可能な記憶
媒体。
12. A computer-readable storage medium storing a program for controlling an attitude-controllable camera, comprising: a zoom control function and a focus control function of the attitude-controllable camera; A program for executing a process of obtaining position information and a process of transmitting the position information of the imaging target obtained by the above process to the outside as information for controlling another posture-controllable camera is stored. A computer-readable storage medium characterized by the above-mentioned.
JP2000053205A 2000-02-29 2000-02-29 Camera control system, device, method, and computer- readable storage medium Pending JP2001245280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000053205A JP2001245280A (en) 2000-02-29 2000-02-29 Camera control system, device, method, and computer- readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000053205A JP2001245280A (en) 2000-02-29 2000-02-29 Camera control system, device, method, and computer- readable storage medium

Publications (1)

Publication Number Publication Date
JP2001245280A true JP2001245280A (en) 2001-09-07

Family

ID=18574621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000053205A Pending JP2001245280A (en) 2000-02-29 2000-02-29 Camera control system, device, method, and computer- readable storage medium

Country Status (1)

Country Link
JP (1) JP2001245280A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112771A (en) * 2002-08-28 2004-04-08 Fuji Photo Film Co Ltd Method, system and program for controlling imaging apparatus
JP2006041611A (en) * 2004-07-22 2006-02-09 Matsushita Electric Ind Co Ltd Camera link system, camera device and camera link control method
JP2007093479A (en) * 2005-09-29 2007-04-12 Tokyo Institute Of Technology Three-dimensional coordinate measuring method
JP2007201701A (en) * 2006-01-25 2007-08-09 Mitsubishi Electric Corp Camera apparatus, and video monitoring system
WO2007114327A1 (en) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. Monitoring camera device
JP2010124263A (en) * 2008-11-20 2010-06-03 Nikon Corp Imaging apparatus
JP2011176868A (en) * 2011-04-18 2011-09-08 Hitachi Ltd Imaging apparatus
KR101193007B1 (en) * 2004-05-25 2012-10-19 소니 주식회사 Information processing apparatus and method, and recording medium
US8965195B2 (en) 2004-05-13 2015-02-24 Sony Corporation Image capturing system, image capturing device, and image capturing method
US9160920B2 (en) 2013-05-14 2015-10-13 Samsung Electronics Co., Ltd. Imaging system and method of autofocusing the same
JP2016522598A (en) * 2013-04-05 2016-07-28 アンドラ モーション テクノロジーズ インク. System and method for controlling an apparatus for image capture
JP2019082375A (en) * 2017-10-30 2019-05-30 株式会社東芝 Camera device and distance measuring method
JP2021018389A (en) * 2019-07-23 2021-02-15 日本放送協会 Subject position estimation device, focus auxiliary device and program thereof

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112771A (en) * 2002-08-28 2004-04-08 Fuji Photo Film Co Ltd Method, system and program for controlling imaging apparatus
US9467610B2 (en) 2004-05-13 2016-10-11 Sony Corporation Image capturing system, image capturing device, and image capturing method
US9998647B2 (en) 2004-05-13 2018-06-12 Sony Corporation Image capturing system, image capturing device, and image capturing method
US10999487B2 (en) 2004-05-13 2021-05-04 Sony Group Corporation Image capturing system, image capturing device, and image capturing method
US8965195B2 (en) 2004-05-13 2015-02-24 Sony Corporation Image capturing system, image capturing device, and image capturing method
KR101193007B1 (en) * 2004-05-25 2012-10-19 소니 주식회사 Information processing apparatus and method, and recording medium
JP2006041611A (en) * 2004-07-22 2006-02-09 Matsushita Electric Ind Co Ltd Camera link system, camera device and camera link control method
JP4516791B2 (en) * 2004-07-22 2010-08-04 パナソニック株式会社 Camera interlocking system, camera device, and camera interlocking control method
JP2007093479A (en) * 2005-09-29 2007-04-12 Tokyo Institute Of Technology Three-dimensional coordinate measuring method
JP2007201701A (en) * 2006-01-25 2007-08-09 Mitsubishi Electric Corp Camera apparatus, and video monitoring system
JP4704220B2 (en) * 2006-01-25 2011-06-15 三菱電機株式会社 Camera device and video surveillance system
WO2007114327A1 (en) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. Monitoring camera device
US8164626B2 (en) 2006-03-31 2012-04-24 Panasonic Corporation Monitoring camera device
JP4589261B2 (en) * 2006-03-31 2010-12-01 パナソニック株式会社 Surveillance camera device
JP2007274530A (en) * 2006-03-31 2007-10-18 Matsushita Electric Ind Co Ltd Monitoring camera apparatus
JP2010124263A (en) * 2008-11-20 2010-06-03 Nikon Corp Imaging apparatus
JP2011176868A (en) * 2011-04-18 2011-09-08 Hitachi Ltd Imaging apparatus
JP2016522598A (en) * 2013-04-05 2016-07-28 アンドラ モーション テクノロジーズ インク. System and method for controlling an apparatus for image capture
US9160920B2 (en) 2013-05-14 2015-10-13 Samsung Electronics Co., Ltd. Imaging system and method of autofocusing the same
JP2019082375A (en) * 2017-10-30 2019-05-30 株式会社東芝 Camera device and distance measuring method
JP2021018389A (en) * 2019-07-23 2021-02-15 日本放送協会 Subject position estimation device, focus auxiliary device and program thereof
JP7324639B2 (en) 2019-07-23 2023-08-10 日本放送協会 Subject position estimation device, focus assist device, and programs thereof

Similar Documents

Publication Publication Date Title
US10523871B2 (en) Imaging system and imaging control method with display of image with vertical alignment
US10008028B2 (en) 3D scanning apparatus including scanning sensor detachable from screen
EP3367662B1 (en) Control device, camera system, and program
JP2001245280A (en) Camera control system, device, method, and computer- readable storage medium
JP2012140101A (en) Flight control system for flying object
KR20120050436A (en) Control device, control method, image-capturing device, program, and image-capturing system
JP2017169170A (en) Imaging apparatus, moving apparatus, imaging system, imaging method, and program
JP2001025003A (en) Camera system and camera control method
JP2017201757A (en) Image acquisition system, image acquisition method, and image processing method
JP2022105568A (en) System and method for displaying 3d tour comparison
JP2000083246A (en) Camera control system, camera control method, and recording medium stored with program to execute processing thereof
JP2011130234A (en) Broadcasting camera system
JP7187768B2 (en) Camera device, camera device control system, and program
CN109302546B (en) Camera assembly and electronic equipment
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
JP6685713B2 (en) Imaging system and its control method, communication device, and mobile imaging device
JP4896115B2 (en) Automatic tracking imaging device from a moving body in the air
CN113467731B (en) Display system, information processing apparatus, and display control method of display system
JP2004128646A (en) Monitoring system and controller
KR101600699B1 (en) Flight recording system and operating method thereof
JP2012010028A (en) Transmission apparatus, transmission method, and program
WO2020209167A1 (en) Information processing device, information processing method, and program
JP6826481B2 (en) Video display device, control method and program of video display device
JP2012209626A (en) Conference device, program for conference device and control method
JP2019012432A (en) Work support system, device, method, and computer program