JP2001025003A - カメラシステム及びカメラ制御方法 - Google Patents

カメラシステム及びカメラ制御方法

Info

Publication number
JP2001025003A
JP2001025003A JP11194991A JP19499199A JP2001025003A JP 2001025003 A JP2001025003 A JP 2001025003A JP 11194991 A JP11194991 A JP 11194991A JP 19499199 A JP19499199 A JP 19499199A JP 2001025003 A JP2001025003 A JP 2001025003A
Authority
JP
Japan
Prior art keywords
camera
cameras
target object
manually controlled
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11194991A
Other languages
English (en)
Inventor
Takashi Oya
崇 大矢
Yoshihiro Ishida
良弘 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP11194991A priority Critical patent/JP2001025003A/ja
Publication of JP2001025003A publication Critical patent/JP2001025003A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】姿勢制御可能な複数のカメラにより同一の対象
を追尾する簡便なカメラシステムを提供する。 【解決手段】カメラ1−1〜1−4のうちの1つ、例え
ば、1−1ををマスターカメラとして選択して、オペレ
ータ1−11がカメラ制御端末1−10から直接制御す
る。そのマスターカメラ1−1により対象1−12の位
置を測定し、その位置情報を、残りのカメラ1−2〜1
−4のカメラ制御装置1−6〜1−8に伝える。カメラ
制御装置1−6〜1−8は、受け取った位置情報に基づ
いて、夫々のカメラ1−2〜1−4を、対象1−12の
方向を向くように自動的に姿勢制御する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数のカメラを備
えたカメラシステム、及び、その複数のカメラを制御す
るためのカメラ制御方法に関し、より詳細には、各々の
撮影方向をコンピュータにより自在に制御できる複数組
のカメラモジュールで構成されたカメラシステムにおい
て、同時に1つの対象を撮影し、或いは、追尾する技術
に関する。
【0002】
【従来の技術】監視カメラシステムや放送メディアの分
野において、複数台のカメラを用いて単一の対象を追尾
するシステムが実用化されている。
【0003】
【発明が解決しようとする課題】しかし、従来のこの種
のシステムでは、全てのカメラに関して、その姿勢制御
を人間が手動で行うのが一般的であった。そのため、一
人の人間が制御できるカメラの個数は限定されており、
大規模なシステムの構築は不可能であった。
【0004】一方、全てのカメラを自動制御する方式で
は、通常、使用環境や使用対象に何らかの制約条件が有
り、且つ、専用の画像処理ハードウェアを使用した高額
なシステムとなることが不可避であった。また、障害物
の在る環境において同一の対象を撮影することは困難で
あった。
【0005】そこで、本発明の目的は、市販されている
カメラシステムの持つ機能を利用して、簡便に同一の対
象を撮影又は追尾することのできるカメラシステム及び
カメラ制御方法を提供することである。
【0006】
【課題を解決するための手段】上述した課題を解決する
本発明のカメラシステムは、撮影姿勢を制御可能な撮影
姿勢制御手段を持つ複数のカメラを備えたカメラシステ
ムであって、前記複数のカメラから任意に1つを選択し
て、それを手動制御することができ、且つ、その手動制
御したカメラから得られた情報を基に、残りのカメラの
撮影姿勢制御手段に夫々撮影姿勢の制御を行わせること
ができるシステム制御手段を有する。
【0007】本発明の一態様では、前記複数のカメラの
各々がオートフォーカス機構による距離計測機能、及
び、自身が撮影している対象物体までの距離と自身の撮
影姿勢の情報とから、その対象物体の位置を検出する機
能を有している。
【0008】本発明の一態様では、前記手動制御したカ
メラにより対象物体の位置を検出し、その検出された対
象物体の位置情報に基づいて、残りのカメラが、夫々、
前記対象物体の方向を向くように制御される。
【0009】本発明の一態様では、前記対象物体の方向
に向けられた前記残りのカメラの各々が、自身が撮影し
ている対象物体の位置を検出した結果を前記システム制
御手段に転送し、前記システム制御手段が、前記残りの
カメラの各々から転送されてきた検出結果が、前記手動
制御したカメラによる検出結果と一致しているか否かを
判断する。
【0010】本発明の一態様では、前記システム制御手
段が、前記残りのカメラの各々について前記一致判断の
結果を表示する手段を有する。
【0011】本発明の一態様では、前記システム制御手
段が、前記手動制御したカメラによる距離計測結果を連
続的にモニターし、急激な距離変化を検出した時に、以
降手動制御するカメラを別のカメラに自動的に切り替え
る。
【0012】本発明の一態様では、手動制御するカメラ
として新たに選択されるカメラが、前記一致判断の結
果、一致していると判断されたカメラの中から選ばれ
る。
【0013】本発明の一態様では、前記一致していると
判断されたカメラのうち、最も短い距離計測結果が得ら
れているカメラを、新たに手動制御するカメラとして選
択する。
【0014】また、本発明のカメラ制御方法は、撮影姿
勢を制御可能な撮影姿勢制御手段を持つ複数のカメラを
制御するためのカメラ制御方法であって、前記複数のカ
メラから任意に選択した1つのカメラを手動制御し、そ
の手動制御したカメラから得られた情報を基に、残りの
カメラの撮影姿勢制御手段に夫々撮影姿勢の制御を行わ
せる。
【0015】本発明の一態様では、前記複数のカメラの
各々がオートフォーカス機構による距離計測機能、及
び、自身が撮影している対象物体までの距離と自身の撮
影姿勢の情報とから、その対象物体の位置を検出する機
能を有している。
【0016】本発明の一態様では、前記手動制御したカ
メラにより対象物体の位置を検出し、その検出された前
記対象物体の位置情報に基づいて、残りのカメラを、夫
々、前記対象物体の方向を向くように制御する。
【0017】本発明の一態様では、前記対象物体の方向
に向けられた前記残りのカメラの各々が、自身が撮影し
ている対象物体の位置を検出して得られた検出結果と、
前記手動制御したカメラによる検出結果とが一致してい
るか否かを判断する。
【0018】本発明の一態様では、前記残りのカメラの
各々について前記一致判断の結果を表示する。
【0019】本発明の一態様では、前記手動制御したカ
メラによる距離計測結果を連続的にモニターし、急激な
距離変化を検出した時に、以降手動制御するカメラを別
のカメラに自動的に切り替える。
【0020】本発明の一態様では、手動制御するカメラ
として新たに選択するカメラを、前記一致判断の結果、
一致していると判断したカメラの中から選ぶ。
【0021】本発明の一態様では、前記一致していると
判断したカメラのうち、最も短い距離計測結果が得られ
ているカメラを、新たに手動制御するカメラとして選択
する。
【0022】また、本発明は、撮影姿勢を制御可能な撮
影姿勢制御手段を持つ複数のカメラを制御するためのカ
メラ制御方法であって、前記複数のカメラから任意に選
択した1つのカメラを手動制御するステップと、その手
動制御したカメラから得られた情報を基に、残りのカメ
ラの撮影姿勢制御手段に夫々撮影姿勢の制御を行わせる
ステップと、を有するカメラ制御方法を実現するための
コンピュータプログラムを格納した記憶媒体を含む。
【0023】
【発明の実施の形態】以下、本発明を好ましい実施の形
態に従い説明する。
【0024】(第1の実施の形態)本実施の形態は、撮
影姿勢が外部制御可能な複数のカメラからなるカメラシ
ステムにおいて、1つのカメラを選択して、手動制御に
より対象の撮影及び位置計測を行う。そして、その対象
の位置情報を残りのカメラに送信して、それらを制御す
ることにより、複数のカメラが同時に同一の対象を撮影
するカメラシステムを構築する。
【0025】以下に、本実施の形態のハードウェア構成
とカメラ制御の原理及び処理手順を説明する。
【0026】図1に、本実施の形態の全体ハードウェア
構成を示す。
【0027】1つのカメラモジュールは、カメラ制御装
置(1−5、1−6、1−7、1−8)と、そのカメラ
制御装置により姿勢制御が可能なカメラ(1−1、1−
2、1−3、1−4)とが対になって構成されており、
これらの複数組(1−1と1−5、1−2と1−6、1
−3と1−7、1−4と1−8)が夫々ネットワーク1
−9に接続されている。なお、図1では4組のカメラモ
ジュールを例示しているが、カメラモジュールは、2組
以上であれば何組でも可能である。ネットワーク1−9
には、カメラ制御端末1−10が接続され、オペレータ
1−11は、そのカメラ制御端末1−10により、ネッ
トワーク1−9を通じて、同時に1つ又は複数のカメラ
の映像を見ることができ、且つ、そのうちの1つのカメ
ラモジュールを制御することができる。ここではネット
ワーク1−9としてLANを想定しているが、これ以外
でも、Ether NET、ATM、C/FDDI等、伝送方
式は限定されない。
【0028】各カメラ制御装置1−5〜1−8は、映像
ソフトウェアとカメラ制御ソフトウェアを搭載してい
る。映像ソフトウェアは、カメラから映像を取り込み、
それをネットワーク1−9に送信する機能を持つ。ま
た、カメラ制御ソフトウェアは、各カメラに割り当てら
れた役割に応じて、カメラの姿勢を直接制御する機能、
対象物体1−12の位置情報を与えた時に、その対象物
体1−12が視野に入るように姿勢制御を行う機能、及
び、その対象物体1−12の位置を計測して、その結果
をカメラ制御端末1−10や他のカメラに伝える機能を
持つ。
【0029】一方、カメラ制御端末1−10は、各カメ
ラモジュールからの映像や各種情報の受信及び表示、オ
ペレータ1−11のカメラ切り替え命令やカメラ制御命
令の入力及びカメラ制御装置への転送等の機能を持つハ
ードウェア並びにソフトウェアを搭載している。
【0030】以上のシステムにおいて、以降、オペレー
タ1−11が直接操作を行うカメラモジュールを「マス
ターカメラ」と呼び、オペレータ1−11が直接操作を
行わないカメラモジュールを「スレーブカメラ」と呼
ぶ。全てのカメラモジュールは同一のハードウェア及び
ソフトウェアを持ち、使用状況に応じてマスターカメラ
かスレーブカメラになる。
【0031】図2に、各カメラモジュール及びカメラ制
御端末のハードウェア内部構成を示す。
【0032】各カメラモジュールのハードウェアは、カ
メラ2−1とカメラ制御装置2−6から構成される。こ
れらは、図1のカメラ1−1〜1−4のうちの1つ、及
び、それに対応するカメラ制御装置1−5〜1−8の1
つを夫々図示したものである。
【0033】カメラ2−1は、画像を入力する撮像系2
−2、撮像の際の各種光学的パラメータを制御する光学
的パラメータ制御装置2−3、及び、姿勢制御装置2−
4を具備している。ここで、光学的パラメータとは、フ
ォーカス、アイリス、ゲイン、シャッタースピード、ホ
ワイトバランス等を指す。
【0034】光学的パラメータ制御装置2−3と姿勢制
御装置2−4は、信号線を介して、カメラ制御装置2−
6に接続されており、そのカメラ制御装置2−6と通信
することによって、各種光学的パラメータや水平(パ
ン)及び垂直(チルト)方向の現在角度の取得並びに設
定(制御)が可能である。制御信号方式としては、代表
的なものとして、RS−232CやパラレルIO等が有
るが、それらに限定されるものではない。
【0035】カメラ2−1の撮像系2−2から出力され
る映像出力信号は、ビデオキャプチャーボード2−12
によってデジタル化されて、ネットワーク2−18(図
1のネットワーク1−9と同じもの)に送られる。ビデ
オキャプチャーボード2−12はVRAMを兼ねてお
り、例えば、モニター2−13に、カメラの映像とコン
ピュータの出力とを重畳して表示することができる。出
力信号の形式には、NTSC方式やY/C分離方式等が
有るが、それらには限定されない。
【0036】カメラ制御装置2−6は、CPU2−7、
RAM2−8、ROM2−9、二次記憶装置2−10、
カメラとの通信を行う入出力ポート(I/O)2−1
1、及び、上述したビデオキャプチャーボード2−12
を具備する。また、ネットワーク2−18を通じて外部
からカメラ制御命令を実行したり、外部に映像やカメラ
の状態を転送したりする通信装置2−17を具備する。
更に、保守・点検用のために、必要に応じて、キーボー
ド2−14や、マウス等のポインティングデバイス2−
15が接続される。
【0037】これらのCPU2−7、RAM2−8、R
OM2−9、二次記憶装置2−10、I/O2−1
1、、ビデオキャプチャーボード2−12、通信装置2
−17、キーボード2−14、及び、ポインティングデ
バイス(マウス)2−15は全てバス2−16に接続さ
れる。
【0038】このようなカメラ制御装置2−6は、汎用
のコンピュータシステムにより実現することができる。
【0039】カメラ制御装置2−6は、キーボード2−
14及びマウス2−15からの入力、又は、ネットワー
ク2−18を介して外部から受信した制御信号を、制御
信号線を通じて、カメラ2−1の光学的パラメータ制御
装置2−3及び姿勢制御装置2−4に送信し、それらの
装置を制御する。
【0040】カメラ制御端末2−19(図1のカメラ制
御端末1−10と同じもの)のハードウェア構成は、上
述したカメラ制御装置2−6の構成において、ビデオキ
ャプチャーボード2−12を単なるVRAM2−24に
変更したこと、及び、接続されているカメラを制御する
ために必要であったI/O2−11を除いたこと以外
は、上述したカメラ制御装置2−6と同じである。即
ち、CPU2−20、ROM2−21、RAM2−2
2、二次記憶装置2−23、VRAM2−24、通信装
置2−29、及び、バス2−28を具備しており、モニ
ター2−25、キーボード2−26、及び、ポインティ
ングデバイス(マウス)2−27が接続される。このカ
メラ制御端末2−19も、ネットワークインターフェー
ス及びグラフィック表示機能を有する市販のコンピュー
タシステムを用いて実現が可能である。
【0041】次に、図1を参照して、本実施の形態によ
るカメラ制御方法を説明する。
【0042】図1の例では、4組のカメラモジュールが
存在する。三次元ワールド座標上での各カメラの位置及
び姿勢は既知であるとする。対象物体1−12はカメラ
前方を移動している。オペレータ1−11は、まず最初
に、カメラ制御端末1−10のカメラ操作ソフトを用い
てマスターカメラを選択し、そのマスターカメラの視線
方向を指示して、カメラの制御を行う。
【0043】全てのカメラモジュールは、オートフォー
カス(AF)を利用した距離測定機能を有しており、画
像中の或る領域に存在する対象までの距離を計測でき
る。その対象の存在する画像領域は、マスターカメラに
おいては指定することが可能であるが、スレーブカメラ
では画面中央に固定する。各カメラの視線方向と対象の
画像内での位置、及び、対象までの距離から、その対象
のワールド座標における位置を決定することができる。
【0044】このAF機能を利用した距離測定方法につ
いて説明する。
【0045】AF機能は、各カメラ2−1の光学的パラ
メータ制御装置2−3(図2参照)に含まれるものであ
り、画像中の部分領域画像に対してフォーカスレンズ駆
動モータの最適な制御位置を求めるものである。このよ
うなフォーカスその他の光学的パラメータの最適化を目
的として設定される画像中の部分領域を、以下、「検出
領域」と呼ぶ。
【0046】AF動作では、検出領域画像の高周波成分
のエネルギーが最大となるようにフォーカスレンズ駆動
モータの位置を制御する方式が最も一般的である。この
ような光学的パラメータ制御装置によるAF機能は、市
販のカメラに実装されている機能を用いて実現が可能で
ある。
【0047】フォーカスレンズ駆動モータの制御位置か
ら距離を求める方法としては、予め距離が既知である対
象に対してAF動作を行い、最適化後のモータの駆動パ
ルス値と距離との関係をテーブルとして保持する方法
や、光学系の設計から解析的に求める方法等が有る。
【0048】ここで、対象物体1−12は、必ずしも移
動物体でなくても良く、静止した物体や物体の一部分で
も良い。なお、画像中の部分領域を指定して距離を求め
るというのは、一般化すると、三次元空間中の特定領域
までの距離を、画像中の合焦という観点から求めるもの
と考えることができる。
【0049】本システムでは、まず、マスターカメラに
おいて、対象物体1−12の位置を計測する。上述した
方法によってワールド座標における対象物体1−12の
位置が求まれば、マスターカメラは、その位置情報を、
カメラ制御端末1−10のカメラ操作ソフトとスレーブ
カメラに夫々転送する。スレーブカメラのカメラ制御装
置のカメラ制御ソフトは、そのスレーブカメラのワール
ド座標上での位置及び姿勢が既知であることから、その
スレーブカメラから見て対象物体1−12がどの方向に
在るかを計算する。この結果に基づいて、夫々のスレー
ブカメラを対象物体1−12の方向に向けるように制御
できる。
【0050】このように、マスターカメラを選択し、そ
れを対象物体1−12に向けることで、スレーブカメラ
も、人手を介すること無く、対象物体1−12に向ける
ことができる。
【0051】図3に、カメラ制御端末1−10に搭載さ
れるカメラ制御プログラムのGUI(Graphical User I
nterface) の一例を示す。
【0052】表示画面は、マスターカメラによる映像画
面3−1、対象物体の映像3−2、AF動作の対象領域
である検出領域3−3、カメラを操作するためのカメラ
操作ボタン3−4、プログラム終了ボタン3−5、対象
物体3−2の位置表示3−6、及び、カメラ選択ボタン
3−7から構成される。
【0053】制御を始めるに当たり、オペレータは、ま
ず、マスターカメラを選択する。これは、カメラ選択ボ
タン3−7のうちの所望のカメラ番号のボタンをマウス
等で指定することにより行う。
【0054】次に、オペレータは、「直接操作」若しく
は「対象の指定」により、マスターカメラを操作する。
前者は、カメラ操作ボタン3−4を用いる方法であり、
それにより、上下・左右・ホームポジションへの移動等
の制御を行うことができる。なお、この場合、検出領域
3−3の位置は、例えば、画面3−1の中央に固定した
まま変化しない。一方、後者は、検出領域3−3を移動
させることによって、カメラを制御する方法である。例
えば、マウス等のポインティングデバイスを用いたドラ
ッグ操作により、検出領域3−3の移動操作を行う。こ
の時、検出領域3−3の画面3−1中央からの変位に応
じて、カメラが、その姿勢を変化させるような姿勢制御
が行われる。
【0055】いずれの場合も、検出領域3−3を、マス
ターカメラの画面3−1内の対象物体3−2に重ねるこ
とで、マスターカメラのカメラ制御装置が、AF機構を
用いた距離計測、及び、後述する位置計測を行い、得ら
れた位置情報を、カメラ制御端末1−10を介して、各
スレーブカメラに伝える。そして、各スレーブカメラ
が、その位置情報に基づいて、自動的に姿勢制御され
る。
【0056】図4に、マスターカメラによる対象物体の
位置計測、及び、1つのスレーブカメラの姿勢制御目標
値の計算原理を示す。
【0057】図4(a)において、マスターカメラの視
点は三次元座標空間の点Cm (xm,ym ,zm )に在
り、スレーブカメラはCs (xs ,ys ,zs )に在
る。また、対象物体は点Pt (xt ,yt ,zt )の位
置に在る。
【0058】ここで、オペレータが、画面上で対象物体
位置に検出領域3−3を重ねたとする。図4(b)に、
マスターカメラの画像4−1における座標系を示す。こ
こでは、その画像4−1における座標系を、マスターカ
メラ(三次元座標系の原点)の側から見て、画像の左上
を原点とし、右にX軸の正方向(図中、u方向)、下に
Y軸の正方向(図中v方向)をとる。検出領域の画像座
標を(uf ,vf )、画像4−1の中心座標を(uc
c )とし、レンズの焦点距離をfm (mm)とする
と、マスターカメラから見た対象物体の方向θf 、φf
は、夫々、以下のように表される。 θf = tan-1{kx |uf −uc |/fm } φf = tan-1{ky |vf −vc |/ sqrt〔{kx (uf −uc )}2 +fm 2 〕} 但し、sqrt(x)はxの平方根 …(1) ここで、kx 、ky は、1画素の大きさ(横幅、縦幅)
であり、単位は(mm/pixel)である。これは、CCD
撮像素子のサイズと有効画素数及び画像平面のサイズ等
から計算することができる。
【0059】今、問題の簡単化のために、マスターカメ
ラ座標系のXYZ各軸がワールド座標系のXYZ各軸と
平行であり、パン方向の回転角は、Y軸の正方向を原点
とし、Z軸回りにX軸の正方向への回転角であると定義
する。また、チルト方向の回転角は、XY平面からの仰
角であるとする。この場合、図4(a)のワールド座標
において、対象物体の座標は、マスターカメラからの距
離rmt、マスターカメラの位置(xm ,ym ,zm )、
及び、姿勢θm 、φm を用いて、以下のように表すこと
ができる。
【0060】
【数1】
【0061】ここで、マスターカメラの位置(xm ,y
m ,zm )及び姿勢θm 、φm を夫々求める必要が有る
が、これは、実測によって求めても良いし、姿勢につい
ては、マスターカメラとの通信によって得た値を使用し
ても良い。また、一般に、三次元空間中においてカメラ
の位置及び姿勢を求める手法を「カメラのキャリブレー
ション」と呼び、例えば、「R.Y.Tsai, "An efficient
and accurate camera calibration for 3D machine vis
ion", Proc. of CVPR, pp.364-374, 1986 」をはじめと
して、多くの研究例が有る。
【0062】本実施の形態では、カメラは、オペレータ
の操作に応じて視線方向を変更するが、この場合、視点
の位置とパン・チルト軸の回転中心がずれている場合
は、視点の位置が変化する。しかし、カメラの機構が既
知であれば、公知の手法による正確なキャリブレーショ
ンにより、カメラの回転運動に伴う視点の移動は、計算
することが可能である。なお、厳密には、フォーカスレ
ンズの操作によっても視点は変化するが、本実施の形態
では、この変化分は無視する。
【0063】次に、対象物体の位置から、スレーブカメ
ラのパン・チルト制御値θst、φstを求めると、以下の
ようになる。ここで、スレーブカメラ座標系の原点はC
s (xs ,ys ,zs )であり、そのXYZ各軸は、マ
スターカメラ座標系のXYZ各軸と平行に設定する。 θst= tan-1{(xt −xs )/(yt −ys )} φst= tan-1{(zt −zs )/sqrt〔(xt −xs 2 + (yt −ys 2 〕} …(1) 上記の値が求まれば、その角度を制御目標値としてカメ
ラを制御するように、対応するカメラ制御装置から指令
を送れば良い。
【0064】以上のような原理により、オペレータ1−
11の制御するマスターカメラを用いて対象物体1−1
2の位置計測を行い、その結果を用いて夫々のスレーブ
カメラの姿勢を制御し、それらを対象物体1−12の方
向に向けることができる。
【0065】図5に、本実施の形態のカメラシステムに
おけるカメラ制御処理手順を示す。
【0066】図5(a)は、カメラ制御端末1−10上
で動作するカメラ操作ソフトのフローチャートであり、
図5(b)は、各カメラ制御装置1−5〜1−8上で動
作するカメラ制御ソフトのフローチャートである。マス
ターカメラとスレーブカメラは同一のソフトで動作し、
カメラ制御端末1−10のカメラ操作ソフトからの指令
により、その役割を変更する。
【0067】図5(a)に示すカメラ操作ソフトでは、
処理開始後、まず、ステップS501において初期化処
理を行う。これは、上述したGUIの表示等である(図
3参照)。次に、ステップS502において、入力イベ
ント待ちループに入る。入力イベントには、GUIから
のオペレータの制御入力と、マスターカメラからの指令
とが有る。
【0068】オペレータが、図3に示すGUIのカメラ
操作ボタン3−4を押した場合や、検出領域3−3を画
面3−1中の対象物体3−2に重ねる操作をした場合に
は、ステップS503のカメラ移動入力イベントが発生
(Yes)する。この場合には、ステップS504に進み、
マスターカメラの姿勢を変更するモータの制御コマンド
を作成する。この時、入力が、カメラ操作ボタン3−4
の方向ボタンの場合には、単に、一定角度回転を行う制
御命令を生成する。また、検出領域3−3の移動の場合
には、前述した(1)式のθf 、φf が、カメラの光軸
を基準とした対象物体3−2の角度変位なので、これら
の値を移動目標角度とした制御命令を生成する。そし
て、この命令生成後、次のステップS505において、
マスターカメラに、その生成したカメラ制御命令を送信
する。
【0069】一方、GUIにおいてマスター選択ボタン
3−7が押された場合には、ステップS506のマスタ
ー選択イベントが発生する。この場合には、ステップS
507に進み、制御コマンドを送るマスターカメラを、
以降、指定されたものに変更するマスター選択処理を行
う。また、このカメラ制御端末1−10内の映像受信ソ
フトウェアにも、受信を行うカメラの変更を指示する。
なお、本実施の形態では、全てのカメラ1−1〜1−4
からの映像がネットワーク1−9上に送られていて、そ
れを、受信側で選択する構成としているが、カメラ制御
端末1−10のカメラ操作ソフトから映像受信要求が有
った時のみ、該当するカメラが映像を送信するようにし
ても良い。
【0070】マスターカメラは、後述するように、カメ
ラ制御を行った後に、対象物体1−12の位置計測を行
い、その結果を、カメラ制御端末1−10のカメラ操作
ソフトに送信する。このメッセージをカメラ操作ソフト
が受信すると(ステップS508)、ステップS509
に進んで、GUIにおける対象物体の表示3−6の更新
を行う。
【0071】また、GUIにおいて終了ボタン3−5が
押された場合には、ステップS510の終了イベントが
発生し、ステップS511に進んで、終了処理として、
全てのカメラモジュールに処理の終了を通知し、システ
ムを終了する。
【0072】次に、図5(b)のカメラ制御ソフトの処
理手順を参照して、各カメラモジュールの動作を説明す
る。上述したように、マスターカメラとスレーブカメラ
は同一のソフトで動作し、カメラ制御端末1−10のカ
メラ操作ソフトからの指令により、その役割を変更す
る。
【0073】まず、ステップS520においてカメラの
初期化を行った後、ステップS521において、メッセ
ージ待ちの状態となる。そして、何らかのメッセージが
来た場合には、その内容を、ステップS522、S52
4、S528においてチェックする。もし、送られてき
たメッセージの内容が、終了イベントを指示するもので
あった場合には(ステップS522)、ステップS52
3に進み、このカメラ制御ソフトの処理を終了する。
【0074】一方、送られてきたメッセージの内容が、
モータの回転角度を指定する制御命令であった場合には
(ステップS524)、それは、マスターカメラとして
の動作命令である。そこで、ステップS525に進ん
で、その制御命令通りモータの制御を行った後、次のス
テップS526で、前述した手法により、対象物体1−
12の位置計測を行う。そして、次のステップS527
において、その計測した結果を、カメラ制御端末1−1
0のカメラ操作ソフト及び他のカメラ制御装置(スレー
ブカメラ)に対し送信する。
【0075】また、送られてきたメッセージの内容が、
三次元座標を指定しての姿勢制御命令であった場合には
(ステップS528)、それは、スレーブカメラとして
の動作命令である。この場合には、ステップS529に
進んで、指定された位置の方を向くようなカメラの姿勢
を計算し、次のステップS530において、モータを制
御し、姿勢を変更する。この時のスレーブカメラの移動
角度は、前述した(3)式のθst、φstを採用すれば良
い。
【0076】上述した処理のうち、終了イベント以外の
処理が終了すると、再びステップS521に戻って、メ
ッセージ待ちの状態となる。
【0077】以上に説明した第1の実施の形態によれ
ば、姿勢制御可能な複数のカメラをネットワークで接続
し、その中の1つをオペレータが直接制御するカメラと
して選択して、実際に制御を行い、そのカメラから得た
情報に基づいて、残りのカメラが自動的に制御されるよ
うに構成することで、複数のカメラで1つの対象を追尾
する際のカメラ制御に係るコストの削減と、正確且つ柔
軟な制御とが両立する簡便なカメラシステムを構築する
ことができる。
【0078】(第2の実施の形態)次に、本発明の第2
の実施の形態を説明する。この第2の実施の形態では、
上述した第1の実施の形態におけるスレーブカメラにお
いても対象物体の位置計測を行い、夫々のスレーブカメ
ラが、マスターカメラと同一の対象物体を見ているかど
うかを、カメラ制御端末において表示するようにしてい
る。この結果、例えば、障害物により或るスレーブカメ
ラから対象物体を見ることができない場合には、その見
えないという状態をカメラ制御端末において表示するこ
とができ、オペレータは、現時点で、どのスレーブカメ
ラがマスターカメラとして新たに選択可能であるかを知
ることができる。
【0079】この第2の実施の形態におけるハードウェ
ア構成、全てのカメラ及びカメラ制御装置等の構成は、
図1及び図2に示した第1の実施の形態と同じであるの
で、その説明は省略する。なお、この第2の実施の形態
においても、上述した第1の実施の形態と同様、カメラ
モジュールは2組以上有れば良い。
【0080】図6を参照して、この第2の実施の形態の
カメラ制御方法を説明する。
【0081】この図6において、カメラ制御装置等の構
成は、図1に示した第1の実施の形態と同じであるの
で、この図6には、第1の実施の形態で説明したカメラ
1−1〜1−4のみを、夫々、6−1〜6−4として示
している。この第2の実施の形態は、この構成を用いて
対象物体6−5を追尾する際に、その対象物体6−5
が、障害物6−7や6−8によって、カメラから見えな
い場合が有ることを想定している。
【0082】今、カメラ6−1をマスターカメラとし、
対象物体6−5が図示の位置に在るとする。この時、対
象物体6−5を見ることのできるカメラは、マスターカ
メラ6−1の他には、スレーブカメラ6−2と6−4で
ある。スレーブカメラ6−3からは、障害物6−7のた
めに、対象物体6−5を見ることができない。
【0083】このような場合でも、上述した第1の実施
の形態の手法を用いて、マスターカメラ6−1からの対
象物体6−5の位置計測情報を基に、全てのスレーブカ
メラ6−2〜6−4を、対象物体6−5の方向に姿勢制
御することが可能である。スレーブカメラ6−3から
は、実際には対象物体6−5は見えないのであるが、ど
の方向を見れば良いかは計算できるからである。
【0084】ここで、或るスレーブカメラから対象物体
6−5が見えているかどうかを求める方法について説明
する。
【0085】これは、マスターカメラ6−1からの情報
を基にして、そのスレーブカメラの視線方向を対象物体
6−5に向けた後、そのスレーブカメラにおいても、第
1の実施の形態で説明したマスターカメラによる位置計
測と同様の手法で対象物体6−5の位置計測を行い、そ
の結果が、マスターカメラ6−1から得られている対象
物体6−5の位置情報と一致しているかどうかをチェッ
クすれば良い。もし、スレーブカメラ6−3のように、
障害物6−7で邪魔されていれば、実際に計測したのは
障害物6−7の位置であるので、マスターカメラ6−1
から得られている対象物体6−5の位置とは一致しな
い。実際には、計測誤差も考慮して、予め閾値を設けて
おき、マスターカメラ6−1からの位置情報との誤差
が、その閾値以内であれば、同一の対象を計測したと判
断する等の手法を用いる。
【0086】夫々のスレーブカメラ6−2〜6−4で計
測した位置情報は、カメラ制御端末のカメラ制御ソフト
に送信され、そのカメラ制御ソフト上で、どのスレーブ
カメラから対象物体6−5が見えているかを判断し、そ
の結果を表示する。
【0087】図7に、GUIにおける表示例を示す。こ
の図7は、図3に示したGUIと略同一のもので、図3
の符号3−1〜3−7が、夫々、図7の符号7−1〜7
−7に対応する。
【0088】この図7の例では、カメラ選択ボタン7−
7の色を変更することで、各カメラにおける対象物体の
可視/不可視を表示する。例えば、マスターカメラ6−
1に対応するボタン7−8は赤、対象物体6−5が可視
であるスレーブカメラ6−2と6−4に夫々対応するボ
タン7−9と7−11は緑、対象物体6−5が不可視で
あるスレーブカメラ6−3に対応するボタン7−10は
無色といった具合に表示を行う。
【0089】このような表示を行えば、オペレータは、
現在、どのスレーブカメラが、マスターカメラと同じ対
象物体を見ているのか一目瞭然であり、マスターカメラ
を切り替える際に、この表示を参考にして、円滑な切り
替え操作を行うことができる。
【0090】図8に、本実施の形態におけるカメラ操作
ソフトのフローチャート(図8(a))及びカメラ制御
ソフトのフローチャート(図8(b))を示す。
【0091】この図8は、第1の実施の形態で説明した
図5と基本的に同一であるので、その図5と異なる部分
についてのみ説明する。
【0092】図8(a)のカメラ操作ソフトにおける相
違は、ステップS808において、マスターカメラに加
えてスレーブカメラからもメッセージを受け取る可能性
が有るということである。この場合、受け取る情報は、
いずれも対象物体の位置情報である。いずれかのカメラ
からメッセージを受け取ると、ステップS809に進ん
で、表示変更処理を行う。この時、マスターカメラから
位置情報を受け取った場合には、前述した第1の実施の
形態と同様にして、対象物体の位置表示7−6の更新を
行う。一方、スレーブカメラから位置情報を受け取った
場合には、それを、前述したように、マスターカメラか
らの位置情報と比較して対象物体の可視/不可視を判断
し、その結果に応じて、カメラ選択ボタン7−7の表示
を変更する。
【0093】また、図8(b)のカメラ制御ソフトで
は、ステップS827以降のスレーブカメラとしての処
理に、ステップS830の位置計測処理、及び、ステッ
プS831の位置情報送信処理が加わったことが異な
る。ステップS830の位置計測処理は、ステップS8
25のマスターカメラにおける処理と同一の処理を行
う。また、ステップS831の位置情報送信処理は、カ
メラ操作ソフトに対してのみ位置情報を送信する。これ
は、他のスレーブカメラに位置情報を送信すると、他の
スレーブカメラが、それを姿勢制御情報と誤認するから
である。従って、このステップS831の位置情報送信
処理は、ステップS826のマスターカメラとしての位
置情報送信処理とは異なる。
【0094】以上に説明した第2の実施の形態によれ
ば、マスターカメラとスレーブカメラの双方で位置計測
を行い、夫々が同一の対象を見ているかどうかを確認
し、その結果を、カメラ制御端末のカメラ操作ソフトを
用いてオペレータに示すことで、円滑なカメラ切り替え
操作を行うことができる。
【0095】(第3の実施の形態)次に、本発明の第3
の実施の形態を説明する。この第3の実施の形態では、
上述した第2の実施の形態と同様の構成において、マス
ターカメラにおける位置計測結果を連続的にモニターす
ることにより、マスターカメラから見て対象物体が障害
物に隠れた瞬間を検出する機能を持たせる。この結果、
マスターカメラにおいて対象物体が障害物に隠れた場合
に、別の角度からその対象物体を見ることのできるスレ
ーブカメラに自動的に切り替わるカメラ切替処理を実現
する。
【0096】この第3の実施の形態におけるハードウェ
ア構成、全てのカメラ及びカメラ制御装置等の構成は、
図1及び図2に示した第1の実施の形態と同じであるの
で、その説明は省略する。なお、この第3の実施の形態
においても、上述した第1の実施の形態と同様、カメラ
モジュールは2組以上有れば良い。
【0097】図9を参照して、マスターカメラが対象物
体を見失う状況を説明する。
【0098】この図9は、前述した図6と略同じもので
あり、図9中の符号9−1〜9−5、9−7、及び、9
−8は、夫々、図6の6−1〜6−5、6−7、及び、
6−8に対応する。また、図9中の符号9−6は、移動
後の対象物体を示す。
【0099】図9に示すように、対象物体9−5が9−
6の位置に移動すると、マスターカメラ9−1からは、
障害物9−8の陰に隠れて、対象物体9−6を見ること
ができない。この時、オペレータが、検出領域を、その
まま対象物体9−6の方向に合わせていると、実際の位
置計測の結果は障害物9−8の座標となるので、このま
ま放っておけば、全てのスレーブカメラは、対象物体9
−6ではなく、障害物9−8に視線を向けることにな
る。しかし、速やかに、マスターカメラを、対象物体が
可視であるスレーブカメラ(例えば、9−2)に切り替
えれば、対象物体9−6の追尾動作を継続することがで
きる。
【0100】このために、対象物体が障害物に隠れたか
どうかを判断する方法を、以下に説明する。
【0101】図10及び図11を参照して、その判断の
方法を説明する。ここでは、マスターカメラと対象物体
との距離変化に基づいて判断を行う。
【0102】図10は、対象物体が10−3→10−4
→10−5の位置に連続的に移動する様子を示したもの
である。マスターカメラ10−1は、オペレータの操作
によりその対象物体を追尾するが、この間、障害物10
−2により対象物体が見えない期間が有る。実際には、
対象物体が見えないのに操作を続けることは困難である
が、ここでは、説明のために、対象物体が10−3→1
0−5へ移動する間、常に、マスターカメラ10−1が
対象物体の方向を向いているものとする。
【0103】図11は、図10の状態において、マスタ
ーカメラ10−1が行う距離計測で得られる距離の変
化、及び、その距離の微分値の変化を夫々示したもので
ある。上下のグラフにおいて、横軸は時刻、縦軸が、夫
々、距離及び距離の微分値である。
【0104】対象物体は、10−3→10−4→10−
5と移動するに連れて、徐々にマスターカメラ10−1
に近づき、そして、離れて行くが、その過程で、障害物
10−2に隠蔽される期間(b)が有る。この隠蔽期間
(b)は、マスターカメラ10−1が、実際には、障害
物10−2までの距離を計測しているので、隠蔽の前後
で急激に距離が変化する。即ち、物体の動きは連続的で
あると仮定すると、見えている期間(a)及び(c)で
は、距離の微分値はさほど変化しないが、障害物10−
2に隠れる瞬間に、距離の微分値が急激に変化する。そ
こで、この距離の微分値の変化、即ち二次微分値に注目
すれば、対象物体が障害物に隠れた瞬間を検出できるこ
とになる。
【0105】検出の方法として考えられるのは、閾値を
設けることである。例えば、一定の閾値Thd を設けて、
二次微分の絶対値がThd より大きくなった場合に、隠れ
を検出するとすれば良い。但し、この方法では、対象物
体の速度やカメラとの位置関係によって最適な閾値が変
化する可能性が有る。そこで、対象物体が見えている間
の距離の二次微分の絶対値を或る一定時間観測して、そ
の平均を取り、そこから余裕を持たせる適当な値を加算
した値を閾値とする可変閾値設定方法を用いればなお良
い。或いは、距離の二次微分値の零交差点を検出して、
このタイミングで隠れが発生したとする方法もある。
【0106】なお、過去のフレームにおける検出領域の
画像と現在の検出領域の画像とを比較して隠れを検出す
る方法が、公知の手法であるテンプレートマッチングの
応用として考えられるが、この方法は、見え方のみに基
づいているため、似たような見え方をする物体が障害物
である場合には検出ができない。但し、このような手法
を、本実施の形態で説明した手法と併用して、検出精度
を高めることは可能である。
【0107】この第3の実施の形態におけるカメラ制御
端末のカメラ操作ソフトのGUIは、前述した図3と同
様で良い。カメラ選択ボタン3−7において、現在マス
ターカメラとして選択されているカメラに対応する番号
のボタンが色付きで表示される。なお、例えば、上述の
ようにしてマスターカメラが自動的に切り替わった場合
に、新たにマスターカメラとして選択されたカメラ番号
のボタンを点滅表示させることで、オペレータの注意を
喚起するようにしても良い。
【0108】図12に、この第3の実施の形態における
各カメラ制御装置のカメラ制御ソフトの処理手順を示
す。
【0109】この図12の処理手順では、図8(b)に
示した第2の実施の形態のカメラ制御ソフトの処理手順
に、マスター/スレーブのモード切り替えに関する設定
処理であるステップS1101、S1109、及び、S
1114を加える。また、ステップS1102〜S11
05までの隠れ検出に関する処理も加える。
【0110】マスター/スレーブのモード設定は、ステ
ップS1101において、初期設定としてスレーブモー
ドに設定し、その後、ステップS1108において、マ
スターカメラとしての制御命令を検出した時に、ステッ
プS1109に進んで、マスターモードに設定し、一
方、ステップS1113において、スレーブカメラとし
ての制御命令を検出した場合には、ステップS1114
に進んで、もしマスターモードに設定されていれば、再
びスレーブモードに戻す。
【0111】両モードの違いは、ステップS1102〜
S1105までの処理を行うかどうかである。マスター
モードの場合には、ステップS1103において、前述
した隠れ検出処理を行い、隠れを検出した場合(ステッ
プS1104でYes)には、次のステップS1105にお
いて、カメラ制御端末のカメラ操作ソフトにその旨を伝
える。
【0112】カメラ制御端末のカメラ操作ソフト側の処
理は、前述した第2の実施の形態の図8(a)と基本的
に同一であるので、ここでは、図示を省略して、相違点
のみを説明する。図8(a)のステップS802におい
て、マスターカメラのカメラ制御ソフトから、隠れを検
出したというメッセージが届いた場合、第2の実施の形
態の手法で、対象物体が見えていると判断されるスレー
ブカメラの中から、例えば、対象物体までの距離が最も
近いものを新たなマスターカメラとして選択するマスタ
ーカメラ選択処理を、ステップS807において行う。
【0113】以上に説明した第3の実施の形態によれ
ば、マスターカメラが障害物により対象を見失ったこと
を自動的に検出し、対象の見えているスレーブカメラに
自動的にマスターカメラを切り替えることで、カメラ切
り替え操作に掛かる手間を省略することができる。
【0114】なお、上述した各実施の形態の機能を実現
するように各部を動作させるコンピュータのプログラム
コード自体及びそのプログラムコードをコンピュータに
供給するための手段、例えば、かかるプログラムを格納
した記憶媒体は、本発明の範疇に属する。かかるプログ
ラムコードを格納する記憶媒体としては、例えば、フロ
ッピーディスク、ハードディスク、光ディスク、光磁気
ディスク、CD−ROM、磁気テープ、不揮発性のメモ
リカード、ROM等を用いることができる。
【0115】また、供給されたプログラムコードをコン
ピュータが実行することにより各実施の形態の機能が実
現されるだけでなく、そのプログラムコードが、コンピ
ュータにおいて稼働しているOS(オペレーティングシ
ステム)、或いは、他のアプリケーションソフトと共同
して各実施の形態の機能が実現される場合にも、かかる
プログラムコードは、本発明に含まれる。
【0116】更に、供給されたプログラムコードが、コ
ンピュータの機能拡張ボードやコンピュータに接続され
た機能拡張ユニットに備わるメモリに格納された後、そ
のプログラムコードの指示に基づいて、その機能拡張ボ
ードや機能拡張ユニットに備わるCPU等が実際の処理
の一部又は全部を行い、その処理によって各実施の形態
の機能が実現されるシステムも、本発明に含まれる。
【0117】
【発明の効果】本発明によれば、例えば、市販の姿勢制
御可能な複数のカメラをネットワークで接続して、その
うちの1つをオペレータが直接制御し、残りのカメラ
が、そのオペレータが制御するカメラからの情報に基づ
いて自動的に制御されるように構成することで、1つの
対象を複数のカメラで追尾するカメラシステムを簡便且
つ低コストで構築することができる。
【0118】また、オペレータが制御するカメラと残り
のカメラとが同じ対象を撮影しているか否かを判断し
て、その結果を表示することで、オペレータが制御する
カメラの円滑な切替を行うことができる。
【0119】更に、オペレータが制御するカメラが障害
物により対象を見失った時に、その対象を撮影可能な別
のカメラに自動的に切り替えることで、障害物の存在す
る環境でも常に正確に対象を追尾できるカメラシステム
を実現することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態によるカメラシステ
ムの全体構成を示す概略図である。
【図2】本発明の第1の実施の形態によるカメラシステ
ムのカメラ、カメラ制御装置及びカメラ制御端末のハー
ドウェア構成を示すブロック図である。
【図3】本発明の第1の実施の形態によるカメラシステ
ムのカメラ制御端末で動作するカメラ操作ソフトによる
画面表示例を示す概略図である。
【図4】本発明の第1の実施の形態によるカメラシステ
ムにおける対象物体の位置計測及びカメラ制御目標値の
計算原理を示すグラフである。
【図5】本発明の第1の実施の形態によるカメラシステ
ムのカメラ制御端末で動作するカメラ操作ソフト及び各
カメラ制御装置で動作するカメラ制御ソフトによる処理
手順を夫々示すフローチャートである。
【図6】本発明の第2の実施の形態によるカメラシステ
ムにおける、障害物の在る環境での撮影方法を説明する
ための概略図である。
【図7】本発明の第2の実施の形態によるカメラシステ
ムのカメラ制御端末で動作するカメラ操作ソフトによる
画面表示例を示す概略図である。
【図8】本発明の第2の実施の形態によるカメラシステ
ムのカメラ制御端末で動作するカメラ操作ソフト及び各
カメラ制御装置で動作するカメラ制御ソフトによる処理
手順を夫々示すフローチャートである。
【図9】本発明の第3の実施の形態によるカメラシステ
ムにおける、障害物の在る環境での撮影方法を説明する
ための概略図である。
【図10】本発明の第3の実施の形態によるカメラシス
テムにおける、障害物の在る環境でのマスターカメラの
撮影状況を説明するための概略図である。
【図11】本発明の第3の実施の形態によるカメラシス
テムにおける隠れ検出の方法を説明するためのグラフで
ある。
【図12】本発明の第3の実施の形態によるカメラシス
テムのカメラ制御端末で動作するカメラ操作ソフトによ
る処理手順を示すフローチャートである。
【符号の説明】
1−1〜1−4:カメラ 1−5〜1−8:カメラ制御装置 1−9:ネットワーク 1−10:カメラ制御端末 1−11:オペレータ 1−12:対象物体 2−1:カメラ 2−2:撮像系 2−3:光学的パラメータ制御装置 2−4:姿勢制御装置 2−6:カメラ制御装置 2−7:CPU 2−8:RAM 2−9:ROM 2−10:二次記憶装置 2−11:入出力ポート(I/O) 2−12:ビデオキャプチャーボード 2−13:モニター 2−14:キーボード 2−15:ポインティングデバイス(マウス) 2−16:バス 2−17:通信装置 2−18:ネットワーク 2−19:カメラ制御端末 2−20:CPU 2−21:ROM 2−22:RAM 2−23:二次記憶装置 2−24:V−RAM 2−25:モニター 2−26:キーボード 2−27:ポインティングデバイス(マウス) 2−28:バス 2−29:通信装置 3−1:マスターカメラの映像画面 3−2:対象物体の画像 3−3:検出領域 3−4:カメラ操作ボタン 3−5:プログラム終了ボタン 3−6:対象物体の位置表示 3−7:カメラ選択ボタン 6−1〜6−4:カメラ 6−5:対象物体 6−7、6−8:障害物 7−1:マスターカメラの映像画面 7−2:対象物体の画像 7−3:検出領域 7−4:カメラ操作ボタン 7−5:プログラム終了ボタン 7−6:対象物体の位置表示 7−7:カメラ選択ボタン 7−8〜7−11:カメラ選択ボタン 9−1〜9−4:カメラ 9−5、9−6:対象物体 9−7、9−8:障害物 10−1:マスターカメラ 10−2:障害物 10−3〜10−4:対象物体

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】撮影姿勢を制御可能な撮影姿勢制御手段を
    持つ複数のカメラを備えたカメラシステムであって、 前記複数のカメラから任意に1つを選択して、それを手
    動制御することができ、且つ、その手動制御したカメラ
    から得られた情報を基に、残りのカメラの撮影姿勢制御
    手段に夫々撮影姿勢の制御を行わせることができるシス
    テム制御手段を有することを特徴とするカメラシステ
    ム。
  2. 【請求項2】前記複数のカメラの各々がオートフォーカ
    ス機構による距離計測機能、及び、自身が撮影している
    対象物体までの距離と自身の撮影姿勢の情報とから、そ
    の対象物体の位置を検出する機能を有していることを特
    徴とする、請求項1に記載のカメラシステム。
  3. 【請求項3】前記手動制御したカメラにより対象物体の
    位置を検出し、その検出された対象物体の位置情報に基
    づいて、残りのカメラが、夫々、前記対象物体の方向を
    向くように制御されることを特徴とする、請求項2に記
    載のカメラシステム。
  4. 【請求項4】前記対象物体の方向に向けられた前記残り
    のカメラの各々が、自身が撮影している対象物体の位置
    を検出した結果を前記システム制御手段に転送し、前記
    システム制御手段が、前記残りのカメラの各々から転送
    されてきた検出結果が、前記手動制御したカメラによる
    検出結果と一致しているか否かを判断することを特徴と
    する、請求項3に記載のカメラシステム。
  5. 【請求項5】前記システム制御手段が、前記残りのカメ
    ラの各々について前記一致判断の結果を表示する手段を
    有することを特徴とする、請求項4に記載のカメラシス
    テム。
  6. 【請求項6】前記システム制御手段が、前記手動制御し
    たカメラによる距離計測結果を連続的にモニターし、急
    激な距離変化を検出した時に、以降手動制御するカメラ
    を別のカメラに自動的に切り替えることを特徴とする、
    請求項4又は5に記載のカメラシステム。
  7. 【請求項7】手動制御するカメラとして新たに選択され
    るカメラが、前記一致判断の結果、一致していると判断
    されたカメラの中から選ばれることを特徴とする、請求
    項6に記載のカメラシステム。
  8. 【請求項8】前記一致していると判断されたカメラのう
    ち、最も短い距離計測結果が得られているカメラを、新
    たに手動制御するカメラとして選択することを特徴とす
    る、請求項7に記載のカメラシステム。
  9. 【請求項9】撮影姿勢を制御可能な撮影姿勢制御手段を
    持つ複数のカメラを制御するためのカメラ制御方法であ
    って、 前記複数のカメラから任意に選択した1つのカメラを手
    動制御し、その手動制御したカメラから得られた情報を
    基に、残りのカメラの撮影姿勢制御手段に夫々撮影姿勢
    の制御を行わせることを特徴とするカメラ制御方法。
  10. 【請求項10】前記複数のカメラの各々がオートフォー
    カス機構による距離計測機能、及び、自身が撮影してい
    る対象物体までの距離と自身の撮影姿勢の情報とから、
    その対象物体の位置を検出する機能を有していることを
    特徴とする、請求項9に記載のカメラ制御方法。
  11. 【請求項11】前記手動制御したカメラにより対象物体
    の位置を検出し、その検出された前記対象物体の位置情
    報に基づいて、残りのカメラを、夫々、前記対象物体の
    方向を向くように制御することを特徴とする、請求項1
    0に記載のカメラ制御方法。
  12. 【請求項12】前記対象物体の方向に向けられた前記残
    りのカメラの各々が、自身が撮影している対象物体の位
    置を検出して得られた検出結果と、前記手動制御したカ
    メラによる検出結果とが一致しているか否かを判断する
    ことを特徴とする、請求項11に記載のカメラ制御方
    法。
  13. 【請求項13】前記残りのカメラの各々について前記一
    致判断の結果を表示することを特徴とする、請求項12
    に記載のカメラ制御方法。
  14. 【請求項14】前記手動制御したカメラによる距離計測
    結果を連続的にモニターし、急激な距離変化を検出した
    時に、以降手動制御するカメラを別のカメラに自動的に
    切り替えることを特徴とする、請求項12又は13に記
    載のカメラ制御方法。
  15. 【請求項15】手動制御するカメラとして新たに選択す
    るカメラを、前記一致判断の結果、一致していると判断
    したカメラの中から選ぶことを特徴とする、請求項14
    に記載のカメラ制御方法。
  16. 【請求項16】前記一致していると判断したカメラのう
    ち、最も短い距離計測結果が得られているカメラを、新
    たに手動制御するカメラとして選択することを特徴とす
    る、請求項15に記載のカメラ制御方法。
  17. 【請求項17】撮影姿勢を制御可能な撮影姿勢制御手段
    を持つ複数のカメラを制御するためのカメラ制御方法で
    あって、 前記複数のカメラから任意に選択した1つのカメラを手
    動制御するステップと、 その手動制御したカメラから得られた情報を基に、残り
    のカメラの撮影姿勢制御手段に夫々撮影姿勢の制御を行
    わせるステップと、 を有するカメラ制御方法を実現するためのコンピュータ
    プログラムを格納した記憶媒体。
JP11194991A 1999-07-08 1999-07-08 カメラシステム及びカメラ制御方法 Pending JP2001025003A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11194991A JP2001025003A (ja) 1999-07-08 1999-07-08 カメラシステム及びカメラ制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11194991A JP2001025003A (ja) 1999-07-08 1999-07-08 カメラシステム及びカメラ制御方法

Publications (1)

Publication Number Publication Date
JP2001025003A true JP2001025003A (ja) 2001-01-26

Family

ID=16333729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11194991A Pending JP2001025003A (ja) 1999-07-08 1999-07-08 カメラシステム及びカメラ制御方法

Country Status (1)

Country Link
JP (1) JP2001025003A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056664A (ja) * 2002-07-23 2004-02-19 Ntt Data Corp 共同撮影システム
JP2006041611A (ja) * 2004-07-22 2006-02-09 Matsushita Electric Ind Co Ltd カメラ連動システム、カメラ装置およびカメラ連動制御方法
JP2006084999A (ja) * 2004-09-17 2006-03-30 Fujinon Corp Afエリア操作システム
JP2007221582A (ja) * 2006-02-17 2007-08-30 Toshiba Corp 監視システム及び画像処理装置
JP2014036414A (ja) * 2012-08-10 2014-02-24 Hitachi Kokusai Electric Inc 監視システム
JP2015210109A (ja) * 2014-04-24 2015-11-24 富士通株式会社 測定装置、測定方法及び測定プログラム
WO2016152317A1 (ja) * 2015-03-20 2016-09-29 日本電気株式会社 映像処理システム、映像処理方法および映像処理プログラム
JP2017085340A (ja) * 2015-10-28 2017-05-18 日本放送協会 多視点ロボットカメラ制御装置及びそのプログラム
JP2019062279A (ja) * 2017-09-25 2019-04-18 キヤノン株式会社 撮像装置、撮像システム及び撮像システムの制御方法
JP2019067425A (ja) * 2015-01-07 2019-04-25 フェイスブック,インク. 動的カメラまたはライトの動作
CN111599018A (zh) * 2019-02-21 2020-08-28 浙江宇视科技有限公司 一种目标追踪方法、系统及电子设备和存储介质
JP2021018389A (ja) * 2019-07-23 2021-02-15 日本放送協会 被写体位置推定装置、フォーカス補助装置、及び、それらのプログラム
US11290631B2 (en) 2020-02-21 2022-03-29 Canon Kabushiki Kaisha Image capture apparatus, image capture system, and control method
WO2023174804A1 (de) * 2022-03-17 2023-09-21 Robert Bosch Gmbh Überwachungsanordnung zur darstellung von bewegten objekten überwachungsbereich, verfahren zur darstellung von einem bewegten objekt in einem überwachungsbereich, computerprogramm und speichermedium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056664A (ja) * 2002-07-23 2004-02-19 Ntt Data Corp 共同撮影システム
JP2006041611A (ja) * 2004-07-22 2006-02-09 Matsushita Electric Ind Co Ltd カメラ連動システム、カメラ装置およびカメラ連動制御方法
JP4516791B2 (ja) * 2004-07-22 2010-08-04 パナソニック株式会社 カメラ連動システム、カメラ装置およびカメラ連動制御方法
JP2006084999A (ja) * 2004-09-17 2006-03-30 Fujinon Corp Afエリア操作システム
JP2007221582A (ja) * 2006-02-17 2007-08-30 Toshiba Corp 監視システム及び画像処理装置
JP2014036414A (ja) * 2012-08-10 2014-02-24 Hitachi Kokusai Electric Inc 監視システム
JP2015210109A (ja) * 2014-04-24 2015-11-24 富士通株式会社 測定装置、測定方法及び測定プログラム
CN111651045A (zh) * 2015-01-07 2020-09-11 脸谱科技有限责任公司 动态相机或灯操作
JP2019067425A (ja) * 2015-01-07 2019-04-25 フェイスブック,インク. 動的カメラまたはライトの動作
WO2016152317A1 (ja) * 2015-03-20 2016-09-29 日本電気株式会社 映像処理システム、映像処理方法および映像処理プログラム
JP2017085340A (ja) * 2015-10-28 2017-05-18 日本放送協会 多視点ロボットカメラ制御装置及びそのプログラム
JP2019062279A (ja) * 2017-09-25 2019-04-18 キヤノン株式会社 撮像装置、撮像システム及び撮像システムの制御方法
JP7175595B2 (ja) 2017-09-25 2022-11-21 キヤノン株式会社 撮像装置、制御装置、撮像システム及び撮像システムの制御方法
CN111599018A (zh) * 2019-02-21 2020-08-28 浙江宇视科技有限公司 一种目标追踪方法、系统及电子设备和存储介质
CN111599018B (zh) * 2019-02-21 2024-05-28 浙江宇视科技有限公司 一种目标追踪方法、系统及电子设备和存储介质
JP2021018389A (ja) * 2019-07-23 2021-02-15 日本放送協会 被写体位置推定装置、フォーカス補助装置、及び、それらのプログラム
JP7324639B2 (ja) 2019-07-23 2023-08-10 日本放送協会 被写体位置推定装置、フォーカス補助装置、及び、それらのプログラム
US11290631B2 (en) 2020-02-21 2022-03-29 Canon Kabushiki Kaisha Image capture apparatus, image capture system, and control method
WO2023174804A1 (de) * 2022-03-17 2023-09-21 Robert Bosch Gmbh Überwachungsanordnung zur darstellung von bewegten objekten überwachungsbereich, verfahren zur darstellung von einem bewegten objekt in einem überwachungsbereich, computerprogramm und speichermedium

Similar Documents

Publication Publication Date Title
JP2001025003A (ja) カメラシステム及びカメラ制御方法
KR102366293B1 (ko) 디지털 트윈을 이용한 증강현실 기반 현장 모니터링 시스템 및 방법
CN105659170B (zh) 用于向远程用户传送视频的方法及视频通信装置
US10523871B2 (en) Imaging system and imaging control method with display of image with vertical alignment
KR101607671B1 (ko) 구동 로봇 및 그 구동 로봇의 충전 스테이션 도킹 방법
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
JP2020506443A (ja) 無人機の制御方法、頭部装着式表示メガネおよびシステム
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
WO2011071478A1 (en) 3d video conference
JP2001245280A (ja) カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体
JP2017062529A (ja) 方向制御方法
WO2019140686A1 (zh) 跟随控制方法、控制终端及无人机
CN112525146A (zh) 使用眼部佩戴装置的测量系统及测量方法
JP2000083246A (ja) カメラ制御システム、カメラ制御方法、およびその処理を実行するプログラムを記憶した記録媒体
JP2014143681A (ja) 自動追尾撮影システム
JP2019062293A (ja) カメラ装置、カメラ装置制御システム、及びプログラム
JP2004128646A (ja) 監視システムおよび制御装置
JP4640191B2 (ja) 監視カメラシステム及び監視カメラの方向制御方法
KR20140121345A (ko) 감시카메라 유닛 및 그 구동방법
KR20180122566A (ko) 무인 비행유닛을 이용한 항공영상 촬영 시스템
CN113467731A (zh) 显示系统、信息处理装置和显示系统的显示控制方法
WO2020209167A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2007303913A (ja) 異物検知装置、それを用いたロボット装置、異物検知方法および異物検知プログラム
JP6882147B2 (ja) 操作案内システム
WO2018074262A1 (ja) 通信装置および通信方法、並びにプログラム