JP2005236568A - カメラの撮像方向を制御する装置 - Google Patents

カメラの撮像方向を制御する装置 Download PDF

Info

Publication number
JP2005236568A
JP2005236568A JP2004041919A JP2004041919A JP2005236568A JP 2005236568 A JP2005236568 A JP 2005236568A JP 2004041919 A JP2004041919 A JP 2004041919A JP 2004041919 A JP2004041919 A JP 2004041919A JP 2005236568 A JP2005236568 A JP 2005236568A
Authority
JP
Japan
Prior art keywords
imaging direction
camera
score information
current
total score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004041919A
Other languages
English (en)
Inventor
Masahiro Maeda
正浩 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004041919A priority Critical patent/JP2005236568A/ja
Publication of JP2005236568A publication Critical patent/JP2005236568A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】 設置時の設定負担を軽減し、利便性を向上できるカメラの撮像方向制御装置を提供する。
【解決手段】 カメラ1によって撮像された映像から移動体を検出した移動体検出結果を取得し、カメラ1の、過去の撮像方向から現在の撮像方向までの移動量と、移動体検出結果とに基づき、現在のカメラ1の撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラ1の撮像方向に関する総得点情報を生成し、当該カメラ1の撮像方向に関する総得点情報に基づき、次のカメラ1の撮像方向の制御内容を定める撮像方向制御装置である。
【選択図】 図1

Description

本発明は、PTZ(Pan Tilt Zoom)カメラなどの撮像方向等を制御する装置に関する。
監視カメラなどの用途に供するため、撮像方向等を外部の装置から制御可能なカメラが開発されている(特許文献1等)。こうしたカメラの撮像方向の制御は、従来、予め定められた複数の撮像方向に対し、所定の順番に、又はランダムにカメラを向ける制御を行うようになっていた。
例えばコンビニエンスストア等に設置する場合、当該設置場所から各商品棚の列の方向や、レジの方向などに対して、複数の撮像方向を設定しておき、これらを順番に巡るように設定しておくこととしていた。
特開平9−191455号公報 B.K.P. Horn and B.G. Schunck.Determining optical flow. AI Memo 572. Massachusetts Institue of Technology, 1980.
しかしながら、上記従来の撮像方向の制御では、カメラの設置場所ごとにその撮像方向を設定しなければならない。また、設置場所を変えると、改めて撮像方向を設定しなければならず、設置時の負担が大きく、利便性が低い。
本発明は上記実情に鑑みて為されたもので、設置時の設定負担を軽減し、利便性を向上できるカメラの撮像方向制御装置を提供することを、その目的の一つとする。
上記従来例の問題点を解決するための本発明は、カメラの撮像方向を制御する制御装置であって、前記カメラによって撮像された映像から移動体を検出した移動体検出結果を取得する手段と、カメラの、過去の撮像方向から現在の撮像方向までの移動量と、前記移動体検出結果とに基づき、現在のカメラの撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラの撮像方向に関する総得点情報を生成する手段と、を有し、前記カメラの撮像方向に関する総得点情報に基づき、次のカメラの撮像方向の制御内容を定めることを特徴としている。
またここで、カメラの撮像方向を制御する際に、次のカメラの撮像方向で演算される得点情報に関する予測値を生成する手段をさらに含み、前記総得点情報を生成する手段が、カメラの次の撮像方向までの移動量と、次の撮像方向での移動体の検出結果とに基づき、現在のカメラの撮像方向に関する実際の得点情報を演算し、前記予測値と前記演算された実際の得点情報に基づいて演算される実測値との差に基づいて、当該実際の得点情報の総得点情報への影響重みを調整することを特徴とすることとしてもよい。この場合、前記総得点情報を生成する手段は、前記前記予測値と実測値との差が所定のしきい値より大きいときには、当該実際の得点情報の総得点情報への影響重みを増大させるよう調整することとしてもよい。
また、カメラの撮像方向ごとに、前回当該方向を撮像した時点から現在の時点までの経過時間を管理する手段をさらに含み、前記カメラの撮像方向に関する総得点情報と、前記カメラの撮像方向ごとの経過時間の情報とに基づき、次のカメラの撮像方向の制御内容を定めることとしてもよい。
また上記従来例の問題点を解決するための本発明は、カメラの撮像方向を制御する方法であって、前記カメラによって撮像された映像から移動体を検出した移動体検出結果を取得する手順と、カメラの、過去の撮像方向から現在の撮像方向までの移動量と、前記移動体検出結果とに基づき、現在のカメラの撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラの撮像方向に関する総得点情報を生成する工程と、を実行し、前記カメラの撮像方向に関する総得点情報に基づき、次のカメラの撮像方向の制御内容を定めることを特徴としている。
さらに、本発明の一態様に係るプログラムは、コンピュータに、カメラの撮像方向を制御させる制御プログラムであって、前記カメラによって撮像された映像から移動体を検出した移動体検出結果を取得する手順と、カメラの、過去の撮像方向から現在の撮像方向までの移動量と、前記移動体検出結果とに基づき、現在のカメラの撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラの撮像方向に関する総得点情報を生成する手順と、前記カメラの撮像方向に関する総得点情報に基づき、次のカメラの撮像方向の制御内容を定める手順と、をコンピュータに実行させることを特徴としている。
本発明の実施の形態について図面を参照しながら説明する。本実施の形態に係る撮像方向制御装置10は、例えば図1に示すようなカメラシステムに用いられる。このカメラシステムは、撮像方向を制御可能な雲台に搭載された少なくとも一つのカメラ1(例えばPTZ(Pan-Tilt-Zoom)カメラなど)と、カメラ1に接続された撮像方向制御装置10とを備えて構成されている。また、撮像方向制御装置10は、制御部11と、記憶部12と、映像入力インタフェース13と、制御信号出力インタフェース14とを含んで構成されている。なお、ここではカメラ1と撮像方向制御装置10とは、別体として構成されているが、これらは一体の装置として構成してもよい。
カメラ1は、撮像方向制御装置10から入力される撮像方向の制御信号に従って、雲台を駆動し、撮像方向を変更する。また、このカメラ1は現在撮像している映像信号を次々出力している(つまり動画の映像信号を出力している)。また、このカメラ1は、現在撮像方向を移動中であるか否かを表す移動中信号を出力する。
制御部11は、記憶部12に格納されているプログラムに従って動作しており、映像入力インタフェース13から入力される映像信号から、カメラ1によって撮像された映像を取得し、所定の処理によってカメラ1の次の撮像方向を決定して、カメラ1に当該決定した撮像方向を撮像するよう制御する制御信号を制御信号出力インタフェース14を介して出力する。この制御部11によるカメラ1の次の撮像方向を決定する処理(撮像方向制御処理)の具体的な内容については後に詳しく述べる。
記憶部12は、ハードディスク装置や半導体記憶素子等を用いて構成される。具体的にこの記憶部12は、制御部11によって実行されるプログラムを格納している。また、この記憶部12は、制御部11の撮像方向制御処理によって生成されるパラメータ情報を格納するものである。さらに、記憶部12は、制御部11の処理中に生成される種々のデータを記憶するワークメモリとしても動作する。
映像入力インタフェース13は、カメラ1が出力する映像信号の入力を受けて、これをディジタル処理し、映像データを生成して制御部11に出力している。制御信号出力インタフェース14は、例えばシリアルインタフェースであり、制御部11が出力する制御信号をカメラ1に出力する。
ここで制御部11による撮像方向制御処理の具体的な内容について説明する。本実施の形態では、制御部11は、強化学習によってカメラ1の撮像方向を制御することになっている。一般に強化学習(Reinforcement Learning)とは、教師付き学習(Supervised Learning)に対するものである。すなわち強化学習では、試行錯誤を通じて環境に適応する学習制御が行われる。具体的に、学習主体であるエージェントは、環境との間で次のような相互作用をする。
ステップ1.エージェントは時刻tにおける環境の状態S(t)を取得する。
ステップ2.エージェントは、S(t)を参照して、所定の方法で行動a(t)を決定して出力する。
ステップ3.エージェントの行動に応答して環境の状態が更新され、S(t+1)となり、エージェントは、その状態の更新(状態遷移)に応じた報酬r(t)を環境から受取る。
ステップ4.時刻tをインクリメントしてステップ1へ戻って処理を続ける。
本実施の形態の制御部11は、基本的には、現在(時刻t)のカメラの撮像方向を環境の状態S(t)、撮像方向の制御を「行動」a(t)、映像信号中で検出された移動体の数を報酬r(t)として強化学習を行いながらカメラの撮像方向を制御するものである。なお、撮像方向aは、パン角、チルト角のそれぞれについて段階的に、例えば15度ごと(0度,15度,30度,45度…)に制御するものとする。
制御部11は、図2に示すように、カメラ1が出力する移動中信号が入力されなくなるまで待機し(S1)、移動中信号の入力がなくなると、所定時間(例えば1秒間)内に映像入力インタフェース13が出力する映像データを記憶部12に格納して蓄積する(S2)。
制御部11は、記憶部12に蓄積した映像データから移動体を検出する処理を実行し、移動体の数を調べる(S3)。ここで移動体の検出処理としては、広く知られているオプティカル・フロー(非特許文献1等を参照)や、MPEG(Motion Picture Experts Group)における動き検出等を用いることができ、移動体の数は、映像データ上で移動体を検出した部分の連続領域の数をカウントすることで調べることができる。なお、以下の説明では移動体の数を用いているが、これに代えて、又はこれと併せて移動体の移動方向、移動量など他の移動状態に関する情報を用いてもよい。
制御部11は、また、前回(時刻t−1)のカメラ1の撮像方向と、今回(時刻t)のカメラ1の撮像方向との差(移動量)を演算する(S4)。この演算は例えば両撮像方向のベクトルのなす角度として演算することができる。そして制御部11は、移動体の数と移動量とに基づいて、重みa,b(a,bはいずれも正の値、例えば双方とも1/1000とする)を用いて、報酬rを、
r=−a×移動量+b×移動体検出数
として演算する(S5)。ここで演算される報酬の値が本発明の得点情報に相当する。
本実施の形態において特徴的なことの一つは、カメラ1が有用な映像を撮影していない期間(例えば撮像方向移動のために対象物を識別不能な映像が撮影されているなどしている期間)を短縮するため、このようにカメラ1の撮像方向の移動量(移動距離や移動時間)を強化学習の報酬に影響させていることである。
次に、制御部11は、この時刻tでの報酬rtを用いて総得点情報Qを次のようにして更新し、記憶部12に格納する(S6)。
Figure 2005236568
この(1)式において、α、γは、それぞれ学習率、割引率と呼ばれるパラメータであり、いずれも0より大で1以下の値をとる。また、
Figure 2005236568
は、取りうるaの値を用いて演算されるX(a)のうち、最大のX(a)を表す。
また、制御部11は、このとき、Q(St+1,a)を最大にするaに対応する制御信号を出力して(S7)、処理S1から処理を繰返す。
本実施の形態ではこのように、カメラの現在の撮像方向と、カメラの次の撮像方向とを表す情報で張られる2次元空間に総得点情報を関連付けておき(図3)、現在の撮像方向を定めたときに、総得点情報が最大となるように次の撮像方向を選択することになる。
また、制御部11は、処理S7で選択した次の撮像方向aに係る値Q(St+1,a)を得点情報に関する予測値としておき、次の撮像方向に移動した後で生成される得点情報としての報酬rを実測値として、これらの差を算出し、この差に基づいて報酬rの総得点情報Qへの影響重み(つまり上記学習率α)を調整してもよい。
具体的に、予測値Q(St+1,a)と、報酬rとの差をΔQ=Q(St+1,a)−rとし、
α′=α(1+ε(|ΔQ|−θ))
として学習率を更新する。ここでθはしきい値であり、εは正の値(安定化パラメータ値)である。学習率はしたがって、ΔQの絶対値がしきい値を越えた場合に増大し、ΔQの絶対値がしきい値を下回ったときに減少する。また安定化パラメータは、安定化させるまでの時間に関係する量として定めることができる。例えば2時間程度の学習の後に安定化させる設定であれば、2時間=7200秒なので、例えばそれに近接する切りのよい数値10000を用いて、εを1/10000と定めることができる。なお、ここではΔQに対して線形の式によってαを更新しているが、ΔQに対して対数的に変化する式を用いてもよい。
さらに、ここまでの説明では総得点情報Qをそのまま用いて次の撮像方向を決定していたが、次のようにしてもよい。すなわち、各撮像方向ごとに前回当該方向を撮像した時刻を記憶しておき、各撮像方向ごとに、その総得点情報Qに対して、上記前回撮像した時刻から現在時刻までの差(経過時間)に応じたバイアス値を加えて評価値V(St,a)を生成する。そして、この評価値Vを最大とする撮像方向aを選択する。なお、この場合も総得点情報Qの更新は、(1)式で示したように、評価値Vではなく、総得点情報Qを用いて行う。つまりこの場合は、
Figure 2005236568
とする。なお、aVは、評価値Vを最大とする撮像方向aである。
このように構成した本実施の形態のカメラシステムによると、設定された段階的パン角・チルト角について、移動体を撮像しやすい方向に向きやすくなり、また移動量がなるべく少なくなる方向に向きやすくなる。また、カメラの設置場所ごとにその撮像方向を設定する必要がなく、設置時の負担が小さく、利便性を向上できる。
さらに、ここまでの説明では、強化学習の方法としていわゆるQラーニング(Q-Learning)アルゴリズムを用いているが、これに代えて、TD(Temporal
Difference)学習を用いてもよい。この場合、移動体の移動方向で得点情報(報酬r)を調整してもよい。例えば検出された移動体の移動方向と、撮像方向の移動方向との内積に所定の正の値(影響重み)を乗じた値を、報酬rに加算することとしてもよい。さらに、撮像された映像データから顔を検出し、次の撮像方向で同じ顔が検出されたときに、報酬rが高くなるように調整してもよい。
さらに、一定の期間が経過した後に、学習(総得点情報の更新)を停止し、以降は、獲得した総得点情報を用いてカメラの撮像方向の制御を行ってもよい。
次に、図4に示すような仮想的なフィールドに本実施形態のカメラシステムを配置した場合の動作例について説明する。図4に示すフィールドにおいて、2つある点Oのいずれかに平均1.8体/分のポワソン分布確率で移動体が出現し、当該移動体が1m/秒で線上を移動し、各ノードAからFのいずれかに到来したときには、ランダムに次の移動方向を決定するものとして、こうして生成した60分の仮想データを生成して、10%から50%のノイズを加え、前半40分を学習時間とし、後半20分にて学習を停止(つまり総得点情報の更新を停止)して評価する。
また、カメラ1の撮像方向は、カメラ1の設置位置から基本撮像方向(図4中破線で示す)を0度として、−100度から+100度まで25度単位に9段階のパン角のいずれかとして設定する。簡単のためチルト角は0度で固定している。
この結果、移動体が出現してから、当該移動体を検出するまでの時間を平均すると、約1.2秒という実験結果が得られた。なお、各撮像方向をランダムに向く場合(ランダム)、順次向く場合(ラウンドロビン)、移動体を検出した回数分布の値に比例した確率でランダムに向く場合(重みつきランダム)とを比較のために採用してみると、それぞれの移動体を検出するまでの時間の平均は、2.4秒、1.8秒、1.4秒となった(図5)。
このように本実施の形態によれば、比較的短時間で環境に適合し、移動体を検出できるようになる。
本発明の実施の形態に係るカメラシステムの構成ブロック図である。 本発明の実施の形態に係る制御部11の処理例を表すフローチャート図である。 総得点情報の一例を表す説明図である。 実験のために設定した仮想フィールドの例を表す説明図である。 実験結果を表す説明図である。
符号の説明
1 カメラ、11 制御部、12 記憶部、13 映像入力インタフェース、14 制御信号出力インタフェース。

Claims (6)

  1. カメラの撮像方向を制御する制御装置であって、
    前記カメラによって撮像された映像から移動体を検出した移動体検出結果を取得する手段と、
    カメラの、過去の撮像方向から現在の撮像方向までの移動量と、前記移動体検出結果とに基づき、現在のカメラの撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラの撮像方向に関する総得点情報を生成する手段と、
    を有し、
    前記カメラの撮像方向に関する総得点情報に基づき、次のカメラの撮像方向の制御内容を定めることを特徴とするカメラの撮像方向制御装置。
  2. 請求項1に記載の撮像方向制御装置において、
    カメラの撮像方向を制御する際に、次のカメラの撮像方向で演算される得点情報に関する予測値を生成する手段をさらに含み、
    前記総得点情報を生成する手段が、カメラの次の撮像方向までの移動量と、次の撮像方向での移動体の検出結果とに基づき、現在のカメラの撮像方向に関する実際の得点情報を演算し、前記予測値と前記演算された実際の得点情報に基づいて演算される実測値との差に基づいて、当該実際の得点情報の総得点情報への影響重みを調整することを特徴とすることを特徴とする撮像方向制御装置。
  3. 請求項2に記載の撮像方向制御装置において、
    前記総得点情報を生成する手段は、前記前記予測値と実測値との差が所定のしきい値より大きいときには、当該実際の得点情報の総得点情報への影響重みを増大させるよう調整することを特徴とする撮像方向制御装置。
  4. 請求項1から3のいずれか一項に記載の撮像方向制御装置において、
    カメラの撮像方向ごとに、前回当該方向を撮像した時点から現在の時点までの経過時間を管理する手段をさらに含み、
    前記カメラの撮像方向に関する総得点情報と、前記カメラの撮像方向ごとの経過時間の情報とに基づき、次のカメラの撮像方向の制御内容を定めることを特徴とするカメラの撮像方向制御装置。
  5. カメラの撮像方向を制御する方法であって、
    前記カメラによって撮像された映像から移動体を検出した移動体検出結果を取得する手順と、
    カメラの、過去の撮像方向から現在の撮像方向までの移動量と、前記移動体検出結果とに基づき、現在のカメラの撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラの撮像方向に関する総得点情報を生成する工程と、
    を実行し、
    前記カメラの撮像方向に関する総得点情報に基づき、次のカメラの撮像方向の制御内容を定めることを特徴とするカメラの撮像方向制御方法。
  6. コンピュータに、カメラの撮像方向を制御させる制御プログラムであって、
    前記カメラによって撮像された映像から移動体を検出した移動体検出結果を取得する手順と、
    カメラの、過去の撮像方向から現在の撮像方向までの移動量と、前記移動体検出結果とに基づき、現在のカメラの撮像方向に関する得点情報を演算し、当該得点情報を利用して、現在のカメラの撮像方向に関する総得点情報を生成する手順と、
    前記カメラの撮像方向に関する総得点情報に基づき、次のカメラの撮像方向の制御内容を定める手順と、
    をコンピュータに実行させることを特徴とするカメラの撮像方向制御プログラム。
JP2004041919A 2004-02-18 2004-02-18 カメラの撮像方向を制御する装置 Pending JP2005236568A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004041919A JP2005236568A (ja) 2004-02-18 2004-02-18 カメラの撮像方向を制御する装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004041919A JP2005236568A (ja) 2004-02-18 2004-02-18 カメラの撮像方向を制御する装置

Publications (1)

Publication Number Publication Date
JP2005236568A true JP2005236568A (ja) 2005-09-02

Family

ID=35019089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004041919A Pending JP2005236568A (ja) 2004-02-18 2004-02-18 カメラの撮像方向を制御する装置

Country Status (1)

Country Link
JP (1) JP2005236568A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095790A1 (ja) * 2018-11-07 2020-05-14 日本電気株式会社 被写体検知装置、システム、方法および記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095790A1 (ja) * 2018-11-07 2020-05-14 日本電気株式会社 被写体検知装置、システム、方法および記録媒体

Similar Documents

Publication Publication Date Title
JP7163945B2 (ja) 移動状況推定装置、移動状況推定方法およびプログラム記録媒体
KR101271098B1 (ko) 디지털 촬영장치, 추적방법 및 추적방법을 실행시키기 위한프로그램을 저장한 기록매체
JP6534664B2 (ja) カメラ動き予測及び修正のための方法
JP4730431B2 (ja) 目標追尾装置
US20090175500A1 (en) Object tracking apparatus
JP2005250989A (ja) 移動物体追跡方法及び画像処理装置
CN105100596B (zh) 相机设备和使用相机设备跟踪对象的方法
WO2018139461A1 (ja) 移動物体検出装置、移動物体検出方法及び記憶媒体
US20130027300A1 (en) Recognition apparatus, method, and computer program product
JP6381313B2 (ja) 制御装置、制御方法、およびプログラム
JP2008241707A (ja) 自動監視システム
JP5088279B2 (ja) 目標追尾装置
US20190379819A1 (en) Detection of main object for camera auto focus
JP5155110B2 (ja) 監視装置
JP5177030B2 (ja) 目標追尾装置
JP7128577B2 (ja) 監視装置
JP6336935B2 (ja) 移動物体追跡装置
US11394870B2 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
JP2010251849A (ja) 目標追尾装置、目標追尾方法
JP4664878B2 (ja) 画像処理装置
JP2012181710A (ja) オブジェクト追跡装置、方法、及びプログラム
JP2005236568A (ja) カメラの撮像方向を制御する装置
JP6898826B2 (ja) 監視装置
JP2020160901A (ja) 物体追跡装置および物体追跡方法
CN103475808A (zh) 给图像拍摄装置的操作者显示图像的方法、系统和装置