JP2846854B2 - カメラ自動追従方法およびその装置 - Google Patents
カメラ自動追従方法およびその装置Info
- Publication number
- JP2846854B2 JP2846854B2 JP8187484A JP18748496A JP2846854B2 JP 2846854 B2 JP2846854 B2 JP 2846854B2 JP 8187484 A JP8187484 A JP 8187484A JP 18748496 A JP18748496 A JP 18748496A JP 2846854 B2 JP2846854 B2 JP 2846854B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- movement
- cameras
- target object
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】本発明は、被写体の動きを無
人で自動的に追従しながら被写体を撮像することができ
るカメラ自動追従方法およびその装置に関するもので、
無人テレビカメラ、無人監視システム等に適用可能なも
のである。
人で自動的に追従しながら被写体を撮像することができ
るカメラ自動追従方法およびその装置に関するもので、
無人テレビカメラ、無人監視システム等に適用可能なも
のである。
【0002】
【従来の技術】近年、ディジタル映像技術の発達に伴
い、例えば150チャンネルというような多チャンネル
のディジタル衛星テレビ放送や、多様でより多くの情報
をパケット化し多重化することによって効率的に情報を
伝達することができるディジタル回線(ISDN等)が
普及しつつある。このように多チャンネル化、マルチメ
ディア化が進むと、高品質な番組を効率的に、しかも安
価に製作することが求められる。
い、例えば150チャンネルというような多チャンネル
のディジタル衛星テレビ放送や、多様でより多くの情報
をパケット化し多重化することによって効率的に情報を
伝達することができるディジタル回線(ISDN等)が
普及しつつある。このように多チャンネル化、マルチメ
ディア化が進むと、高品質な番組を効率的に、しかも安
価に製作することが求められる。
【0003】テレビ放送の番組に着目すると、ドラマ、
音楽、スポーツ、ニュース、コマーシャルメッセージ
(CM)等、各種ジャンルに分類することができ、それ
ぞれのジャンルに応じて収録形態、編集技術が異なる。
一方、上記のような多チャンネル化時代には、地域ごと
に特色を持ち、製作コストが安価で編集作業を短期間に
行うことができ、ドキュメント性に富んだタイムリーな
番組が多く組まれることが予想される。その中でも、イ
ベント番組やスポーツ中継などはこれから増えることが
予想されるが、その前提条件として、中継スタッフの人
数をいかにして減らすかが鍵となる。多チャンネル化時
代にあっては、全てのチャンネルにおいて中継スタッフ
を常時確保しておくということが、コスト的にも物理的
にも困難であるからである。よって、これからは機材お
よびスタッフの省力化がますます要求されることにな
る。
音楽、スポーツ、ニュース、コマーシャルメッセージ
(CM)等、各種ジャンルに分類することができ、それ
ぞれのジャンルに応じて収録形態、編集技術が異なる。
一方、上記のような多チャンネル化時代には、地域ごと
に特色を持ち、製作コストが安価で編集作業を短期間に
行うことができ、ドキュメント性に富んだタイムリーな
番組が多く組まれることが予想される。その中でも、イ
ベント番組やスポーツ中継などはこれから増えることが
予想されるが、その前提条件として、中継スタッフの人
数をいかにして減らすかが鍵となる。多チャンネル化時
代にあっては、全てのチャンネルにおいて中継スタッフ
を常時確保しておくということが、コスト的にも物理的
にも困難であるからである。よって、これからは機材お
よびスタッフの省力化がますます要求されることにな
る。
【0004】そこで、カメラの視野内にある特定の被写
体に着目し、この特定の被写体の動きに追従してカメラ
を動かすことが考えられている。しかし、この方法によ
れば、特定の被写体を確実にとらえ続けるために、広め
の画面を設定してしてその中の一部の被写体に着目する
必要があり、目的の被写体の映像が小さく不鮮明になる
という難点がある。
体に着目し、この特定の被写体の動きに追従してカメラ
を動かすことが考えられている。しかし、この方法によ
れば、特定の被写体を確実にとらえ続けるために、広め
の画面を設定してしてその中の一部の被写体に着目する
必要があり、目的の被写体の映像が小さく不鮮明になる
という難点がある。
【0005】ちなみに、図9は従来のテレビ中継の例を
示すもので、1台のテレビカメラ31に1人のカメラマ
ン33がつき、カメラマン33が現場でテレビカメラ3
1を操作しながら被写体32を撮影している。被写体3
2の中には動きのあるものが含まれている場合が多く、
カメラマン33は、テレビカメラ31の視野の中で動き
のあるものを絶えず観察しながら、その場その場に応じ
た最適な画像が得られるように、パンニング、チルティ
ング、ズーミング等のカメラワークを行っている。
示すもので、1台のテレビカメラ31に1人のカメラマ
ン33がつき、カメラマン33が現場でテレビカメラ3
1を操作しながら被写体32を撮影している。被写体3
2の中には動きのあるものが含まれている場合が多く、
カメラマン33は、テレビカメラ31の視野の中で動き
のあるものを絶えず観察しながら、その場その場に応じ
た最適な画像が得られるように、パンニング、チルティ
ング、ズーミング等のカメラワークを行っている。
【0006】カメラワークは番組によって異なる。例え
ばスポーツ中継であっても、野球、サッカー、テニス、
マラソン、等々、そのスポーツ種目特有の選手の動きや
競技場等があり、これら各種条件によってカメラの設置
位置やカメラワーク等が大きく異なる。より臨場感のあ
る映像を得るためのカメラワークは、カメラマンの長い
経験によって培われたものであり、その撮影手法を定量
的に解析することは難しい。
ばスポーツ中継であっても、野球、サッカー、テニス、
マラソン、等々、そのスポーツ種目特有の選手の動きや
競技場等があり、これら各種条件によってカメラの設置
位置やカメラワーク等が大きく異なる。より臨場感のあ
る映像を得るためのカメラワークは、カメラマンの長い
経験によって培われたものであり、その撮影手法を定量
的に解析することは難しい。
【0007】図8は、ベテランカメラマンの目の動き
と、カメラワーク(ここでは、パンニング)との関係の
一例を推測して示したもので、横軸に時間を、縦軸に速
度をとってある。図8からわかるように、カメラマン
は、視野の中に動くものがあるとそれを目で追い、これ
に追従してカメラを移動させているが、パンニング角度
と目の動きの最大速度との関係については、目の動きの
最大速度に比例してパンニング角度が増大するというよ
りは、速度の上限があり、カメラマンは経験的に視聴者
が見やすいパンニング画像を実現しようとする傾向があ
ることがわかる。また、パンニング速度曲線は、速く加
速してゆっくり減速する非対称形になっている。一般的
には、減速時間が加速時間に対して6割程度長くなる傾
向がある。
と、カメラワーク(ここでは、パンニング)との関係の
一例を推測して示したもので、横軸に時間を、縦軸に速
度をとってある。図8からわかるように、カメラマン
は、視野の中に動くものがあるとそれを目で追い、これ
に追従してカメラを移動させているが、パンニング角度
と目の動きの最大速度との関係については、目の動きの
最大速度に比例してパンニング角度が増大するというよ
りは、速度の上限があり、カメラマンは経験的に視聴者
が見やすいパンニング画像を実現しようとする傾向があ
ることがわかる。また、パンニング速度曲線は、速く加
速してゆっくり減速する非対称形になっている。一般的
には、減速時間が加速時間に対して6割程度長くなる傾
向がある。
【0008】
【発明が解決しようとする課題】本発明は、以上述べた
点に鑑みてなされたもので、動きのある被写体を自動的
に追従することができるようにして、前述のような機材
およびスタッフの省力化の要求に応えることができると
ともに、目的の被写体を大きくかつ鮮明にとらえること
ができるカメラ自動追従方法およびその装置を提供する
ことを目的とする。
点に鑑みてなされたもので、動きのある被写体を自動的
に追従することができるようにして、前述のような機材
およびスタッフの省力化の要求に応えることができると
ともに、目的の被写体を大きくかつ鮮明にとらえること
ができるカメラ自動追従方法およびその装置を提供する
ことを目的とする。
【0009】
【課題を解決するための手段】請求項1記載の発明はカ
メラ自動追従方法に関するものであって、撮像範囲内に
おける対象物体の動きを倍率が異なる2台のカメラの映
像信号より検出し、その異なる倍率に対応する二つのパ
ラメータにより2台のカメラの雲台を制御するパラメー
タを算出し、1台のカメラに監視範囲を網羅する視野を
もたせ、他の1台のカメラで注目する物体を監視し、1
台のカメラにより抽出された対象物体全体の動きと他の
1台のカメラにより抽出された注目物体の動きとの相関
関係からカメラの最適移動量を推定し、この推定値に基
づきそれぞれのカメラを移動させることにより最適撮像
範囲を撮像することを特徴とする。
メラ自動追従方法に関するものであって、撮像範囲内に
おける対象物体の動きを倍率が異なる2台のカメラの映
像信号より検出し、その異なる倍率に対応する二つのパ
ラメータにより2台のカメラの雲台を制御するパラメー
タを算出し、1台のカメラに監視範囲を網羅する視野を
もたせ、他の1台のカメラで注目する物体を監視し、1
台のカメラにより抽出された対象物体全体の動きと他の
1台のカメラにより抽出された注目物体の動きとの相関
関係からカメラの最適移動量を推定し、この推定値に基
づきそれぞれのカメラを移動させることにより最適撮像
範囲を撮像することを特徴とする。
【0010】請求項2記載の発明はカメラ自動追従装置
に関するもので、倍率が異なる2台のカメラを有し、1
台のカメラは監視範囲を網羅する視野をもち、他の1台
のカメラは上記監視範囲内の注目する物体を監視するも
のであり、上記2台のカメラの撮像範囲内における対象
物体の動きを検出する動き検出部と、上記2台のカメラ
の異なる倍率に対応する二つのパラメータにより2台の
カメラの雲台を制御するパラメータを算出し、1台のカ
メラにより検出された対象物体全体の動きと他の1台の
カメラにより検出された注目物体の動きとの相関関係か
らそれぞれのカメラの最適移動量を推定する演算部と、
この推定値に基づきそれぞれのカメラの雲台を制御する
ことにより最適撮像範囲を撮像する雲台制御部とを有す
ることを特徴とする。
に関するもので、倍率が異なる2台のカメラを有し、1
台のカメラは監視範囲を網羅する視野をもち、他の1台
のカメラは上記監視範囲内の注目する物体を監視するも
のであり、上記2台のカメラの撮像範囲内における対象
物体の動きを検出する動き検出部と、上記2台のカメラ
の異なる倍率に対応する二つのパラメータにより2台の
カメラの雲台を制御するパラメータを算出し、1台のカ
メラにより検出された対象物体全体の動きと他の1台の
カメラにより検出された注目物体の動きとの相関関係か
らそれぞれのカメラの最適移動量を推定する演算部と、
この推定値に基づきそれぞれのカメラの雲台を制御する
ことにより最適撮像範囲を撮像する雲台制御部とを有す
ることを特徴とする。
【0011】請求項3記載の発明は、請求項2記載の発
明において、2台のカメラで撮像された映像を一つの画
面に合成して表示する合成手段を有することを特徴とす
る。
明において、2台のカメラで撮像された映像を一つの画
面に合成して表示する合成手段を有することを特徴とす
る。
【0012】
【発明の実施の形態】以下、図面を参照しながら本発明
にかかるカメラ自動追従方法およびその装置の実施の形
態について説明する。本発明にかかるカメラ自動追従方
法およびその装置の概要を図2に示す。これは、比較的
広い視野角θのメインカメラ1と、視野角θよりも狭い
視野角αのサブカメラ2とを有し、メインカメラ1の視
野21内にある被写体の一部に着目してこれをサブカメ
ラ2の視野21aとし、サブカメラ2の視野21aにあ
る対象物体の動きをサブカメラ2で追従し、また、メイ
ンカメラ1の撮像全体中の対象物体の動きを検出し、メ
インカメラ1により抽出された対象物体全体の動きとサ
ブカメラ2により抽出された注目物体の動きとの相関関
係からメインカメラ1およびサブカメラ2の最適な動き
を推定して定量化し、この推定値に基づいてそれぞれの
カメラ1、2を移動させて最適撮像範囲を撮像するもの
である。すなわち、サブカメラ2は被写体の動きを検出
するセンサカメラに相当するものであって、カメラマン
の目に相当する。メインカメラ1とサブカメラ2は、パ
ンニング、チルティング、ズーミングの各移動が可能と
なっている。
にかかるカメラ自動追従方法およびその装置の実施の形
態について説明する。本発明にかかるカメラ自動追従方
法およびその装置の概要を図2に示す。これは、比較的
広い視野角θのメインカメラ1と、視野角θよりも狭い
視野角αのサブカメラ2とを有し、メインカメラ1の視
野21内にある被写体の一部に着目してこれをサブカメ
ラ2の視野21aとし、サブカメラ2の視野21aにあ
る対象物体の動きをサブカメラ2で追従し、また、メイ
ンカメラ1の撮像全体中の対象物体の動きを検出し、メ
インカメラ1により抽出された対象物体全体の動きとサ
ブカメラ2により抽出された注目物体の動きとの相関関
係からメインカメラ1およびサブカメラ2の最適な動き
を推定して定量化し、この推定値に基づいてそれぞれの
カメラ1、2を移動させて最適撮像範囲を撮像するもの
である。すなわち、サブカメラ2は被写体の動きを検出
するセンサカメラに相当するものであって、カメラマン
の目に相当する。メインカメラ1とサブカメラ2は、パ
ンニング、チルティング、ズーミングの各移動が可能と
なっている。
【0013】次に、上記カメラ自動追従方法およびその
装置の具体例を説明する。図1において、メインカメラ
1およびサブカメラ2は、それぞれパンニング、チルテ
ィングが可能な雲台5、18に載せられるとともに、ズ
ーミング可能な撮像レンズを有している。メインカメラ
1とサブカメラ2は倍率が異なっていて、メインカメラ
1は監視すべき範囲を網羅する広い視野をもち、サブカ
メラ2は、メインカメラ1よりも視野が狭く、メインカ
メラ1の視野内の注目する物体を監視する。メインカメ
ラ1による映像信号は動き検出部10に入力される。動
き検出部10は、フィルタリング機能を有する映像サン
プリングコントロール部、この映像サンプリングコント
ロール部の出力を入力とするキー処理部、このキー処理
部の出力が入力される重心算出部、重心算出部の出力が
入力される幾何学演算処理部等を有してなり、メインカ
メラ1により抽出された対象物全体の動き検出してこれ
をベクトル量で出力する。
装置の具体例を説明する。図1において、メインカメラ
1およびサブカメラ2は、それぞれパンニング、チルテ
ィングが可能な雲台5、18に載せられるとともに、ズ
ーミング可能な撮像レンズを有している。メインカメラ
1とサブカメラ2は倍率が異なっていて、メインカメラ
1は監視すべき範囲を網羅する広い視野をもち、サブカ
メラ2は、メインカメラ1よりも視野が狭く、メインカ
メラ1の視野内の注目する物体を監視する。メインカメ
ラ1による映像信号は動き検出部10に入力される。動
き検出部10は、フィルタリング機能を有する映像サン
プリングコントロール部、この映像サンプリングコント
ロール部の出力を入力とするキー処理部、このキー処理
部の出力が入力される重心算出部、重心算出部の出力が
入力される幾何学演算処理部等を有してなり、メインカ
メラ1により抽出された対象物全体の動き検出してこれ
をベクトル量で出力する。
【0014】上記動き検出部10の出力はCPU9に入
力される。CPU9は、オペレーションパネル17から
入力される指令信号に基づき、上記キー処理部、演算処
理部との間で信号をやり取りしながらこれらを制御し、
また、雲台制御部8、表示位置設定部30を制御する。
上記雲台制御部8はCPU16において算出された二つ
のベクトル量に基づきメインカメラ1の雲台5を制御し
てパンニング、チルティング制御を行う。雲台制御部8
は、メインカメラ1のパンニングおよびチルティングを
違和感なく円滑に行うためのスムージング処理を含んで
いる。
力される。CPU9は、オペレーションパネル17から
入力される指令信号に基づき、上記キー処理部、演算処
理部との間で信号をやり取りしながらこれらを制御し、
また、雲台制御部8、表示位置設定部30を制御する。
上記雲台制御部8はCPU16において算出された二つ
のベクトル量に基づきメインカメラ1の雲台5を制御し
てパンニング、チルティング制御を行う。雲台制御部8
は、メインカメラ1のパンニングおよびチルティングを
違和感なく円滑に行うためのスムージング処理を含んで
いる。
【0015】サブカメラ2による映像信号は対象物抽出
部20に入力される。対象物抽出部20は、キー処理
部、このキー処理部の出力を入力とするマスク処理部等
を有してなり、サブカメラ2からの映像信号の中からク
ロマキー信号すなわち特定の色成分をキーとする信号を
得、このキー信号に対して上記マスク処理部でマスク処
理する。このマスク処理されたキー信号は対象物抽出部
20の出力として動き検出部14とCPU16に入力さ
れる。動き検出部14は、上記マスク処理部の出力を入
力とする重心算出部、この重心算出部の出力を入力とす
る演算処理部等を有する。上記動き検出部14の出力は
CPU16に入力される。CPU16は、オペレーショ
ンパネル17から入力される指令信号に基づき、上記キ
ー処理部、演算処理部、雲台制御部15との間で信号を
やり取りしながらこれらを制御する。上記雲台制御部1
5はCPU16において算出されたベクトル量に基づき
サブカメラ2の雲台18を制御してパンニング、チルテ
ィング制御を行う。サブカメラ2側のCPU16からメ
インカメラ1側のCPU9にCPU16において算出さ
れたベクトル量が入力される。
部20に入力される。対象物抽出部20は、キー処理
部、このキー処理部の出力を入力とするマスク処理部等
を有してなり、サブカメラ2からの映像信号の中からク
ロマキー信号すなわち特定の色成分をキーとする信号を
得、このキー信号に対して上記マスク処理部でマスク処
理する。このマスク処理されたキー信号は対象物抽出部
20の出力として動き検出部14とCPU16に入力さ
れる。動き検出部14は、上記マスク処理部の出力を入
力とする重心算出部、この重心算出部の出力を入力とす
る演算処理部等を有する。上記動き検出部14の出力は
CPU16に入力される。CPU16は、オペレーショ
ンパネル17から入力される指令信号に基づき、上記キ
ー処理部、演算処理部、雲台制御部15との間で信号を
やり取りしながらこれらを制御する。上記雲台制御部1
5はCPU16において算出されたベクトル量に基づき
サブカメラ2の雲台18を制御してパンニング、チルテ
ィング制御を行う。サブカメラ2側のCPU16からメ
インカメラ1側のCPU9にCPU16において算出さ
れたベクトル量が入力される。
【0016】メインカメラ1の映像信号Aとサブカメラ
2の映像信号Bは合成部31に入力されて合成される。
また、合成部31には表示位置設定部30からの表示位
置信号が入力され、サブカメラ2の映像信号Bの表示位
置が設定される。合成部31で合成された映像信号はモ
ニタ32に入力され、モニタ32で表示される。
2の映像信号Bは合成部31に入力されて合成される。
また、合成部31には表示位置設定部30からの表示位
置信号が入力され、サブカメラ2の映像信号Bの表示位
置が設定される。合成部31で合成された映像信号はモ
ニタ32に入力され、モニタ32で表示される。
【0017】次に、上記カメラ自動追従方法および装置
の動作を説明する。メインカメラ1の視野角θは比較的
広く、所定の監視範囲を網羅する。その視野21の映像
の例を図3の上部に示す。また、メインカメラ1の視野
21内にある対象物体の一部、例えば一人の人間に注目
してこの人間を包含する範囲をサブカメラ2の視野21
aとする。メインカメラ1の視野21内のどの対象物体
を包含する範囲をサブカメラ2の視野21aとするか
は、オペレーションパネル17からの指定によりCPU
16の指令で設定される。サブカメラ2の視野21aで
とらえた映像23の中から、対象物抽出部20におい
て、注目した対象物を抽出する。この対象物抽出部20
では、サブカメラ2の視野21aの中から指定された特
定の対象物体部分をキー信号として取り出すキー処理を
行う。特定の対象物部分を色で認識する場合は、オペレ
ーションパネル17から何色にするかを指定し、サブカ
メラ2からのRGB信号により、指定された特定の色成
分を取り出す。上記特定の対象物が人間である場合は、
例えば人間の肌色を特定の色成分として指定するのも一
つのやり方である。
の動作を説明する。メインカメラ1の視野角θは比較的
広く、所定の監視範囲を網羅する。その視野21の映像
の例を図3の上部に示す。また、メインカメラ1の視野
21内にある対象物体の一部、例えば一人の人間に注目
してこの人間を包含する範囲をサブカメラ2の視野21
aとする。メインカメラ1の視野21内のどの対象物体
を包含する範囲をサブカメラ2の視野21aとするか
は、オペレーションパネル17からの指定によりCPU
16の指令で設定される。サブカメラ2の視野21aで
とらえた映像23の中から、対象物抽出部20におい
て、注目した対象物を抽出する。この対象物抽出部20
では、サブカメラ2の視野21aの中から指定された特
定の対象物体部分をキー信号として取り出すキー処理を
行う。特定の対象物部分を色で認識する場合は、オペレ
ーションパネル17から何色にするかを指定し、サブカ
メラ2からのRGB信号により、指定された特定の色成
分を取り出す。上記特定の対象物が人間である場合は、
例えば人間の肌色を特定の色成分として指定するのも一
つのやり方である。
【0018】取り出されたキー信号に対してはマスク処
理する。これは、指定する物体に対応したクロマ成分で
撮像された映像より、注目する物体を抜き出すもので、
撮像映像内で同じクロマ成分をもつ物体を削除するため
に、注目する物体以外にマスクをかける。マスク処理さ
れた画像は重心算出部において上記特定の対象物体部分
の重心が求められる。重心の演算には公知の専用のIC
を使用することができる。上記特定の注目物体が動けば
その重心も動くので、この動きを動き検出部14で検出
する。動き検出部14は特定の注目物体の動きをベクト
ル量として抽出し、これをCPU16に入力する。CP
U16はブランキング期間に動き検出部14による検出
信号で雲台制御部15を経てサブカメラ2の雲台18を
制御し、上記一連の処理を1フレーム期間で終了させ
る。
理する。これは、指定する物体に対応したクロマ成分で
撮像された映像より、注目する物体を抜き出すもので、
撮像映像内で同じクロマ成分をもつ物体を削除するため
に、注目する物体以外にマスクをかける。マスク処理さ
れた画像は重心算出部において上記特定の対象物体部分
の重心が求められる。重心の演算には公知の専用のIC
を使用することができる。上記特定の注目物体が動けば
その重心も動くので、この動きを動き検出部14で検出
する。動き検出部14は特定の注目物体の動きをベクト
ル量として抽出し、これをCPU16に入力する。CP
U16はブランキング期間に動き検出部14による検出
信号で雲台制御部15を経てサブカメラ2の雲台18を
制御し、上記一連の処理を1フレーム期間で終了させ
る。
【0019】一方、メインカメラ1からの映像信号は動
き検出部10に入力され、サブカメラ2側の前記マスク
処理部からの限定された画像範囲情報を利用して、メイ
ンカメラ1の画素の精度をサブカメラ2のキーサイズま
で落とすフィルタリング処理がなされる。図4(a)は
このフィルタリング処理の概念を示しており、メインカ
メラ1の視野21中に、サブカメラ2側でマスク処理さ
れた視野21aと同等の画像範囲が設定され、図4
(b)に示すように、メインカメラ1の視野21が上記
マスク処理された視野21aと同等の画像範囲で区画さ
れる。
き検出部10に入力され、サブカメラ2側の前記マスク
処理部からの限定された画像範囲情報を利用して、メイ
ンカメラ1の画素の精度をサブカメラ2のキーサイズま
で落とすフィルタリング処理がなされる。図4(a)は
このフィルタリング処理の概念を示しており、メインカ
メラ1の視野21中に、サブカメラ2側でマスク処理さ
れた視野21aと同等の画像範囲が設定され、図4
(b)に示すように、メインカメラ1の視野21が上記
マスク処理された視野21aと同等の画像範囲で区画さ
れる。
【0020】フィルタリング処理された画像情報は動き
検出部10内の前記キー処理部に入力される。キー処理
部は、指定された特定の被写体部分を上記のように色で
認識する場合は、指定された色成分をキー信号として取
り出す。上記フィルタリング処理により、サブカメラ2
と同じパラメータでキー信号が取り出される。このキー
信号は動き検出部10内の前記重心算出部に入力され、
サブカメラ2側と同様に重心が算出される。図4(b)
は、図4(a)に示す画像全体の重心を求めた例を示し
ており、指定された色成分を有する4個所がキー信号と
して取り出されている。重心位置は被写体の動きに伴っ
て移動するので、幾何学演算処理部において重心位置を
フィールド間もしくはフレーム間で比較しながら被写体
の動きを検出する。
検出部10内の前記キー処理部に入力される。キー処理
部は、指定された特定の被写体部分を上記のように色で
認識する場合は、指定された色成分をキー信号として取
り出す。上記フィルタリング処理により、サブカメラ2
と同じパラメータでキー信号が取り出される。このキー
信号は動き検出部10内の前記重心算出部に入力され、
サブカメラ2側と同様に重心が算出される。図4(b)
は、図4(a)に示す画像全体の重心を求めた例を示し
ており、指定された色成分を有する4個所がキー信号と
して取り出されている。重心位置は被写体の動きに伴っ
て移動するので、幾何学演算処理部において重心位置を
フィールド間もしくはフレーム間で比較しながら被写体
の動きを検出する。
【0021】いま、サブカメラ2は、上記の例では人間
の動きに追従して動くわけであるから、図5(a)に示
すようにメインカメラ1の視野21内の特定の人間が移
動すると、メインカメラ1の映像の特定の色成分の重心
PもP’へ移動する(図5(b)参照)。この移動量
は、抜き出された映像に対して重心G(Xt,Yt)を
とる。ここで、tは任意のフィールドを示す。また、次
のフィールドでとられた重心をG(Xt+1,Yt+
1)とし、注目物体の移動量(ベクトル量)をRb
(X,Y)とすると、 Rb(X,Y)=G(Xt+1,Yt+1)−G(Xt,Yt) ……(1) となり、この(1)式より移動量Rbを算出することが
できる。この算出された移動量に応じて、かつ、移動の
向きを同じくしてメインカメラを移動させれば、被写体
の動きに応じ常に最適の画像を得ることができる。
の動きに追従して動くわけであるから、図5(a)に示
すようにメインカメラ1の視野21内の特定の人間が移
動すると、メインカメラ1の映像の特定の色成分の重心
PもP’へ移動する(図5(b)参照)。この移動量
は、抜き出された映像に対して重心G(Xt,Yt)を
とる。ここで、tは任意のフィールドを示す。また、次
のフィールドでとられた重心をG(Xt+1,Yt+
1)とし、注目物体の移動量(ベクトル量)をRb
(X,Y)とすると、 Rb(X,Y)=G(Xt+1,Yt+1)−G(Xt,Yt) ……(1) となり、この(1)式より移動量Rbを算出することが
できる。この算出された移動量に応じて、かつ、移動の
向きを同じくしてメインカメラを移動させれば、被写体
の動きに応じ常に最適の画像を得ることができる。
【0022】メインカメラ1では、撮像された映像の全
領域でフィルタ処理し、かつ、全領域で重心をとる。全
体の映像における重心の移動量Raは、上記(1)式と
同様に与えられる。全体の映像における重心の移動量R
aは、撮像される映像の感覚的ベクトル量、すなわち映
像をトータル的に見てどの方向に動きがあるかを示す量
である。このようにして、メインカメラ1は、図6に示
すように、サブカメラ2の視野21a内の注目物体以外
の動きによっても重心PがP−2へ移動する。何故な
ら、キー処理部4は上記のように指定されたクロマ成分
をキー信号として取り出すようになっているため、メイ
ンカメラ1の視野21内においてサブカメラ2の視野2
1a以外に指定されたクロマ成分を有する対象物体があ
ってこれが移動すれば、図6(b)に示すように重心が
PからP−2へ移動することになるからである。これ
は、結果的にはカメラマンがビューファインダー越しに
メインカメラ1の視野21中の他の移動物体を黙視して
いる状態と同等と考えることができる。
領域でフィルタ処理し、かつ、全領域で重心をとる。全
体の映像における重心の移動量Raは、上記(1)式と
同様に与えられる。全体の映像における重心の移動量R
aは、撮像される映像の感覚的ベクトル量、すなわち映
像をトータル的に見てどの方向に動きがあるかを示す量
である。このようにして、メインカメラ1は、図6に示
すように、サブカメラ2の視野21a内の注目物体以外
の動きによっても重心PがP−2へ移動する。何故な
ら、キー処理部4は上記のように指定されたクロマ成分
をキー信号として取り出すようになっているため、メイ
ンカメラ1の視野21内においてサブカメラ2の視野2
1a以外に指定されたクロマ成分を有する対象物体があ
ってこれが移動すれば、図6(b)に示すように重心が
PからP−2へ移動することになるからである。これ
は、結果的にはカメラマンがビューファインダー越しに
メインカメラ1の視野21中の他の移動物体を黙視して
いる状態と同等と考えることができる。
【0023】サブカメラ2で得られた移動量Rbおよび
メインカメラ1で得られた移動量Raにおけるスカラー
量Rb’、Ra’は、CPU9において、2台のカメラ
1、2の撮像倍率比によって変換され、同スケールによ
って処理される。すなわち、 Ra’=αRa (α:撮像倍率比) ……(2) Rb’=βRb (β=1/α) ……(3) というように、同スケール化された両者の移動量によっ
て、全体の動きにおける注目物体の動きを条件付けし、
その条件に応じた各カメラ1、2の雲台制御量(カメラ
移動量)を定量化する。このように、CPU9は、2台
のカメラ1、2の異なる倍率に対応する二つのパラメー
タにより2台のカメラ1、2の雲台5、18を制御する
パラメータを算出し、1台のカメラ1により検出された
対象物体全体の動きと他の1台のカメラ2により検出さ
れた注目物体の動きとの相関関係からそれぞれのカメラ
の最適移動量を推定する演算部としての機能を有してお
り、これによって、カメラ自動追従装置の安定した動作
を実現することができる。
メインカメラ1で得られた移動量Raにおけるスカラー
量Rb’、Ra’は、CPU9において、2台のカメラ
1、2の撮像倍率比によって変換され、同スケールによ
って処理される。すなわち、 Ra’=αRa (α:撮像倍率比) ……(2) Rb’=βRb (β=1/α) ……(3) というように、同スケール化された両者の移動量によっ
て、全体の動きにおける注目物体の動きを条件付けし、
その条件に応じた各カメラ1、2の雲台制御量(カメラ
移動量)を定量化する。このように、CPU9は、2台
のカメラ1、2の異なる倍率に対応する二つのパラメー
タにより2台のカメラ1、2の雲台5、18を制御する
パラメータを算出し、1台のカメラ1により検出された
対象物体全体の動きと他の1台のカメラ2により検出さ
れた注目物体の動きとの相関関係からそれぞれのカメラ
の最適移動量を推定する演算部としての機能を有してお
り、これによって、カメラ自動追従装置の安定した動作
を実現することができる。
【0024】対象物を表示するモニタには、メインカメ
ラ1で撮像された映像のみを表示してもよいが、図1に
示す例では、メインカメラ1で撮像された映像Aとサブ
カメラ2で撮像された映像Bとを合成部31で合成し、
一つのモニタ32の画面上に、映像Aを背景とした形で
映像Bが拡大されて表示されるようになっている。映像
Bを映像A中のどこに表示するかは、CPU9からの指
令によって表示位置設定部30で設定される。CPU9
は、映像Bが映像A中のどこにあるかを常時認識してお
り、対象物体全体の動きを見ながら、映像A中の差し支
えのない領域、例えば映像A中の映像Bがその拡大映像
で隠されることのないような位置を指定し、表示位置設
定部30を通じて上記指定した位置に映像Bの拡大映像
を表示する。従って、注目物体が動いてその映像Bが映
像A中を移動し、映像Bの拡大映像表示部と重なるよう
であれば、映像Bの拡大映像表示部を映像A中の差し支
えのない領域まで移動させる。
ラ1で撮像された映像のみを表示してもよいが、図1に
示す例では、メインカメラ1で撮像された映像Aとサブ
カメラ2で撮像された映像Bとを合成部31で合成し、
一つのモニタ32の画面上に、映像Aを背景とした形で
映像Bが拡大されて表示されるようになっている。映像
Bを映像A中のどこに表示するかは、CPU9からの指
令によって表示位置設定部30で設定される。CPU9
は、映像Bが映像A中のどこにあるかを常時認識してお
り、対象物体全体の動きを見ながら、映像A中の差し支
えのない領域、例えば映像A中の映像Bがその拡大映像
で隠されることのないような位置を指定し、表示位置設
定部30を通じて上記指定した位置に映像Bの拡大映像
を表示する。従って、注目物体が動いてその映像Bが映
像A中を移動し、映像Bの拡大映像表示部と重なるよう
であれば、映像Bの拡大映像表示部を映像A中の差し支
えのない領域まで移動させる。
【0025】ところで、メインカメラ1が被写体の僅か
な位置の変化に敏感に追従していては落ちつきのない映
像になってしまうため、メインカメラ1については、2
台のカメラから抽出された移動量から定量化した雲台制
御パラメータが一定以上でなければ動かないように不感
領域を設定可能にしておくのが望ましい。ここで、定量
化された雲台制御パラメータのパン量をP、チルト量を
C、実際のパン量をP’、実際のチルト量をC’とする
と、 P’=iP ……(4) C’=jC ……(5) となる。
な位置の変化に敏感に追従していては落ちつきのない映
像になってしまうため、メインカメラ1については、2
台のカメラから抽出された移動量から定量化した雲台制
御パラメータが一定以上でなければ動かないように不感
領域を設定可能にしておくのが望ましい。ここで、定量
化された雲台制御パラメータのパン量をP、チルト量を
C、実際のパン量をP’、実際のチルト量をC’とする
と、 P’=iP ……(4) C’=jC ……(5) となる。
【0026】上記の式(4)(5)においてパラメータ
i,jをソフト的に変更することにより不感領域を設定
することができる。この不感領域の設定により、メイン
カメラ1による撮像画面の滑らかな動きを実現すること
ができる。この処理をスムージング処理といい、各雲台
制御部8、10がこのスムージング処理機能を有してい
る。上記不感領域は、各種撮像条件等に応じて任意に変
更することができる。また、上記スムージング処理と実
際のパン量P’、実際のチルト量C’のそれぞれの累計
加算を指定時間T(この指定時間Tはソフト的に可変で
ある)で行い、指定時間T毎に雲台を動かす操作を平行
して行うことにより、よりスムーズな動きを得ることが
できる。
i,jをソフト的に変更することにより不感領域を設定
することができる。この不感領域の設定により、メイン
カメラ1による撮像画面の滑らかな動きを実現すること
ができる。この処理をスムージング処理といい、各雲台
制御部8、10がこのスムージング処理機能を有してい
る。上記不感領域は、各種撮像条件等に応じて任意に変
更することができる。また、上記スムージング処理と実
際のパン量P’、実際のチルト量C’のそれぞれの累計
加算を指定時間T(この指定時間Tはソフト的に可変で
ある)で行い、指定時間T毎に雲台を動かす操作を平行
して行うことにより、よりスムーズな動きを得ることが
できる。
【0027】以上説明した実施の形態では、サブカメラ
2によって監視されている注目物体が図7に示すように
メインカメラ1の視野21外に消えたとしても、サブカ
メラ2はマスク設定した注目物体を常時追跡し、サブカ
メラ2でとらえかつマスク処理された注目物体の動きに
追従してメインカメラ1を移動させるようになっている
ため、図7に示すように再度メインカメラ1の視野21
内に上記監視されている物体をとらえることができる。
従って、メインカメラ1の視野角を狭くして特定の対象
物体に絞っても、目的の対象物体を見逃してしまうこと
はない。
2によって監視されている注目物体が図7に示すように
メインカメラ1の視野21外に消えたとしても、サブカ
メラ2はマスク設定した注目物体を常時追跡し、サブカ
メラ2でとらえかつマスク処理された注目物体の動きに
追従してメインカメラ1を移動させるようになっている
ため、図7に示すように再度メインカメラ1の視野21
内に上記監視されている物体をとらえることができる。
従って、メインカメラ1の視野角を狭くして特定の対象
物体に絞っても、目的の対象物体を見逃してしまうこと
はない。
【0028】以上説明した本発明の実施の形態によれ
ば、2台の異なる倍率を持つカメラを用い、1台のカメ
ラ1に監視範囲を網羅する視野をもたせ、他の1台のカ
メラ2で注目する物体を監視し、1台のカメラ1により
抽出された対象物体全体の動きと他の1台のカメラ2に
より抽出された注目物体の動きとの相関関係からカメラ
の最適移動量を推定し、この推定値に基づきそれぞれの
カメラ1、2を移動させることにより最適撮像範囲を撮
像するようにしたため、動きのある対象物体を自動的に
追従することができ、機材およびスタッフの省力化の要
求に応えることができるとともに、目的の対象物に絞り
込んでこれを大きくかつ鮮明にとらえることができる。
ば、2台の異なる倍率を持つカメラを用い、1台のカメ
ラ1に監視範囲を網羅する視野をもたせ、他の1台のカ
メラ2で注目する物体を監視し、1台のカメラ1により
抽出された対象物体全体の動きと他の1台のカメラ2に
より抽出された注目物体の動きとの相関関係からカメラ
の最適移動量を推定し、この推定値に基づきそれぞれの
カメラ1、2を移動させることにより最適撮像範囲を撮
像するようにしたため、動きのある対象物体を自動的に
追従することができ、機材およびスタッフの省力化の要
求に応えることができるとともに、目的の対象物に絞り
込んでこれを大きくかつ鮮明にとらえることができる。
【0029】また、メインカメラ1の視野の中には、注
目物体のほかに、動きのある物体が存在する場合も多
い。例えば、風で枝が揺れている樹木や、波立っている
水面等に類である。その場合、風で枝が揺れている樹木
や、波立っている水面等に反応してカメラが移動すると
誤動作ということになる。しかし、前述の本発明の実施
の形態のように、追従すべき物体を特定するのに、例え
ば肌色の部分のみというように色で特定するようにすれ
ば、誤動作を防止することができる。あるいは、上記の
ような風で枝が揺れている樹木や、波立っている水面等
は規則性をもって動いているので、規則性をもって動い
ているものは無視するようにしてもよい。
目物体のほかに、動きのある物体が存在する場合も多
い。例えば、風で枝が揺れている樹木や、波立っている
水面等に類である。その場合、風で枝が揺れている樹木
や、波立っている水面等に反応してカメラが移動すると
誤動作ということになる。しかし、前述の本発明の実施
の形態のように、追従すべき物体を特定するのに、例え
ば肌色の部分のみというように色で特定するようにすれ
ば、誤動作を防止することができる。あるいは、上記の
ような風で枝が揺れている樹木や、波立っている水面等
は規則性をもって動いているので、規則性をもって動い
ているものは無視するようにしてもよい。
【0030】本発明にかかるカメラ自動追従方法および
その装置は、人間が立ち入ることができない場所でも、
特定の対象物体を追跡しながら撮像することができる。
特に、サブカメラを赤外線カメラや高感度カメラにすれ
ば、無人監視システムや異常警報システムなどとしても
利用することができる。また、本発明装置にビデオテー
プレコーダやフレームメモリ(数分単位)を組み合わせ
れば、災害時の情報の記録も可能となる。
その装置は、人間が立ち入ることができない場所でも、
特定の対象物体を追跡しながら撮像することができる。
特に、サブカメラを赤外線カメラや高感度カメラにすれ
ば、無人監視システムや異常警報システムなどとしても
利用することができる。また、本発明装置にビデオテー
プレコーダやフレームメモリ(数分単位)を組み合わせ
れば、災害時の情報の記録も可能となる。
【0031】図示の実施の形態では、メインカメラとサ
ブカメラが別体になっていたが、複眼レンズを用いた1
台のカメラとし、一方のレンズは広画角、他方のレンズ
はこれよりも狭い画角とし、広画角のレンズをメイン、
狭い画角のレンズをサブとして前記実施の形態と同様に
使い分ければ、図示の実施の形態と同様の作用効果を得
ることができる。また、カメラは3個、4個、というよ
うに多数用いてもよい。この場合、サブカメラとして複
数個用いてもよいし、メインカメラとして複数個用いて
もよい。また、メインカメラによる撮像画面中に、サブ
カメラによる撮像画面を同時に表示してもよい。その場
合、指定領域を適宜加工処理し、全体の動きを見ながら
差し支えのない領域にサブカメラによる撮像画面を表示
する。こうすることによって、全体の動きを見ながら指
定部分の処理を同時に見ることができる。
ブカメラが別体になっていたが、複眼レンズを用いた1
台のカメラとし、一方のレンズは広画角、他方のレンズ
はこれよりも狭い画角とし、広画角のレンズをメイン、
狭い画角のレンズをサブとして前記実施の形態と同様に
使い分ければ、図示の実施の形態と同様の作用効果を得
ることができる。また、カメラは3個、4個、というよ
うに多数用いてもよい。この場合、サブカメラとして複
数個用いてもよいし、メインカメラとして複数個用いて
もよい。また、メインカメラによる撮像画面中に、サブ
カメラによる撮像画面を同時に表示してもよい。その場
合、指定領域を適宜加工処理し、全体の動きを見ながら
差し支えのない領域にサブカメラによる撮像画面を表示
する。こうすることによって、全体の動きを見ながら指
定部分の処理を同時に見ることができる。
【0032】
【発明の効果】請求項1記載の発明によれば、2台の倍
率の異なるカメラを用い、1台のカメラに監視範囲を網
羅する視野をもたせ、他の1台のカメラで注目する物体
を監視し、1台のカメラにより抽出された対象物体全体
の動きと他の1台のカメラにより抽出された注目物体の
動きとの相関関係からカメラの最適移動量を推定し、こ
の推定値に基づきそれぞれのカメラを移動させることに
より最適撮像範囲を撮像するようにしたため、動きのあ
る対象物体を自動的に追従することができ、機材および
スタッフの省力化の要求に応えることができるととも
に、目的の対象物に絞り込んでこれを大きくかつ鮮明に
とらえることができる。
率の異なるカメラを用い、1台のカメラに監視範囲を網
羅する視野をもたせ、他の1台のカメラで注目する物体
を監視し、1台のカメラにより抽出された対象物体全体
の動きと他の1台のカメラにより抽出された注目物体の
動きとの相関関係からカメラの最適移動量を推定し、こ
の推定値に基づきそれぞれのカメラを移動させることに
より最適撮像範囲を撮像するようにしたため、動きのあ
る対象物体を自動的に追従することができ、機材および
スタッフの省力化の要求に応えることができるととも
に、目的の対象物に絞り込んでこれを大きくかつ鮮明に
とらえることができる。
【0033】請求項2記載の発明によれば、倍率が異な
る2台のカメラを有し、1台のカメラは監視範囲を網羅
する視野をもち、他の1台のカメラは上記監視範囲内の
注目する物体を監視するものであり、上記2台のカメラ
の撮像範囲内における対象物体の動きを検出する動き検
出部と、上記2台のカメラの異なる倍率に対応する二つ
のパラメータにより2台のカメラの雲台を制御するパラ
メータを算出し、1台のカメラにより検出された対象物
体全体の動きと他の1台のカメラにより検出された注目
物体の動きとの相関関係からそれぞれのカメラの最適移
動量を推定する演算部と、この推定値に基づきそれぞれ
のカメラの雲台を制御することにより最適撮像範囲を撮
像する雲台制御部とを有しているため、請求項1記載の
発明と同様に、動きのある対象物体を自動的に追従する
ことができ、機材およびスタッフの省力化の要求に応え
ることができるとともに、目的の対象物に絞り込んでこ
れを大きくかつ鮮明にとらえることができる。
る2台のカメラを有し、1台のカメラは監視範囲を網羅
する視野をもち、他の1台のカメラは上記監視範囲内の
注目する物体を監視するものであり、上記2台のカメラ
の撮像範囲内における対象物体の動きを検出する動き検
出部と、上記2台のカメラの異なる倍率に対応する二つ
のパラメータにより2台のカメラの雲台を制御するパラ
メータを算出し、1台のカメラにより検出された対象物
体全体の動きと他の1台のカメラにより検出された注目
物体の動きとの相関関係からそれぞれのカメラの最適移
動量を推定する演算部と、この推定値に基づきそれぞれ
のカメラの雲台を制御することにより最適撮像範囲を撮
像する雲台制御部とを有しているため、請求項1記載の
発明と同様に、動きのある対象物体を自動的に追従する
ことができ、機材およびスタッフの省力化の要求に応え
ることができるとともに、目的の対象物に絞り込んでこ
れを大きくかつ鮮明にとらえることができる。
【0034】請求項3記載の発明によれば、請求項2記
載の発明において、2台のカメラで撮像された映像を一
つの画面に合成して表示する合成手段を設けたため、所
定の監視範囲を網羅した対象物全体の画面の中に、注目
物体の映像を拡大した形で重ねて表示することができ
る。
載の発明において、2台のカメラで撮像された映像を一
つの画面に合成して表示する合成手段を設けたため、所
定の監視範囲を網羅した対象物全体の画面の中に、注目
物体の映像を拡大した形で重ねて表示することができ
る。
【図1】本発明にかかるカメラ自動追従方法およびその
装置の実施の形態を示すブロック図である。
装置の実施の形態を示すブロック図である。
【図2】同上実施の形態による撮像の様子を示す概念図
である。
である。
【図3】同上実施の形態による注目物体の動きを検知す
る動作を示す概念図である。
る動作を示す概念図である。
【図4】同上実施の形態によるフィルタリング処理の様
子を示す概念図である。
子を示す概念図である。
【図5】同上実施の形態によるメインカメラでの注目物
体の動きによる重心の移動の様子を示す概念図である。
体の動きによる重心の移動の様子を示す概念図である。
【図6】同上実施の形態によるメインカメラでの注目物
体以外の対象物体の動きによる重心の移動の様子を示す
概念図である。
体以外の対象物体の動きによる重心の移動の様子を示す
概念図である。
【図7】同上実施の形態による注目物体の別の動きの例
を示す概念図である。
を示す概念図である。
【図8】カメラマンの目の動きとカメラワークの関係を
示す線図である。
示す線図である。
【図9】従来一般のカメラによる撮像の様子を示す概念
図である。
図である。
1 メインカメラ 2 サブカメラ 5 雲台 8 雲台制御部 9 演算部としてのCPU 10 動き検出部 14 動き検出部 15 雲台制御部 16 演算部としてのCPU 18 雲台 31 合成部
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) H04N 5/232 H04N 7/18
Claims (3)
- 【請求項1】 撮像範囲内における対象物体の動きを倍
率が異なる2台のカメラの映像信号より検出し、 その異なる倍率に対応する二つのパラメータにより2台
のカメラの雲台を制御するパラメータを算出し、 1台のカメラに監視範囲を網羅する視野をもたせ、他の
1台のカメラで注目する物体を監視し、 1台のカメラにより抽出された対象物体全体の動きと他
の1台のカメラにより抽出された注目物体の動きとの相
関関係からカメラの最適移動量を推定し、 この推定値に基づきそれぞれのカメラを移動させること
により最適撮像範囲を撮像するカメラ自動追従方法。 - 【請求項2】 倍率が異なる2台のカメラを有し、1台
のカメラは監視範囲を網羅する視野をもち、他の1台の
カメラは上記監視範囲内の注目する物体を監視するもの
であり、 上記2台のカメラの撮像範囲内における対象物体の動き
を検出する動き検出部と、 上記2台のカメラの異なる倍率に対応する二つのパラメ
ータにより2台のカメラの雲台を制御するパラメータを
算出し、1台のカメラにより検出された対象物体全体の
動きと他の1台のカメラにより検出された注目物体の動
きとの相関関係からそれぞれのカメラの最適移動量を推
定する演算部と、 この演算部による推定値に基づきそれぞれのカメラの雲
台を制御することにより最適撮像範囲を撮像する雲台制
御部とを有してなるカメラ自動追従装置。 - 【請求項3】 2台のカメラで撮像された映像を一つの
画面に合成して表示する合成手段を有してなる請求項2
記載のカメラ自動追従装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8187484A JP2846854B2 (ja) | 1996-07-17 | 1996-07-17 | カメラ自動追従方法およびその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8187484A JP2846854B2 (ja) | 1996-07-17 | 1996-07-17 | カメラ自動追従方法およびその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1032746A JPH1032746A (ja) | 1998-02-03 |
JP2846854B2 true JP2846854B2 (ja) | 1999-01-13 |
Family
ID=16206882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8187484A Expired - Fee Related JP2846854B2 (ja) | 1996-07-17 | 1996-07-17 | カメラ自動追従方法およびその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2846854B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6593956B1 (en) * | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
KR100656345B1 (ko) | 2005-03-30 | 2006-12-11 | 한국전자통신연구원 | 두 대의 카메라를 이용한 이동 물체 추적 장치 및 방법 |
JP4241742B2 (ja) * | 2006-01-31 | 2009-03-18 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
JP5003458B2 (ja) * | 2007-12-17 | 2012-08-15 | ソニー株式会社 | 画像信号処理装置、表示装置、画像信号処理方法、プログラム及び記録媒体 |
KR101026521B1 (ko) | 2009-06-08 | 2011-04-01 | 삼육대학교산학협력단 | 촬영 영상물의 실시간 연출방법 |
JP5472506B2 (ja) * | 2013-03-19 | 2014-04-16 | 住友電気工業株式会社 | 複数の移動対象物の追跡撮影システム及び撮影制御方法 |
-
1996
- 1996-07-17 JP JP8187484A patent/JP2846854B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1032746A (ja) | 1998-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867424B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP4140591B2 (ja) | 撮像システム及び撮像方法 | |
DE602005005879T2 (de) | Zielsteuerungssystem und -Verfahren auf Bewegenbasis | |
US8174571B2 (en) | Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images | |
US7459685B2 (en) | Imaging device and method, computer program product on computer-readable medium, and imaging system | |
US8179442B2 (en) | Imaging device and method for performing surveillance by infrared radiation measurement | |
US7684591B2 (en) | Information processing system, information processing apparatus and information processing method, program, and recording medium | |
EP1646235A2 (en) | Moving picture recording apparatus and moving picture reproducing apparatus | |
US20110090341A1 (en) | Intruding object detection system and controlling method thereof | |
EP0878965A3 (en) | Method for tracking entering object and apparatus for tracking and monitoring entering object | |
JP2006523043A (ja) | 監視を行なう方法及びシステム | |
JP2010009134A (ja) | 画像処理システム及び画像処理方法、並びに、プログラム | |
CN110324572B (zh) | 监视系统、监视方法和非暂时性计算机可读存储介质 | |
WO2011082185A1 (en) | Confined motion detection for pan-tilt cameras employing motion detection and autonomous motion tracking | |
JP2007158860A (ja) | 撮影システム、撮影装置、画像切替装置、およびデータ保持装置 | |
US20050052533A1 (en) | Object tracking method and object tracking apparatus | |
CN1980384A (zh) | 空间移动物体锁定寻标装置及其方法 | |
CN110944101A (zh) | 摄像装置及图像记录方法 | |
KR100623835B1 (ko) | 물체 검출 방법 및 물체 검출 장치 | |
JP2846854B2 (ja) | カメラ自動追従方法およびその装置 | |
JP3615867B2 (ja) | 自動撮影カメラシステム | |
KR101619953B1 (ko) | 감시카메라용 자동 다중 추적 영상처리방법 | |
JP2003158664A (ja) | カメラ制御装置 | |
JP3994469B2 (ja) | 撮像装置、表示装置及び記録装置 | |
KR101619956B1 (ko) | 감시카메라용 자동 다중 추적 영상처리장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071030 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081030 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091030 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |