JP3989523B2 - 自動撮影方法および装置 - Google Patents
自動撮影方法および装置 Download PDFInfo
- Publication number
- JP3989523B2 JP3989523B2 JP2006512859A JP2006512859A JP3989523B2 JP 3989523 B2 JP3989523 B2 JP 3989523B2 JP 2006512859 A JP2006512859 A JP 2006512859A JP 2006512859 A JP2006512859 A JP 2006512859A JP 3989523 B2 JP3989523 B2 JP 3989523B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- priority
- target
- video
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000000605 extraction Methods 0.000 claims description 129
- 238000003384 imaging method Methods 0.000 claims description 110
- 238000012544 monitoring process Methods 0.000 claims description 61
- 238000005192 partition Methods 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 23
- 238000012937 correction Methods 0.000 claims description 16
- 238000013459 approach Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 14
- 230000002596 correlated effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000001276 controlling effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
そこで図16に示すように、監視領域全体を撮影する広角カメラからなる第1撮影手段と、パン・チルト・ズーム機能を備えたカメラからなる第2撮影手段と、前記第1撮影手段から入力された映像をもとにターゲットを検出し、ターゲットが検出された場合は当該ターゲットの位置に合わせて第2撮影手段の撮影方向を制御する自動撮影装置本体とを備え、前記第2撮影手段で追尾撮影したターゲットの拡大映像をモニタに表示する映像監視システムが開発されている。(特許文献1を参照)
またパン・チルト・ズーム機能を備えたカメラからなる第2撮影手段に代えて、第1撮影手段から入力された映像からターゲットの映像を部分的に切り出す電子的切り出し手段(映像切出し手段)を設け、第1撮影手段から入力された映像をもとにターゲットが検出された場合、前記映像切出し手段によって、全体映像からターゲットの映像を部分的に切り出し、このターゲットの追尾映像をモニタに拡大表示する映像監視システムも開発されている。
従って、第1撮影手段から入力された映像の中に人物が複数検出される撮影条件で1人の人物を追尾撮影する場合は、従来技術による自動撮影方法だけではその中の真に撮影すべき1人の人物の見かけの位置と大きさを抽出できず、適切な追尾撮影映像を得ることができなかった。
また選択ルールを事前に設定可能とし、かつその選択動作を、撮影対象の意味上の軽重を適切に反映させることによって、状況に応じて追尾撮影できるようにしたものである。
こうして得たパターン抽出結果P(区画の集合P)と、予め第1撮影手段1で撮影される監視領域の映像領域上に、監視領域全景と結び付ける形で設定したN個の優先度付き領域Si(センスエリアと呼ぶ)との相関関係(重なり)を調べ、前記パターン抽出結果Pに含まれる連結領域の中から、より優先度の高いセンスエリアと共通部分をもつ連結領域を切り出して追尾撮影のターゲットとし、さらに前記入力映像上での該ターゲットの見かけの位置と大きさに基づいて第2撮影手段2を制御し、該ターゲットに対応する人物の追尾映像を取得する。
本発明の自動撮影方法によれば、パターン抽出手段3において、第1撮影手段1から入力した入力映像Iに基づいて、追尾撮影すべき対象または対象群を表すパターン抽出結果P(区画の集合P)を抽出する(図3及び図5を参照)。
図1に示す実施例では、図1(a)に示す入力映像Iを入力した後、該入力映像Iの映像領域を、図1(b)に示すように縦12×横12の計114個の区画に区分した。なお、1つの区画内には複数画素が内包される(画素<区画)。
図1(a)に示す入力映像Iにおいて人物が移動している場合、動きを検出した画素(「1」の画素)を斜線で示すと、図1(c)に示すような斜線領域が表れる。(斜線領域の画素が「1」、それ以外が「0」として出力される。
そしてパターン抽出手段3は、前記「1」の画素の個数を、114個に区分した区画ごとに集計し、しきい値T2に従って2値化し、それぞれの区画ごとに、追尾撮影すべき対象(人物等)の一部または全部が映っているか否かを推定し、映っていると推定された区画(「1」の区画)の集合Pをパターン抽出結果Pとして出力する。
つまりパターン抽出手段3は、図1(d)で示すような斜線の区画の集合Pをパターン抽出結果P(有意なパターン)として出力する。(斜線の区画が「1」、それ以外が「0」として出力される。)
また入力映像Iにおいて複数の人物が存在しており、それらが移動していれば、移動している複数の人物のみが抽出され、区画の集合Pとしてそれぞれが出力される。
従って、例えば予め記憶しておいた背景画像と、最新の画像との差分をとり、背景差分法の適用し、入力映像Iから人物を抽出するようにしてもよい。
また先行技術文献として開示した特許文献1のように、人物が移動状態にあるか静止状態にあるかを推定し、処理を分ける方法を適用することもできる。
本発明では、予め入力映像Iの映像領域上に、任意形状の、互いに接することも有り得るN個の領域Si(i=1,2,3,...,N)からなるセンスエリアを設定するとともに、センスエリア記憶手段5に、前記領域Si(i=1,2,3,...,N)を、それぞれの優先度pi(i=1,2,3,...,N)とともに記憶させておく。(図3及び図5を参照)
次に、センス手段4により、前記領域Si全てについて、前記パターン抽出手段3が出力したパターン抽出結果P(区画の集合P)との重なりを判定し、重なりがあれば、該重なりを生じた区画Bと、該重なりを生じた領域Siの優先度piとの対を出力する。
そして、前記センス手段4が出力した区画Bと優先度piの対の中から、ターゲット選択手段6により、もっとも優先度が大きいもの(優先度p)を選び、パターン抽出手段3が出力した区画の集合Pから、前記区画Bを含む連結領域Tを切り出し、出力する。
そしてこの実施例では、予めセンスエリア記憶手段5において、例えば図2(a)に示すようなセンスエリアS1とS2を記憶しており、それぞれの優先度がp1=1,p2=2(p1よりp2のほうが優先度が高い)と設定してあったとする。
このとき、図2(c)に示すように、人物Xの動き検出された連結領域とセンスエリアS1、人物Yの動き検出された連結領域とセンスエリアS2がそれぞれ重なっていれば、センス手段4は、該重なりを生じた区画Bと、該重なりを生じたセンスエリアの優先度(優先度p1,p2)との対を出力する。
つまり、センス手段4は下記の情報を出力する。
人物XとセンスエリアS1との相関関係について、《重なりの区画B=座標(4,5)、優先度p1=1》
人物YとセンスエリアS2との相関関係について、《重なりの区画B=座標(8,6)、優先度p2=2》
その結果、図2(d)の斜線領域で示すパターンが、連結領域Tとして出力される。こうして人物Yのみを、第2撮影手段2で追尾撮影すべき対象(ターゲット)として選択する。つまり、動き検出や背景差分法などによって入力映像Iをパターン抽出したときに、パターン抽出結果として複数の人物群(ターゲット候補)が得られても、その人物群の中から一人の人物(ターゲット)を選択することができる。
人物Yのみを追尾撮影すべき対象(ターゲット)として選択した後、入力映像I上で前記連結領域Tが覆う領域に映っている物体(人物Y)を撮影視野に収めるように、撮影制御手段8で第2撮影手段2を制御することによって、第2撮影手段2で人物Yを自動的に追尾撮影する。
また、優先度付のセンスエリアを設定するにあたって、センスエリアの領域Siの位置および形状と、その優先度piは任意に設定することができ、該領域Siの位置や優先度を適切に設定することにより、選択動作を、撮影対象の意味上の軽重を適切に反映させ、状況に応じて追尾対象を自動撮影することができる。
なお、パターン抽出手段3として背景差分法を適用し、静止している人物もパターン抽出結果P(区画の集合P)として抽出することによって、静止している人物についても追尾撮影の対象とすることができる。
また、ターゲット選択手段6が出力した連結領域Tを、一時的に記憶し(連結領域T’)、最新の連結領域Tと、記憶されている過去の連結領域T’との比較により、追尾撮影中の人物が移動しているか静止しているか判定し、静止していると判定された場合、最新の連結領域Tのかわりに、記憶されている過去の連結領域T’に基づいて第2撮影手段2を制御することによって、静止している人物についても追尾撮影の対象とすることができる。
人物がセンスエリア(領域Si)を離れた後も追尾撮影を継続するためには、図5に示す自動撮影装置のように連結領域Tと優先度pを一時的に保存するための手段を付設する。
また、パターン記憶手段21が記憶している連結領域T’を、最新の入力映像Iに基づいて抽出されたパターン抽出結果P(最新の区画の集合P)の中から選択された連結領域Tに置き換えるとともに、優先度記憶手段22が記憶している優先度p’を前記連結領域Tの優先度pにそれぞれ置き換えるのは、最新の優先度pが優先度p’以上の優先度を示す場合のみとする。
また、センス手段4の出力が空の間(重なりの区画Bが存在しない間)、前記パターン抽出手段3が出力した最新の区画の集合Pから、パターン一時記憶手段21が記憶する連結領域T’と重なりを有する連結領域T2’を切り出し、この連結領域T2’を前記パターン記憶手段21に改めて記憶させることにより連結領域T’を更新させる(図8を参照)。
これによって、一旦優先度出力付きターゲット選択手段6によって連結領域Tとして選択され、パターン一時記憶手段21に連結領域T’として一時的に記憶された人物(ターゲット)は、前記連結領域T’の優先度p’より優先度が高い領域Siと、最新の入力映像Iに基づいて抽出された最新のパターン抽出結果P(最新の区画の集合P)との重なりが生じるまでの間、第2撮影手段2による追尾撮影対象であり続けることとなる。
(1)推定の正答率
(2)センスエリアとの相関関係を調べる手間
(3)ターゲット候補同士の分離性(分解能)
(4)ターゲット動作の追跡容易性
このように、前記推定の正答率と、センスエリアとの相関関係を調べる手間との最適化の観点からは、区画は大きい方が望ましい。
前記ターゲット動作の追跡容易性(上記(4)の事項)とは、図8に示したような、連結領域T’とT2’の重なりが、通常のターゲットの移動条件の下で安定して発生させられることである。例えば、1区画の大きさとターゲットの大きさがほぼ等しい場合、ターゲットが一つの区画から、隣の区画に移ったとき、連結領域T’と連結領域T2’の間に重なりが生じないかもしれない。この観点から、ターゲットが複数の区画で覆われるように、入力映像I上でのターゲットの見かけの大きさに対し、区画の大きさはより小さい方が望ましい。
この実施例は、第1撮影手段1から取得した入力映像Iからパターン抽出したとき、パターン抽出結果P(区画の集合P)として複数の連結領域(以下、パターンという)が抽出された場合、前記パターン抽出結果Pの中から一つを撮影対象として選択し、第2撮影手段2で撮影するものである。
つまり広角カメラからなる第1撮影手段1で撮影した領域(監視領域全体)の範囲内に有意なパターン(ターゲット候補)が複数同時に存在する状況で、前記監視領域内に存在する複数のターゲット候補のうち1つを自動的に選択してターゲットを決定し、当該ターゲットについてパン・チルト・ズーム機能を備えた第2撮影手段2で追尾撮影し、第2撮影手段2で撮影したターゲットの拡大映像をモニタに表示するものである。
センスエリアの設定方法については、第1撮影手段1で撮影した監視領域の映像をもとに、オペレータがセンスエリア設定手段によって任意の区画(N個の領域Si(i=1,2,3,...,N))を設定するとともに、その優先度(優先度pi(i=1,2,3,...,N))を設定する。例えば、第1撮影手段で撮影した監視領域全体の映像をモニタに表示し、オペレータはこの映像をもとに監視領域の映像上にセンスエリアを設定する。
なお予め設定したセンスエリアの設定条件(位置、範囲、および優先度の情報)を変更する手段を設け、前記手段からの指令によってセンスエリアの設定変更を可能となるように構成してもよい。また予め設定したセンスエリアのうち、任意のセンスエリアを一時的に無効にすることを可能とする手段を設けてもよい。
第1撮影手段1は、透視投影に基づくカメラであって、画像中心をレンズの光軸位置とし、前記画像中心を原点として、左向きにX軸の正方向、上向にY軸の正方向をとるようにして、撮影した映像内の座標(位置)を決定した。またカメラ(第1撮影手段1)から光軸に沿って離れる向きにZ軸の正方向をとるようにした。
第2撮影手段2は、パン・チルト・ズーム機能を備えた回転カメラであって、第1撮影手段1に近接して配置するとともに、パン回転面が第1撮影手段1(広角カメラ)の光軸と平行になるように設置し、パン回転面が第1撮影手段1で撮影した映像の水平線に対して平行となるようにした。
なお動き検出処理によってターゲット候補を検出するにあたって、時刻tにおけるフレーム画像と、時刻t−1におけるフレームの画像との差分をとり、有意な差が検出された部分(区画)のパターンをパターン抽出結果として出力するように構成してもよい。
例えば、温度感知処理によって、第1撮影手段1で撮影した映像をもとに撮影領域全体の温度を感知し、温度が高い部分のパターンを抽出して、パターン抽出結果として出力し、ターゲット候補のパターンを取得してもよい。
例えば4つのセンスエリアS1〜S4を設定した場合、センスエリア記憶手段5は、その領域S1〜S4(設定位置・範囲からなる情報)及びそれらの優先度p1〜p4の対からなるセンスエリア情報を記憶する。
なお、より高い優先度のセンスエリアと共通部分をもつターゲット候補のパターンが複数存在する場合、センスエリア内に優先度を付けておき、センスエリア内の優先度が高い共通部分を有するパターンを新規ターゲット推定パターン(連結領域T)として出力するように構成する。
図4に示す実施例は、監視領域内に3人の人物が存在する監視環境下において、第1撮影手段1から入力された監視領域の全体映像をもとに1つのターゲット(人物)を決定し、このターゲットの追尾映像を第2撮影手段2で取得するものである。
この実施例による自動撮影方法は、第1撮影手段1で監視領域全体を撮影し、監視領域の全体映像を取得する第1工程(図4(a)を参照)と、パターン抽出処理によって監視領域の全体映像から有意なパターン(ターゲット候補のパターン)のみを抽出する第2工程(図4(b)を参照)と、パターン抽出結果とセンスエリアの相関関係を調べる第3工程と(図4(c)を参照)、より高い優先度のセンスエリアと共通部分を有するパターン(ターゲット候補のパターン)をターゲットと決定する第4工程(図4(d))と、このターゲットの位置をもとに第2撮影手段2の撮影方向を制御し、第2撮影手段でターゲットを追尾撮影する第5工程(図4(g))とからなる。
第1撮影手段1から入力される監視領域の全体映像には、撮影領域の背景と、監視領域内に存在する人物(ターゲット候補)が映っている(図4(a)を参照)。
第1撮影手段1から入力された監視領域の全体映像(図4(a))と、予め取得した監視領域の背景映像(図4(e))との差分から、有意なパターン(ターゲット候補)を抽出する(図4(b)を参照)。つまりパターン抽出手段3によって、第1撮影手段1から入力された監視領域の全体映像から有意なパターンを抽出し、パターン抽出結果Pを取得する。
この実施例では、監視領域内に存在する3人の人物の映像領域を有意なパターン(ターゲット候補)C1〜C3として全体映像から切り出し、この有意なパターン(ターゲット候補)C1〜C3のみを抽出したパターン抽出結果P(区画の集合P)を得た(図4(b)を参照)。
センス手段4において、パターン抽出結果Pとセンスエリアとの相関関係(共通部分の有無)を調べる。
前記センスエリアは、第1撮影手段1から入力される監視領域の全体映像をもとにオペレータが予め監視領域内(映像上)に設定する(図4(f)を参照)。この実施例では、4つのセンスエリアS1〜S4が設定され、各センスエリアの優先度は、センスエリアS1<センスエリアS2<センスエリアS3<センスエリアS4と設定してある。そしてセンスエリアS1〜S4として設定されている4つの領域S1〜S4(設定位置・範囲からなる情報)とそれらの優先度p1〜p4とからなるセンスエリア情報がセンスエリア記憶手段5に記憶されている。
そして、センスエリア記憶手段5に記憶されているセンスエリア情報(図4(f))と、パターン抽出手段3で抽出したパターン抽出結果P(図2(b))とが、センス手段4に入力され、センスエリアとパターン抽出結果P(ターゲット候補)との相関関係を調べる(図4(c)を参照)。この実施例では、図4(c)に示すように、センスエリアS1とパターン(ターゲット候補)C1、センスエリアS3とパターン(ターゲット候補)C3がそれぞれ相関する(共通部分を有する)。
センス手段4において、センスエリアとパターン抽出結果Pとの相関関係を調べることによって、有意なパターン(ターゲット候補)と共通部分を有するセンスエリアのなかで最も優先度が高いセンスエリアを求め、このセンスエリアと共通部分を有するパターン(ターゲット候補)を選択し、ターゲットを決定する。
この実施例では、センスエリアの優先度がS3>S1と設定されているので、センスエリアS3と共通部分を有するパターン(ターゲット候補)C3が、ターゲットと決定される(図4(d)を参照)。
第1撮影手段1から入力された監視領域の全体映像上におけるターゲット(パターンC3)の位置に基づき、第2撮影手段の撮影方向を制御し、第2撮影手段2によってターゲット(パターンC3)を撮影する。
つまり全体映像上のターゲット(パターンC3)の位置をもとに、パン・チルト・ズーム機能を備えた回転カメラからなる第2撮影手段2の旋回方向を指令し、この第2撮影手段2によって、パターンC3に対応する人物を追尾撮影する(図4(g)を参照)。
なお図4に示す自動撮影方法では、(1)選択したターゲット(パターンC3)がセンスエリアS3から外れること(選択したターゲットがセンスエリアと相関をもたなくなること)、または、(2)第2撮影手段で追尾しているターゲット(パターンC3)と相関をもつセンスエリアS3(ターゲット優先度)より優先度が高いセンスエリア(この実施例ではセンスエリアS4)と相関関係を有するパターンが、パターン抽出手段によって出力した最新のパターン抽出結果Pに存在すること(より優先度が高いセンスエリアと相関関係にあるパターンが発生すること)、の何れかの条件が成立するまで、パターンC3がターゲットとして自動選択され、このターゲット(パターンC3に対応する人物)を第2撮影手段2によって追尾撮影する。
モニタにターゲットの追尾映像を表示するだけでなく、センスエリアとターゲット候補との共通部分の有無の情報を出力することによって、センスエリアと相関をもつ有意なパターン(ターゲット候補)が発生したか否かを、本発明に基づく自動撮影装置に接続された外部の装置が容易に把握することができる。例えば、前記の外部装置が録画装置なら、その情報(センスエリアとターゲット候補との共通部分の有無)に基づいて録画の制御(録画開始/停止)等を行える。また例えば、モニタに表示されている映像がターゲットの追尾撮影である場合は、追尾撮影であることを出力し、モニタに表示されている映像がオートパン映像である場合は、オートパン映像であることを出力し、モニタに表示されている映像の種類を出力することによって、モニタに表示されている映像の種類を容易に把握することができる。また例えば、モニタに表示されているターゲットが、何れのセンスエリアと共通部分を有するかの情報を出力することによって、モニタに表示されているターゲットの位置を容易に把握することができる。
そして、本発明に基づく自動撮影装置を複数台稼動させて監視領域を監視(映像監視)する場合など、モニタに表示する映像を選択する外部装置(映像切り替え装置)によって、上記の把握情報に基づいて最も重要性が高い撮影を行っている撮影装置の映像だけを選択して出力する等の利用法もある。
そして一時的に記憶されている連結領域T’を、最新の入力映像Iから抽出された最新の区画の集合Pの中から選択された連結領域Tに置き換え、かつ一時的に記憶されている優先度p’を、前記連結領域Tとともに求められた優先度pに置き換えるのは、該最新優先度pが優先度p’以上の場合のみとし、前記一時的に記憶されるべき連結領域Tが検出されず連結領域Tが空である間は、最新の入力映像Iから抽出された最新の区画の集合Pの中から、前記一時的に記憶されている連結領域T’と重なりを有する連結領域T2’を切り出し、該連結領域T2’をもって連結領域T’を更新するものである。
またターゲットの位置座標を取得するターゲット位置取得手段7と、ターゲットの位置座標をもとに第2撮影手段8の撮影方向を決定する撮影制御手段8とを備える。
第2撮影手段2は、パン・チルト・ズーム機能を備えた回転カメラであって、第1撮影手段1に近接して配置するとともに、パン回転面が第1撮影手段1(広角カメラ)の光軸と平行になるように設置し、パン回転面が第1撮影手段1で撮影した映像の水平線に対して平行となるようにした。
なおパターン抽出方法として、時刻tにおけるフレーム画像と、時刻t−1におけるフレームの画像との差分をとり、有意な差が検出された部分のパターンを抽出する方法や、明度差、温度差、色相差、特定形状か否かの判断等によって、有意なパターンを抽出する方法を用いてもよい。
例えば4つのセンスエリアS1〜S4を設定した場合、センスエリア記憶手段5は、センスエリアの領域S1〜S4(設定位置・範囲からなる情報)及びその優先度p1〜p4の対からなるセンスエリア情報を、それぞれ記憶する。
また初期値として、iMAX=−1,pMAX=−1,BMAX=φ、がそれぞれ設定されており、監視領域の映像上に設定されている各センスエリアの領域Siについて、センスエリアS1からS4まで順々にターゲット候補センス処理を行う(ステップS2)。
なお、何れのセンスエリアの優先度よりも低い値(「−1」)を、センスエリアの優先度の初期値として設定してある。
この実施例では、ターゲット選択手段6で出力した新規ターゲット推定パターンは、ターゲット切り替え制御手段10に入力される。
図7(a)に示すように、より高い優先度のセンスエリアSMAXと共通部分を有するターゲット候補のパターンを求める。
なお、図7(b)に示すように、より高い優先度のセンスエリアSMAXと共通部分をもつターゲット候補が複数存在する場合、適切な規則でただ一つのターゲット候補を選ぶ。
例えば、センスエリアとターゲット候補のパターンとの共通部分がより左上のものを優先して選択する。
なお前記ターゲット情報一時記憶手段20に記憶されているターゲット優先度以上の優先度のセンスエリアにおいてパターンとの相関が発生する条件が成立するまでの間、第2撮影手段2は前記ターゲットの追尾撮影を続けるように構成してもよい。
一方、ターゲット優先度より高い優先度、またはターゲット優先度以上の優先度をもつセンスエリアと相関をもつパターンが発生した場合は、第2撮影手段2で追尾するターゲットを切り替え、第1撮影手段1から入力された映像をもとに取得したターゲット候補のうち、より優先度が高いセンスエリアと相関をもつターゲット候補をターゲットと決定し、新たに取得したターゲットを追尾撮影する。
また、第2撮影手段2で追尾撮影しているターゲットのパターン(ターゲットの既存のパターン)と共通部分を含む連結領域(ターゲットの新しいパターン)が存在しない場合は、入力されたターゲット推定パターン(ターゲットの既存のパターン)をそのまま更新ターゲット推定パターンとして出力する。
なお前記連結領域(ターゲットの新しいパターン)が存在しない状態が、予め設定した期間(THOLD秒)継続した場合、ターゲット情報クリア指令を1回出力する。
また、ターゲット情報クリア指令はターゲット情報一時記憶手段20に入力され、これによって、第2撮影手段2で撮影していたターゲットの追尾が終了する。
図8に示すように、第1撮影手段1から新たに入力される映像をもとにパターン抽出処理して抽出したパターン抽出結果のなかから、第2撮影手段2で追尾撮影しているターゲットのパターン(ターゲットの既存のパターン(連結領域T’))と共通部分を含む連結領域(新しいターゲットのパターン(連結領域T2’))を取得する。
なお、前記パターン抽出結果に、第2撮影手段2で追尾撮影しているターゲットのパターン(ターゲットの既存のパターン)と共通部分を含む連結領域が2以上存在する場合、例えば共通部分がより左上のものを優先し、当該共通部分(より左上の共通部分)を含む連結領域を新しいターゲットのパターンとして取得する。
一方、ターゲット優先度よりも高い優先度、またはターゲット優先度以上の優先度をもつセンスエリアと相関をもつパターン(新規ターゲット推定パターン)が入力された場合、ターゲット推定パターンとして新規ターゲット推定パターンを出力するとともに、ターゲット優先度として、入力されたセンスエリアの優先度を出力する。
ターゲット情報一時記憶手段20は、第2撮影手段で追尾撮影するターゲットのパターン(ターゲット推定パターン)を一時記憶するパターン一時記憶手段21と、当該ターゲットのターゲット優先度を一時記憶する優先度一時記憶手段とを記憶する優先度一時記憶手段22とを備える。
ターゲット位置取得手段7は、ターゲット情報一時記憶手段20に記憶されているターゲット推定パターン(ターゲットのパターン)から、第1撮影手段1から入力された映像上での当該パターンの位置(点Rの座標(x,y))を決定する。
この実施例では、ターゲット推定パターン(ターゲットのパターン)の外接長方形の、上部中央(上端から1ブロック分下)の座標を出力し、第1撮影手段1で取得した映像上でのターゲットの位置(点Rの座標(x,y))を決定する。
図10を参照して、この実施例による第2撮像装置の制御方法について説明する。
図10は、この実施例による第1撮影手段1(広角カメラ)における透視投影の様子を右側面から眺めたところである。点Oが、投影面と光軸との交点であり、X−Y−Z座標系原点でもある。点Fは第1撮影手段1(広角カメラ)の焦点である。
図10に示すように、座標(x,y)に入射した光線の光路RFと、Z−X平面とがなす角度ψは数式1で求められる。ここでDは広角カメラの焦点距離(距離FOである)。
第2撮影手段2で追尾撮影していたターゲットを切り替え、第2撮影手段2の撮像方向を新たなターゲットの方向に変更する際(新たなターゲットの方向に旋回する際)、前記旋回によって出力映像がぶれるといった問題点があるが、ターゲット切り替え時、第2撮影手段をズームアウトすることによって、ぶれた映像が出力されるのを防ぎ、出力映像を新しいターゲットの方向に向けてスムーズに移行させることができる。
またターゲット切り替え時、第2撮影手段をズームアウトすることによって、第2撮影手段2による撮影方向(撮影範囲)がどこからどこに移行(旋回)したのかを把握することができる。
ターゲットの上端・左端・右端を第2撮影手段2の視野に収める場合、第2撮影手段2におけるズーム倍率と視野の対応関係を基に、水平画角AHと垂直画角Avが、数式3に示す条件を満たす範囲でズーム倍率を決定する。
なお数式3において、Dは第2撮影手段の焦点距離を示す。
例えば、図3や図5に示す自動撮影装置において、撮影制御手段8に入力される連結領域T’が、前記進入位置撮影用センスエリア(領域E)と重なっている間、前記第2撮影手段2の水平旋回を変化させることなく、前記進入位置撮影用センスエリア(領域E)内に映っている物体(ターゲット)を撮影するように第2撮影手段2を制御する。
例えば、図3や図5に示す自動撮影装置において、撮影制御手段8に入力される連結領域T’が、前記プリセット位置撮影用センスエリア(領域R)と重なっている間、前記第2撮影手段2によって、予め設定した視野方向と範囲を撮影するように第2撮影手段2を制御する。
図11に示す実施例では、第1撮影手段から入力される監視領域(教室)の映像をもとに、教壇の位置にプリセット位置撮影用センスエリア(領域R)を設定し、着席している生徒の頭上に進入位置撮影用センスエリア(領域E)を設定してある。なおセンスエリアの優先度は、領域R<領域Eに設定してある。
またプリセット位置撮影用センスエリア(領域R)は、登壇した教師の上半身が撮影されるように、撮影制御手段8によって制御される第2撮影手段2の撮影視野を教壇の上方に設定してある。さらに着席している生徒が起立し、進入位置撮影用センスエリア(領域E)と重なる場合、前記第2撮影手段2の水平旋回を変化させることなく、起立した生徒を撮影するように第2撮影手段2は制御される。
進入位置撮影用センスエリアEは生徒一人一人個別に設定する必要はなく、図11に示すように帯状に1つ設定するだけで機能する。すなわち、一人の生徒の進入が検出されている間、その生徒が前後左右に動いても撮影位置を左右には動さないことで、その生徒を安定して撮影し続ける。かつ、生徒の背の高さに応じて第2撮影手段による撮影位置を上下させることにより、生徒ごとに身長差があっても、第2撮影手段2の視野内に生徒の頭部を捉えることができる。
このように、請求項5、および6に記載の発明は、第2撮影手段2の追尾運動に対し、ターゲットの性質に応じた一定の制約を設けることで、安定した映像を提供することを目的としている。
つまり、第1撮影手段1で撮影した映像をもとにマスクエリアを設定し、第1撮影手段1から入力された映像をパターン検出処理したときに前記マスクエリア内にパターンが検出されても、前記マスクエリア内のパターンをターゲット候補として出力しない。
つまり、第1撮影手段1で撮影した映像をもとに誤検出訂正領域(領域M)を設定し、第1撮影手段1から入力された映像をパターン抽出処理したときに、誤検出訂正領域内部と誤検出訂正領域周縁とで有意なパターンが検出された場合、誤検出訂正領域周縁のパターンのみをターゲット候補とする。また、パターン抽出手段で検出したターゲット候補のパターンが、誤検出訂正領域内部で共通部分を有し、誤検出訂正領域周縁で共通部分を有さない場合、誤検出訂正領域内部のパターンをターゲット候補とみなさない。
この実施例では、ターゲット以外の動きが集中する領域を誤検出訂正領域の集合{Mi}と設定しておき、該領域内で誤った追尾に陥っても、ターゲットが該領域を出たところでターゲットに追尾しなおすようにする。
図12(a)に示すように、カーテンを含む領域を誤検出訂正領域{Mi}として与えておくと、侵入者がA地点からB地点に移動するとき、前記領域を誤検出訂正領域の内部では前記侵入者をターゲットとして検出せず、侵入者がB地点に達した時(誤検出訂正領域の周縁部)、ターゲットととして再設定する。
この実施例では、第1撮影手段1が複数台のカメラで構成され、前記複数台のカメラから入力した映像を連結することによって、監視領域の全体映像を取得する。これによって第1撮影手段で撮影する監視領域の範囲を広くすることができる。
図13に示す実施例では3台のカメラを使用し、これらのカメラで撮影した映像を連結することによって監視領域を撮影し、全体映像を取得する。
すなわち第1撮影手段1から取得した入力映像Iから部分的に映像を切り出して出力する映像切出し手段18を制御し、第1撮影手段1の入力映像Iをもとに検出したターゲットの追尾映像を取得する自動撮影方法において、第1撮影手段1から取得した入力映像Iの映像領域を区分けした区画ごとに、追尾撮影すべき対象の一部または全部が映っているか否かを推定し、映っていると推定された区画の集合Pを抽出する工程と、予め入力映像Iの映像領域に任意形状のN個の領域Si(i=1,2,3,...,N)とその優先度pi(i=1,2,3,...,N)を設定しておき、該領域Siと前記区画の集合Pとの相関関係を調べ、前記区画の集合Pに含まれ、かつ領域Siの何れかと重なりをもつ連結領域のうち、最も高い優先度をもつ領域Siと重なりを有する連結領域T’を切出し出力する工程と、入力映像Iから、連結領域T’が覆う範囲の画像を継続して切り出し続ける工程とによって、ターゲットの追尾映像を取得するものである。
なおこの実施例では、第2撮影手段2の出力として得られる映像の解像度を確保するために、第1撮影手段1は高解像度カメラなどの十分な解像度を持つものを使用する。
この実施例によれば、第1撮影手段1から入力される映像の一部分を電子的切り出し手段で取得し、回転カメラからなる第2撮影手段2で得た映像の代わりとして使用することにより、第1撮影手段1の他に物理的な撮影装置を備える必要がなくなる。また第2撮影手段2を物理的に目的方向に向ける制御(撮影方向の物理的制御)が不要となる。
つまり第7実施例によれば、パン・チルト・ズーム機能を備えた回転カメラで監視領域を撮影し、回転カメラから入力された映像に基づいて更新されるグローバル映像を入力映像Iとし、当該入力映像Iをパターン抽出処理して有意なパターンを抽出し、ターゲット候補を取得した後、予め監視領域全体の映像をもとに設定したセンスエリアの情報(領域Siと優先度pi)と、前記ターゲット候補との相関関係を調べ、より高い優先度のセンスエリアと共通部分をもつターゲット候補をターゲットとし、さらに前記入力映像I上でのターゲット位置に基づいて回転カメラの撮影方向を制御し、ターゲットの追尾映像を取得する。
回転カメラをズームアウトし、かつパン0、チルト0の方向(以下、初期方向という)に旋回させ、当該回転カメラで取得された映像に対し、センスエリアを設定する。
そして、センスエリアを構成する個々の撮影区画(ブロック)について、対応するパン・チルト角度を算出し、記憶しておく。
このとき、回転カメラ映像上で座標(x, y)に位置する撮影区画(ブロック)に対応するチルト角度ψ、パン角度θはそれぞれ数式4で示される。なおDはカメラの焦点距離を示す。
このとき視野内に収まっている撮影区画(ブロック)の範囲でのみ、パターン抽出処理によるターゲット候補の抽出を行うことができる。
つまりこの実施例では、回転カメラの視野内に存在するセンスエリアのみで新しいターゲットをセンスする。つまり回転カメラの視野内に存在するセンスエリアとパターン抽出結果との相関関係を調べることによって、ターゲットを決定し、ターゲットが検出された場合は、回転カメラの撮影方向を変更することによってターゲットを追尾し、ズーム倍率を変更することによって、ターゲットの拡大映像を取得する。
なお回転カメラで追尾撮影していたターゲットが検出されなくなった場合、該ターゲットを撮影していた回転カメラの撮影方向を保持したまま、当該回転カメラをズームアウトし(ズーム倍率を変更)させることによって、回転カメラで追尾撮影しいていたターゲットが背景(物体)の陰に隠れるなどして一時的に検出されなくなった場合など、当該ターゲットが再び検出されるようになった時に、当該ターゲットを追尾撮影することができる。
Claims (10)
- 視野方向を変更できる第2撮影手段(2)を制御し、第1撮影手段(1)の入力映像Iをもとに検出したターゲットを追尾撮影することによって、前記ターゲットの追尾映像を取得する自動撮影方法において、
第1撮影手段(1)から取得した入力映像Iの映像領域を区分けした区画ごとに、追尾撮影すべき対象の一部または全部が映っているか否かを推定し、映っていると推定された区画の集合Pを抽出する工程と、
予め入力映像Iの映像領域に任意形状のN個の領域Si(i=1,2,3,...,N)とその優先度pi(i=1,2,3,...,N)を設定しておき、該領域Siと前記区画の集合Pとの相関関係を調べ、前記区画の集合Pに含まれ、かつ領域Siの何れかと重なりをもつ連結領域のうち、最も高い優先度をもつ領域Siと重なりを有する連結領域T’を切出し出力する工程と、
入力映像I上で連結領域T’が覆う領域に映っている物体を第2撮影手段(2)の視野に収めるように第2撮影手段(2)を制御する工程とによって、ターゲットの追尾映像を取得することを特徴とする自動撮影方法。 - 第1撮影手段(1)から取得した入力映像Iから部分的に映像を切り出して出力する映像切出し手段(18)を制御し、第1撮影手段(1)の入力映像Iをもとに検出したターゲットの追尾映像を取得する自動撮影方法において、
第1撮影手段(1)から取得した入力映像Iの映像領域を区分けした区画ごとに、追尾撮影すべき対象の一部または全部が映っているか否かを推定し、映っていると推定された区画の集合Pを抽出する工程と、
予め入力映像Iの映像領域に任意形状のN個の領域Si(i=1,2,3,...,N)とその優先度pi(i=1,2,3,...,N)を設定しておき、該領域Siと前記区画の集合Pとの相関関係を調べ、前記区画の集合Pに含まれ、かつ領域Siの何れかと重なりをもつ連結領域のうち、最も高い優先度をもつ領域Siと重なりを有する連結領域T’を切出し出力する工程と、
入力映像Iから、連結領域T’が覆う範囲の画像を継続して切り出し続ける工程とによって、ターゲットの追尾映像を取得することを特徴とする自動撮影方法。 - 第2撮影手段(2)の位置から監視領域全体を収容できる広角視野範囲と同等の視野の仮想的なグローバル映像上で、前記第2撮影手段(2)の視野がどの範囲にあたるか算出する撮影範囲対応づけ手段(19a)と、前記第2撮影手段(2)から入力される最新映像で前記グローバル映像上の対応範囲の映像内容を更新するグローバル映像更新手段(19b)とを設け、第2撮影手段(2)の最新映像をもとに更新されるグローバル映像を入力映像Iとして出力することを特徴とする請求項1または2に記載の自動撮影方法。
- 予め設定された領域Siと区画の集合Pとの相関関係を調べ、前記区画の集合Pに含まれ、かつ前記領域Siの何れかと重なりを有する連結領域のうち、最も高い優先度をもつ領域Siと重なりを有する連結領域Tを切り出し、当該連結領域Tをそれと重なる領域Siの優先度pとともに一時的に記憶し、
前記一時的に記憶した連結領域Tを連結領域T’として出力するとともに、前記一時的に記憶した優先度pを優先度p’として出力し、入力映像I上で、前記連結領域T’が覆う領域に映っている物体を第2撮影手段(2)の視野に収めるように第2撮影手段(2)を制御してターゲットの追尾映像を取得する自動撮影方法であって、
一時的に記憶されている連結領域T’を、最新の入力映像Iから抽出された最新の区画の集合Pの中から選択された連結領域Tに置き換え、かつ一時的に記憶されている優先度p’を、前記連結領域Tとともに求められた優先度pに置き換えるのは、該最新優先度pが優先度p’以上の場合のみであり、
前記連結領域Tが空である間は、最新の入力映像Iから抽出された最新の区画の集合Pの中から、前記一時的に記憶されている連結領域T’と重なりを有する連結領域T2’を切り出し、該連結領域T2’をもって連結領域T’を更新することを特徴とする請求項1から3の何れか1項に記載の自動撮影方法。 - 入力映像Iの映像領域上に進入位置撮影用センスエリアとして予め領域Eを設定し、
前記領域Eと連結領域T’とが重なっている間、第2撮影手段(2)の視野を水平変化させることなく、前記領域E内に映っているターゲットの追尾映像を取得することを特徴とする請求項1から4の何れか1項に記載の自動撮影方法。 - 入力映像Iの映像領域上にプリセット位置撮影用センスエリアとして予め領域Rを設定し、
前記領域Rと連結領域T’とが重なっている間、第2撮影手段(2)の視野を、予め設定した方向と範囲とすることを特徴とする請求項1から5の何れか1項に記載の自動撮影方法。 - 入力映像Iの映像領域上に誤検出訂正領域として予め連結領域Mを設定し、
前記連結領域Mに連結領域T’が包含され、かつ入力映像Iから抽出された区画の集合Pと連結領域Mの周縁とに重なりが発生したとき、
一時的に記憶されている連結領域T’を、前記区画の集合Pと連結領域Mの重なりを含む、集合Pの連結領域T’’にて置き換えることを特徴とする請求項4から6の何れか1項に記載の自動撮影方法。 - 監視領域全体を撮影する第1撮影手段(1)と、
視野方向を変更できる第2撮影手段(2)と、
第1撮影手段から取得した入力映像Iの映像領域を区分けした区画ごとに、追尾撮影すべき対象の一部または全部が映っているか否かを推定し、映っていると推定された区画の集合Pを出力するパターン抽出手段(3)と、
予め入力映像Iの映像領域上に設定された、任意形状のN個の領域Si(i=1,2,3,...,N)を、それぞれの優先度pi(i=1,2,3,...,N)とともに記憶するセンスエリア記憶手段(5)と、
前記領域Siと、前記パターン抽出手段(3)で出力した区画の集合Pとの重なりを判定し、重なりがあれば該重なりを生じた区画Bと、重なった領域Siの優先度piとの対を出力するセンス手段(4)と、
センス手段(4)が出力した重なりの区画Bとその優先度piの対の中から、最も優先度が大きいもの(優先度p)を選び、前記区画の集合Pの中から、前記区画Bを含む連結領域Tを切り出すターゲット選択手段(6)と、
前記ターゲット選択手段(6)で選択した連結領域Tを一時的に記憶し、連結領域T’として出力するパターン一時記憶手段(21)と、
前記ターゲット選択手段(6)で選択した優先度pを一時的に記憶し、優先度p’として出力する優先度一時記憶手段(22)と、
入力映像I上で、前記連結領域T’が覆う領域に映っている物体を第2撮影手段(2)の視野に収めるように第2撮影手段(2)を制御する撮影制御手段(8)とからなり、
一時的に記憶されている連結領域T’を、最新の入力映像Iから抽出された最新の区画の集合Pの中から選択された連結領域Tに置き換え、かつ一時的に記憶されている優先度p’を、前記連結領域Tとともに求められた優先度pに置き換えるのは、該最新優先度pが優先度p’以上の場合のみであり、
前記連結領域Tが空である間は、最新の入力映像Iから抽出された最新の区画の集合Pの中から、前記一時的に記憶されている連結領域T’と重なりを有する連結領域T2’を切り出し、該連結領域T2’をもって連結領域T’を更新することを特徴とする自動撮影装置。 - 監視領域全体を撮影する第1撮影手段(1)と、
第1撮影手段から取得した入力映像Iの映像領域を区分けした区画ごとに、追尾撮影すべき対象の一部または全部が映っているか否かを推定し、映っていると推定された区画の集合Pを出力するパターン抽出手段(3)と、
予め入力映像Iの映像領域上に設定された、任意形状のN個の領域Si(i=1,2,3,...,N)を、それぞれの優先度pi(i=1,2,3,...,N)とともに記憶するセンスエリア記憶手段(5)と、
前記領域Siと、前記パターン抽出手段(3)で出力した区画の集合Pとの重なりを判定し、重なりがあれば該重なりを生じた区画Bと、重なった領域Siの優先度piとの対を出力するセンス手段(4)と、
センス手段(4)が出力した重なりの区画Bとその優先度piの対の中から、最も優先度が大きいもの(優先度p)を選び、前記区画の集合Pの中から、前記区画Bを含む連結領域Tを切り出すターゲット選択手段(6)と、
前記ターゲット選択手段(6)で選択した連結領域Tを一時的に記憶し、連結領域T’として出力するパターン一時記憶手段(21)と、
前記ターゲット選択手段(6)で選択した優先度pを一時的に記憶し、優先度p’として出力する優先度一時記憶手段(22)と、
入力映像I上で、前記連結領域T’が覆う範囲の画像を継続して切り出し、出力する映像切出し手段(18)とからなり、
一時的に記憶されている連結領域T’を、最新の入力映像Iから抽出された最新の区画の集合Pの中から選択された連結領域Tに置き換え、かつ一時的に記憶されている優先度p’を、前記連結領域Tとともに求められた優先度pに置き換えるのは、該最新優先度pが優先度p’以上の場合のみであり、
前記連結領域Tが空である間は、最新の入力映像Iから抽出された最新の区画の集合Pの中から、前記一時的に記憶されている連結領域T’と重なりを有する連結領域T2’を切り出し、該連結領域T2’をもって連結領域T’を更新することを特徴とする自動撮影装置。 - 視野方向を変更できる第2撮影手段(2)と、
第2撮影手段(2)の位置から監視領域全体を収容できる広角視野範囲と同等の視野の仮想的なグローバル映像上で、前記第2撮影手段(2)の視野がどの範囲にあたるか算出する撮影範囲対応づけ手段(19a)と、
第2撮影手段(2)の最新映像で前記グローバル映像上の対応範囲の映像内容を更新し、最新のグローバル映像を継続して出力するグローバル映像更新手段(19b)と、
グローバル映像更新手段(19b)から出力された入力映像Iの映像領域を区分けした区画ごとに、追尾撮影すべき対象の一部または全部が映っているか否かを推定し、映っていると推定された区画の集合Pを出力するパターン抽出手段(3)と、
予め入力映像Iの映像領域上に設定された、任意形状のN個の領域Si(i=1,2,3,...,N)を、それぞれの優先度pi(i=1,2,3,...,N)とともに記憶するセンスエリア記憶手段(5)と、
前記領域Siと、前記パターン抽出手段(3)で出力した区画の集合Pとの重なりを判定し、重なりがあれば該重なりを生じた区画Bと、重なった領域Siの優先度piとの対を出力するセンス手段(4)と、
センス手段(4)が出力した重なりの区画Bとその優先度piの対の中から、最も優先度が大きいもの(優先度p)を選び、前記区画の集合Pの中から、前記区画Bを含む連結領域Tを切り出すターゲット選択手段(6)と、
前記ターゲット選択手段(6)で選択した連結領域Tを一時的に記憶し、連結領域T’として出力するパターン一時記憶手段(21)と、
前記ターゲット選択手段(6)で選択した優先度pを一時的に記憶し、優先度p’として出力する優先度一時記憶手段(22)と、
入力映像I上で、前記連結領域T’が覆う領域に映っている物体を第2撮影手段(2)の視野に収めるように第2撮影手段(2)を制御する撮影制御手段(8)とからなり、
一時的に記憶されている連結領域T’を、最新の入力映像Iから抽出された最新の区画の集合Pの中から選択された連結領域Tに置き換え、かつ一時的に記憶されている優先度p’を、前記連結領域Tとともに求められた優先度pに置き換えるのは、該最新優先度pが優先度p’以上の場合のみであり、
前記連結領域Tが空である間は、最新の入力映像Iから抽出された最新の区画の集合Pの中から、前記一時的に記憶されている連結領域T’と重なりを有する連結領域T2’を切り出し、該連結領域T2’をもって連結領域T’を更新することを特徴とする自動撮影装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004132499 | 2004-04-28 | ||
JP2004132499 | 2004-04-28 | ||
PCT/JP2005/008246 WO2005107240A1 (ja) | 2004-04-28 | 2005-04-28 | 自動撮影方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP3989523B2 true JP3989523B2 (ja) | 2007-10-10 |
JPWO2005107240A1 JPWO2005107240A1 (ja) | 2008-03-21 |
Family
ID=35242039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006512859A Expired - Fee Related JP3989523B2 (ja) | 2004-04-28 | 2005-04-28 | 自動撮影方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20070268369A1 (ja) |
JP (1) | JP3989523B2 (ja) |
DE (1) | DE112005000929B4 (ja) |
WO (1) | WO2005107240A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013121711A1 (ja) * | 2012-02-15 | 2013-08-22 | 日本電気株式会社 | 解析処理装置 |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4568916B2 (ja) * | 2005-01-17 | 2010-10-27 | 富士フイルム株式会社 | オートフォーカスシステム |
JP4597063B2 (ja) * | 2006-02-10 | 2010-12-15 | キヤノン株式会社 | 撮像装置、及び撮像方法 |
JP4566166B2 (ja) * | 2006-02-28 | 2010-10-20 | 三洋電機株式会社 | 撮影装置 |
US20070250898A1 (en) * | 2006-03-28 | 2007-10-25 | Object Video, Inc. | Automatic extraction of secondary video streams |
JP4959535B2 (ja) | 2007-12-13 | 2012-06-27 | 株式会社日立製作所 | 撮像装置 |
US20110050904A1 (en) * | 2008-05-06 | 2011-03-03 | Jeremy Anderson | Method and apparatus for camera control and picture composition |
JP4715909B2 (ja) | 2008-12-04 | 2011-07-06 | ソニー株式会社 | 画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム |
WO2010125489A1 (en) * | 2009-04-29 | 2010-11-04 | Koninklijke Philips Electronics N.V. | Method of selecting an optimal viewing angle position for a camera |
JP5424852B2 (ja) * | 2009-12-17 | 2014-02-26 | キヤノン株式会社 | 映像情報処理方法及びその装置 |
JP5665401B2 (ja) * | 2010-07-21 | 2015-02-04 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8994843B2 (en) * | 2010-09-01 | 2015-03-31 | Qualcomm Incorporated | High dynamic range image sensor |
JP5547605B2 (ja) * | 2010-10-22 | 2014-07-16 | 直之 村上 | 数値制御機器のテレビカメラモニター画面での操作方法 |
US8957969B2 (en) * | 2010-11-03 | 2015-02-17 | Trace Optics Pty Ltd | Method and apparatus for camera control and picture composition using at least two biasing means |
KR101666397B1 (ko) * | 2010-12-21 | 2016-10-14 | 한국전자통신연구원 | 객체 영상 획득 장치 및 방법 |
US9686452B2 (en) * | 2011-02-16 | 2017-06-20 | Robert Bosch Gmbh | Surveillance camera with integral large-domain sensor |
JP5547670B2 (ja) * | 2011-02-18 | 2014-07-16 | 直之 村上 | テレビカメラを取り付けた数値制御機器のテレビモニター画面の操作方法 |
US9661205B2 (en) | 2011-02-28 | 2017-05-23 | Custom Manufacturing & Engineering, Inc. | Method and apparatus for imaging |
JP2012213063A (ja) * | 2011-03-31 | 2012-11-01 | Nec Corp | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム |
US10803724B2 (en) * | 2011-04-19 | 2020-10-13 | Innovation By Imagination LLC | System, device, and method of detecting dangerous situations |
US10089327B2 (en) | 2011-08-18 | 2018-10-02 | Qualcomm Incorporated | Smart camera for sharing pictures automatically |
JP2015512042A (ja) * | 2012-02-29 | 2015-04-23 | コーニンクレッカ フィリップス エヌ ヴェ | 区域内の人の存在を監視する装置、方法及びシステム |
JP2013243529A (ja) * | 2012-05-21 | 2013-12-05 | Nikon Corp | 撮像装置 |
JP6006536B2 (ja) * | 2012-06-01 | 2016-10-12 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
JP6124517B2 (ja) | 2012-06-01 | 2017-05-10 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
JP5925059B2 (ja) * | 2012-06-12 | 2016-05-25 | キヤノン株式会社 | 撮像制御装置、撮像制御方法及びプログラム |
KR20140061266A (ko) * | 2012-11-11 | 2014-05-21 | 삼성전자주식회사 | 다중 경로 궤적 분석을 이용한 영상 객체 추적 방법 및 장치 |
US9811738B2 (en) * | 2012-12-06 | 2017-11-07 | Nec Corporation | Appearance presentation system, method, and program |
KR101767497B1 (ko) * | 2013-01-29 | 2017-08-11 | 유겐가이샤 라므롯쿠에조우기쥬츠켄큐쇼 | 감시 시스템 |
US9767571B2 (en) * | 2013-07-29 | 2017-09-19 | Samsung Electronics Co., Ltd. | Apparatus and method for analyzing image including event information |
US9589595B2 (en) | 2013-12-20 | 2017-03-07 | Qualcomm Incorporated | Selection and tracking of objects for display partitioning and clustering of video frames |
US10089330B2 (en) | 2013-12-20 | 2018-10-02 | Qualcomm Incorporated | Systems, methods, and apparatus for image retrieval |
US9449229B1 (en) | 2014-07-07 | 2016-09-20 | Google Inc. | Systems and methods for categorizing motion event candidates |
US9420331B2 (en) | 2014-07-07 | 2016-08-16 | Google Inc. | Method and system for categorizing detected motion events |
US9224044B1 (en) | 2014-07-07 | 2015-12-29 | Google Inc. | Method and system for video zone monitoring |
US10127783B2 (en) | 2014-07-07 | 2018-11-13 | Google Llc | Method and device for processing motion events |
US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
US9501915B1 (en) | 2014-07-07 | 2016-11-22 | Google Inc. | Systems and methods for analyzing a video stream |
JP6331785B2 (ja) * | 2014-07-08 | 2018-05-30 | 日本電気株式会社 | 物体追跡装置、物体追跡方法および物体追跡プログラム |
USD782495S1 (en) | 2014-10-07 | 2017-03-28 | Google Inc. | Display screen or portion thereof with graphical user interface |
CN107409175B (zh) * | 2015-03-26 | 2020-04-21 | 富士胶片株式会社 | 跟踪控制装置、跟踪控制方法、自动跟踪摄影系统及有形介质 |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
US10043100B2 (en) * | 2016-04-05 | 2018-08-07 | Omni Ai, Inc. | Logical sensor generation in a behavioral recognition system |
US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
US10380429B2 (en) | 2016-07-11 | 2019-08-13 | Google Llc | Methods and systems for person detection in a video feed |
CN107666590B (zh) * | 2016-07-29 | 2020-01-17 | 华为终端有限公司 | 一种目标监控方法、摄像头、控制器和目标监控系统 |
US11783010B2 (en) | 2017-05-30 | 2023-10-10 | Google Llc | Systems and methods of person recognition in video streams |
CN107172402A (zh) * | 2017-07-07 | 2017-09-15 | 郑州仁峰软件开发有限公司 | 一种视频拍摄中多目标跟踪系统的工作过程 |
JP6365748B2 (ja) * | 2017-08-21 | 2018-08-01 | 株式会社ニコン | 撮像装置 |
US10664688B2 (en) | 2017-09-20 | 2020-05-26 | Google Llc | Systems and methods of detecting and responding to a visitor to a smart home environment |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5877897A (en) * | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
DE4311972A1 (de) * | 1993-04-10 | 1994-10-13 | Bosch Gmbh Robert | Verfahren zur Detektion von Änderungen in Bewegtbildern |
US7859551B2 (en) * | 1993-10-15 | 2010-12-28 | Bulman Richard L | Object customization and presentation system |
AU3802395A (en) * | 1994-11-04 | 1996-05-31 | Telemedia A/S | A method in an image recording system |
US6739873B1 (en) * | 1996-09-18 | 2004-05-25 | Bristlecone Corporation | Method and apparatus for training a shooter of a firearm |
JP3263035B2 (ja) * | 1997-11-21 | 2002-03-04 | 東芝エンジニアリング株式会社 | 呼吸モニタリングの関心領域設定装置および呼吸モニタリングシステム |
US6385772B1 (en) * | 1998-04-30 | 2002-05-07 | Texas Instruments Incorporated | Monitoring system having wireless remote viewing and control |
EP0967584B1 (en) * | 1998-04-30 | 2004-10-20 | Texas Instruments Incorporated | Automatic video monitoring system |
US6909794B2 (en) * | 2000-11-22 | 2005-06-21 | R2 Technology, Inc. | Automated registration of 3-D medical scans of similar anatomical structures |
US7556602B2 (en) * | 2000-11-24 | 2009-07-07 | U-Systems, Inc. | Breast cancer screening with adjunctive ultrasound mammography |
US20030035013A1 (en) * | 2001-04-13 | 2003-02-20 | Johnson Edward M. | Personalized electronic cursor system and method of distributing the same |
US6412658B1 (en) * | 2001-06-01 | 2002-07-02 | Imx Labs, Inc. | Point-of-sale body powder dispensing system |
US7133572B2 (en) * | 2002-10-02 | 2006-11-07 | Siemens Corporate Research, Inc. | Fast two dimensional object localization based on oriented edges |
-
2005
- 2005-04-28 US US11/579,169 patent/US20070268369A1/en not_active Abandoned
- 2005-04-28 JP JP2006512859A patent/JP3989523B2/ja not_active Expired - Fee Related
- 2005-04-28 WO PCT/JP2005/008246 patent/WO2005107240A1/ja active Application Filing
- 2005-04-28 DE DE112005000929T patent/DE112005000929B4/de not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013121711A1 (ja) * | 2012-02-15 | 2013-08-22 | 日本電気株式会社 | 解析処理装置 |
JPWO2013121711A1 (ja) * | 2012-02-15 | 2015-05-11 | 日本電気株式会社 | 解析処理装置 |
Also Published As
Publication number | Publication date |
---|---|
DE112005000929B4 (de) | 2011-07-21 |
JPWO2005107240A1 (ja) | 2008-03-21 |
DE112005000929T5 (de) | 2007-03-08 |
US20070268369A1 (en) | 2007-11-22 |
WO2005107240A1 (ja) | 2005-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3989523B2 (ja) | 自動撮影方法および装置 | |
JP4912117B2 (ja) | 追跡機能付き撮像装置 | |
JP4699040B2 (ja) | 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム | |
US7920161B2 (en) | Method for forming combined digital images | |
CN105100596B (zh) | 相机设备和使用相机设备跟踪对象的方法 | |
US20130235086A1 (en) | Electronic zoom device, electronic zoom method, and program | |
JP6240016B2 (ja) | 追跡装置および追尾システム | |
WO2006118563A1 (en) | Method and device for consistent region of interest | |
KR20140100525A (ko) | 비디오 영화를 촬영하기 위한 시스템 | |
JP2006146323A (ja) | 顔特徴照合装置、顔特徴照合方法、及びプログラム | |
KR20120005040A (ko) | 카메라에 대한 최적의 시야각 위치를 선택하는 방법 | |
CN110944101A (zh) | 摄像装置及图像记录方法 | |
CN106170061B (zh) | 摇摄指标显示设备和处理方法 | |
CN106791456A (zh) | 一种拍照方法及电子设备 | |
JP2008281385A (ja) | 画像処理装置 | |
JP2007134845A (ja) | カメラ制御装置およびカメラ制御プログラム | |
JP4198536B2 (ja) | 物体撮影装置、物体撮影方法及び物体撮影プログラム | |
JP4444746B2 (ja) | 物体追尾方法及び物体追尾装置 | |
JP5132705B2 (ja) | 画像処理装置 | |
JP2002027449A (ja) | 移動物体識別方法および移動物体識別装置 | |
JP2006033188A (ja) | 監視装置および監視方法 | |
JP5015121B2 (ja) | 撮像装置 | |
JPH10188145A (ja) | 自動ズーム監視装置 | |
JP2001285849A (ja) | 撮影システム | |
JP2005260753A (ja) | カメラ選択装置、及びカメラ選択方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070717 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |