JP2014534786A - 地図に基づいた制御 - Google Patents

地図に基づいた制御 Download PDF

Info

Publication number
JP2014534786A
JP2014534786A JP2014543515A JP2014543515A JP2014534786A JP 2014534786 A JP2014534786 A JP 2014534786A JP 2014543515 A JP2014543515 A JP 2014543515A JP 2014543515 A JP2014543515 A JP 2014543515A JP 2014534786 A JP2014534786 A JP 2014534786A
Authority
JP
Japan
Prior art keywords
cameras
image
camera
presenting
moving objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014543515A
Other languages
English (en)
Other versions
JP6109185B2 (ja
Inventor
アグダシ ファルジン
アグダシ ファルジン
ウエイ スゥ
ウエイ スゥ
レイ ワーン
レイ ワーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pelco Inc
Original Assignee
Pelco Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pelco Inc filed Critical Pelco Inc
Publication of JP2014534786A publication Critical patent/JP2014534786A/ja
Application granted granted Critical
Publication of JP6109185B2 publication Critical patent/JP6109185B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

方法、システム、コンピュータ読取り可能な媒体及び他の実施形態が開示される。これらは、複数のカメラによって撮像された画像データから、複数の移動物体の動作データを判定するステップと、複数のカメラによって監視される領域を示す全体画像上で、複数の移動物体の地理的な位置に対応する全体画像上の位置に、複数の物体の判定された動作データの図形表示を提示するステップを含む方法を含む。本方法は更に、複数のカメラの1つによって撮像された多数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する全体画像の領域を、全体画像に提示される図形表示に基づいて選択することに応じて、複数のカメラの1つからの撮像画像データを提示するステップを含む。【選択図】図3

Description

本発明は、地図に基づいた制御に関する。
伝統的なマッピングアプリケーションでは、地図上のカメラロゴは、ウィンドウをポップアップさせ、そして生映像、警報、中継等への簡単で即座のアクセスを提供させるために選択される。これによって、監視システムにおいて地図を構成して用いることは容易となる。しかしながら、ビデオ分析(例えば、いくつかのビデオコンテンツの分析のいくつかに基づいたカメラの選択)はこの過程においてほとんど含まれていない。
本開示は、カメラから動作を検出することを可能にし、全体画像(地図、監視される領域の俯瞰図等)での動作軌道を提示するビデオの特徴を含んだマッピングアプリケーションを目的とする。本明細書に記載されるマッピングアプリケーションのおかげで、警備員は例えば、全てのカメラのビューを絶えず監視する必要なく、代わりに全体図に集中すればよい。通常でない信号又は行動が全体画像で示されるとき、警備員はその地図上の関心領域をクリックし、選択された領域における(複数の)カメラにその領域の景色を提示させる。
いくつかの実施形態では、方法が提供される。本方法は、複数のカメラによって撮像された画像データから、多数(複数)の移動物体の動作データを判定するステップと、複数のカメラによって監視される場所を示す全体画像上で、前記多数の移動物体の地理的な位置に対応する全体画像上の位置に、前記多数の物体の判定された動作データの図形表示を提示するステップを含む。本方法は更に、複数のカメラの1つによって撮像された多数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する全体画像の領域を、全体画像に提示される図形表示に基づいて選択することに応じて、複数のカメラの1つからの撮像画像データを提示するステップを含む。
本方法の実施形態は、本開示において記載される少なくともいくつかの特徴を含み、次の特徴の1つ以上も含む。
多数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する全体画像の領域を選択することに応じて撮像画像を提示するステップは、複数のカメラの1つによって撮像された移動物体に対応する図形表示を選択することに応じて複数のカメラの1つからの撮像画像データを提示するステップを含んでもよい。
本方法は更に、全体画像を有する複数のカメラの少なくとも1つを較正して、複数のカメラの少なくとも1つによって撮像された少なくとも1つの領域ビューの画像を、全体画像の少なくとも1つの対応領域に一致させるステップを含んでもよい。
複数のカメラの少なくとも1つを較正するステップは、複数のカメラの少なくとも1つによって撮像された画像に現れる1以上の位置を選択することと、全体画像上で、複数のカメラの少なくとも1つによって撮像された画像内で選択された1以上の位置に対応する位置を識別することとを含んでもよい。本方法は更に、識別された全体画像の位置及び複数のカメラの少なくとも1つで撮像された画像内の対応する1以上の選択位置に基づいて、二次の二次元線形モデルに係る変換係数を計算し、複数のカメラの少なくとも1つによって撮像された画像内の位置の座標を、全体画像中の対応位置の座標へと変換するステップを含んでもよい。
本方法は更に、地図の選択領域内の少なくとも1つの図形表示に対応する多数の移動物体の少なくとも1つの追加の詳細を提示するステップを含んでもよく、追加の詳細は、選択領域に対応する複数のカメラの1つに関連付けられた補助カメラによって撮像された補助フレーム内に示される。
多数の移動物体の少なくとも1つの追加の詳細を提示するステップは、複数のカメラの1つによって撮像された多数の移動物体の少なくとも1つの位置に対応する補助フレーム内の領域を拡大することを含んでもよい。
複数のカメラによって撮像された画像データから多数の移動物体の動作データを判定するステップは、複数のカメラの少なくとも1つによって撮像された少なくとも1つの画像へ、ガウス混合モデルを適用し、移動物体の画素群を含む少なくとも1つの画像の前景を、静止物体の画素群を含む少なくとも1つの画像から分離することを含んでもよい。
多数の移動物体の動作データは、多数の移動物体のうちの1つの物体のデータを含み、例えば、カメラの視野内の物体の位置、物体の幅、物体の高さ、物体が移動する方向、物体の速度、物体の色、物体がカメラの視野に入るという表示、物体がカメラの視野から出るという表示、カメラが妨害されているという表示、所定時間以上物体がカメラの視野にとどまっているという表示、いくつかの移動物体が合体するという表示、移動物体が2以上の移動物体に分裂するという表示、物体が関心領域に入るという表示、物体が所定の領域を出るという表示、物体が仕掛け線を横切るという表示、物体がその領域又はその仕掛け線のある禁止された所定の方向に一致する方向に移動しているという表示、物体のカウントを示すデータ、物体を除去する表示、物体を放棄する表示、及び/又は物体の滞在時間を示すデータ、の1以上を含んでもよい。
全体画像上に図形表示を提示するステップは、全体画像上に、様々な色を有する、移動する幾何学的な形を提示することを含んでもよく、その幾何学的な形は例えば、円、矩形及び/又は三角形のうちの1以上を含む。
全体画像上に図形表示を提示するステップは、全体画像上で、多数の移動物体の少なくとも1つがたどった通り道の地理的な位置に対応する全体画像の位置に、多数の物体の少なくとも1つの判定された動作を追跡する軌跡を提示するステップを含んでもよい。
いくつかの実施形態では、システムが提供される。本システムは、画像データを撮像する複数のカメラ、1以上の表示装置、及び動作を実行するように構成された1以上のプロセッサを含み、その動作は、複数のカメラによって撮像された画像データから多数の移動物体の動作データを判定するステップと、複数のカメラによって監視される領域を示す全体画像上に、1以上の表示装置の少なくとも1つを用いて、多数の移動物体の地理的な位置に対応する全体画像上の位置における多数の物体の判定された動作データの図形表示を提示するステップを含む。1以上のプロセッサは更に、1以上の表示装置の1つを用いて、複数のカメラの1つによって撮像された多数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する全体画像の領域を、全体画像上に提示された図形表示に基づいて選択することに応じて、複数のカメラの1つからの撮像画像データを提示する動作を実行するように構成される。
本システムの実施形態は、本開示において記載される少なくともいくつかの特徴を含み、本方法に関連して上述された少なくともいくつかの特徴を含む。
いくつかの実施形態では、非一時的なコンピュータ読取り可能な媒体が提供される。コンピュータ読取り可能な媒体は、プロセッサ上で実行可能なコンピュータ命令のセットでプログラムされる。プログラムが実行されると、コンピュータ命令のセットは、複数のカメラによって撮像された画像データから多数の移動物体の動作データを判定するステップと、複数のカメラによって監視される領域を示す全体画像上で、多数の移動物体の地理的な位置に対応する全体画像上の位置に、多数の移動物体の判定された動作データの図形表示を提示するステップを含む動作を実行させる。コンピュータ命令のセットは更に、複数のカメラの1つによって撮像された多数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する全体画像の領域を、全体画像上に提示される図形表示に基づいて選択することに応じて、複数のカメラの1つからの撮像画像データを提示するステップを含む。
コンピュータ読取り可能な媒体の実施形態は、本開示において記載される少なくともいくつかの特徴を含み、本方法及び本システムに関連して上述された少なくともいくつかの特徴を含んでもよい。
本明細書で用いられる通り、用語「約」は基準値からの+/−10%の変動をいう。そのような変動は、特別に言及されるか否かに関わらず本明細書で提供される値に常に含まれることを理解されたい。
本明細書(特許請求の範囲を含む)で用いられる通り、「少なくとも1つの」又は「1以上の」を有する記載事項で用いられる「及び」は、記載事項の任意の組み合わせが用いられてもよいことを示す。例えば、「A、B及びCの少なくとも1つ」との記載は、「Aのみ」、「Bのみ」、「Cのみ」、「A且つB」、「A且つC」、「B且つC」又は「A且つB且つC」のいかなる組み合わせでもよい。更に、A、B又はCの項目のそれぞれが1以上発生又は使用可能である限りにおいて、十分な考慮の元、A、B及び/又はCを複数使用して組み合わせてもよい。例えば、「A、B及びCの少なくとも1つ」の項目は、AA、AB、AAA、BB等を含んでもよい。
別段定義されない限り、本明細書で用いられる全ての技術的且つ科学的な用語は本開示が属する技術における通常の知識を有する者によって通常理解されるのと同じ意味を有する。
1以上の実施形態の詳細は、図面及び以下の明細書で述べられる。更なる特徴、側面及び利点は、明細書、図面及び特許請求の範囲から明らかにされる。
カメラネットワークの機能ブロック図である。 実施形態に係るカメラの概念図である。 全体画像を用いたカメラの動作を制御する処理手順の一例のフローチャートである。 多数のカメラによって監視される領域の全体画像の写真である。 全体画像及び全体画像の少なくとも一部の撮像画像である。 移動物体を識別してそれらの動作及び/又は他の特徴を判定する処理手順の一例のフローチャートである。 実施形態に係るカメラ較正処理手順のフローチャートである。 撮像画像である。 図7Aの画像を撮像したカメラの較正動作を容易にする、選択された較正点を有する全体俯瞰画像である。 一般的な計算システムの概念図である。
様々な図面内の類似の参照符号は、類似の要素を示す。
方法、システム、装置、デバイス、製品及び他の実施形態がここに開示され、複数のカメラによって撮像された画像データから、多数の移動物体の動作データを判定するステップと、複数のカメラによって監視される場所を示す全体画像上で、多数の移動物体の地理的な位置に対応する全体画像での位置に、多数の物体の判定された動作データの図形動作データアイテム(図形表示ともいう)を提示するステップとを含む方法も開示される。本方法は更に、複数のカメラの1つによって撮像された(1つに現れる)多数の移動物体の少なくとも1つの図形表示(図形動作データアイテムともいう)の少なくとも1つを提示する全体画像の領域を、全体画像に提示される図形表示に基づいて選択することに応じて、複数のカメラの1つからの撮像画像データを提示する。
全体画像(例えば、地図、場所の俯瞰画像等)での多数の物体の動作データを提示することを可能にするように構成された実施形態は、全体画像に対してカメラを較正する(例えば、全体画像におけるどの位置が、カメラによって撮像された画像における位置に対応するかを判定する)実施形態及び技術を含み、カメラネットワークのカメラによって撮像された画像から、移動物体を識別し追跡する実施形態及び技術を含む。
[システム構成及びカメラ制御動作]
一般に、カメラネットワークにおける各カメラは、関連する視野角及び視野を有する。視野角は、カメラが見る、物理的な領域の位置及び景色に関する。視野は、カメラによってフレームに撮像される物理的な領域に関する。デジタル信号プロセッサのようなプロセッサを有するカメラは、フレームを処理して、移動物体が視野内に存在するか否かを判定する。いくつかの実施形態では、カメラは、メタデータを、移動物体(簡略に、「物体」とする)の画像に関連付ける。そのようなメタデータは、物体の様々な特徴を画定して示す。例えば、メタデータは、カメラの視野内の物体の位置(例えば、カメラのCCDの画素で測定される二次元座標系内)、物体の画像の幅(例えば、画素で測定される)、物体の画像が動く方向、物体の画像の速度、物体の色及び/又は物体の範疇を示す。いくつかの情報が、物体の画像と関連付けられたメタデータに存在しうる。メタデータには、他のタイプの情報が含まれうる。物体の範疇は、物体の他の特徴に基づいて物体が含まれると判定された範疇に関する。例えば範疇は、人間、動物、車両、軽トラック、大型トラック及び/又はRV車を含む。物体の範疇の判定は、例えば、形態素解析、ニューラルネット分類及び/又は物体を識別するための他の画像処理技術/画像処理手順等の技術を用いて実行される。移動物体を伴う事象(イベント)に関するメタデータは、カメラによってホストコンピュータシステムへ送信される(又はそのような事象の判定は遠隔で行われてもよい)。そのような事象メタデータは、例えば、カメラの視野に入る物体、カメラの視野から出る物体、妨害されるカメラ、閾値時間よりも長くカメラの視野に留まる物体(例えば、何らかの閾値時間よりも長い間、領域をぶらつく場合)、合体する多数の移動物体(例えば、動く車に走って飛び乗る人)、多数の移動物体に分裂する動く物体(例えば、車から降りる人)、関心領域に入る物体(例えば、物体の動作を監視するのが望ましい所定領域)、所定の地域を出る物体、仕掛け線を横切る物体、地域又は仕掛け線のある所定の禁止された方向に一致する方向に動く物体のカウント、物体の除去(例えば、物体が所定時間よりも長い間静止/動かず、その大きさが所定の領域の大きい部分よりも大きい場合)、物体の放棄(例えば、物体が所定時間よりも長い間静止し、その大きさが所定の領域の大きい部分よりも小さい場合)及び静止計時装置(例えば、物体が特定の静止時間よりも長い間所定の領域において静止しているか微小に動いている場合)である。
複数のカメラの各々は、ホストコンピュータシステムへそれぞれのカメラの視野において現れる物体(例えば、移動物体)の動作及び他の特徴を示すデータを送信し、及び/又はホストコンピュータシステムへ配信動画のフレーム(場合によっては圧縮される)を送信する。多数のカメラから受信された物体の動作及び/又は他の特徴を示すデータを用いて、ホストコンピュータシステムは、単一の全体画像でカメラによって撮像された画像(例えば、地図、カメラによって扱われる全体領域の俯瞰画像等)内に現れる物体の動作データを提示するように構成され、単一の全体画像で複数の物体の動作(物体相互の相対的な動作を含む)の図形表示をユーザが見ることを可能にする。ホストコンピュータは、ユーザが、その全体画像から領域を選択し、その領域の画像を撮像するカメラから配信動画を受信することを可能にする。
いくつかの実施形態では、動作を示すデータ(及び物体の他の特徴)は、他の機能及び動作を実行するためにホストコンピュータによって用いられる。例えば、いくつかの実施形態では、ホストコンピュータシステムは、異なるカメラの視野において(同時又は非同時に)現れる移動物体の画像が同じ物体を示すかどうかを判定するように構成される。ユーザがこの物体を追跡すべきと特定する場合、ホストコンピュータシステムは、ユーザに対し、物体の好ましいビューを有すると判定されたカメラからの配信動画のフレームを表示する。物体が動くにつれて、他のカメラが好ましいビューを有すると判定された場合は、その異なるカメラからの配信動画のフレームが表示される。それ故、追跡すべき物体をユーザが一旦選択すると、ユーザに対して表示される配信動画は、あるカメラから他のカメラへ、ホストコンピュータシステムによってどのカメラが物体の好ましいビューを撮像すると判定されたかに基づいて切り替わる。多数のカメラの視野にまたがるこのような追跡は、実時間で、すなわち追跡される物体が配信動画に表示される位置にほぼ実在するように実行される。この追跡は、過去のある時点での物体の動作を示す保存された配信動画を参照して、配信動画の履歴を用いて実行されうる。そのような更なる機能や動作に関する追加の詳細は、例えば、米国特許出願番号12/982,138号、発明の名称「カメラネットワークを用いた動く物体の追跡(Tracking Moving Objects Using a Camera Network)」、出願日2010年12月30日に開示され、その内容の全体は参照によってここに組み入れる。
図1Aは、セキュリティカメラネットワーク100のブロック図である。セキュリティカメラネットワーク100は、同一の又は異なるタイプの複数のカメラを含む。例えば、いくつかの実施形態では、カメラネットワーク100は、1以上の定位置カメラ(例えば、カメラ110及び120)、1以上のPTZカメラ130(パン・チルト・ズーム)、1以上のスレーブカメラ140(例えば、いかなる画像/映像分析もその場で実行しないが、代わりに遠隔サーバ等の遠隔装置へ画像/フレームを送信するカメラ)を含む。様々なタイプの、より多くの又は少ないカメラ(図1に例示するカメラの1つに限らない)が、カメラネットワーク100に配置されてもよく、カメラネットワーク100は、0、1又はそれ以上の数の各タイプのカメラを備えてもよい。例えば、セキュリティカメラネットワークは、5つの定位置カメラのみを含んで他のタイプのカメラを含まない。他の一例では、セキュリティカメラネットワークは、3つの定位置カメラ、3つのPTZカメラ及び1つのスレーブカメラを備えてもよい。以下でより詳細に記載されるように、いくつかの実施形態では各カメラは共に用いる補助カメラと関連付けられてもよく、その補助カメラはその属性(例えば、空間位置、ズーム等)を調節して、関連付けられた「主」カメラによって検出された特定の特徴についての追加の詳細を得て、主カメラの属性が変更されなくてもよいようにする。
セキュリティカメラネットワーク100は、ルータ150をも含む。定位置カメラ110及び120、PTZカメラ130及びスレーブカメラ140は、有線接続(例えば、LAN接続)又は無線接続を用いてルータ150と通信する。ルータ150は、ホストコンピュータシステム160のようなコンピュータシステムと通信する。ルータ150は、ローカルエリアネットワーク通信のような有線通信又は無線通信を用いて、ホストコンピュータシステム160と通信する。いくつかの実施形態では、カメラ110、120、130及び/又は140のうちの1以上は、例えば、トランシーバ又は何らかの他の通信装置を用いてホストコンピュータシステム160へデータ(映像及び/又は、メタデータのような他のデータ)を直接送信する。いくつかの実施形態では、コンピュータシステムは分散型コンピュータシステムであってもよい。
定位置カメラ110及び120は、例えば、建物の軒天に取り付けられる等によって定位置に設置され、その建物の非常口の配信動画を撮像してもよい。そのような定位置カメラの視野は、なんらかの外力によって移動され又は調節されない限り、変化せずそのままである。図1Aに示すように、定位置カメラ110は、デジタル信号プロセッサ(DSP)のようなプロセッサ112及び/又は映像圧縮器114を含む。定位置カメラ110の視野のフレームが定位置カメラ110によって撮像されると、これらのフレームはデジタル信号プロセッサ112又は汎用プロセッサによって処理される(例えば、1以上の移動物体が存在するかどうかを判定し、及び/又は他の機能及び動作を実行する)。
より一般には、図1Bが示す通り、実施形態に係るカメラ170(映像源ともいう)の概念図が例示される。カメラ170の構成は、図1Aに示すカメラ110、120、130及び/又は140の少なくとも1つの構成と類似する(カメラ110、120、130及び/又は140の各々はそれぞれに特有の特徴を有していてもよいが、例えば、PTZカメラを空間的にずらして、それによって撮像される画像のパラメータを制御することができる)。カメラ170は概して、撮像部172(ときとして映像源装置の「カメラ」ともいう)を含み、撮像部172は、生画像/映像データをカメラ170のプロセッサ174へ提供するように構成される。撮像部172は、電荷結合素子(CCD)を基礎とした撮像部でもよいし、他の適切な技術を基礎にしてもよい。撮像部に電気的に接続されるプロセッサ174は、任意のタイプの処理部及びメモリを含む。更に、プロセッサ174を、定位置カメラ110のプロセッサ112及び映像圧縮器114の代わりに又はそれらに加えて用いてもよい。いくつかの実施形態では、プロセッサ174は例えば、撮像部172によって提供される生映像データを、デジタル映像形式(例えば、MPEG)へと圧縮するように構成してもよい。いくつかの実施形態では、そして以下で明確であるように、プロセッサ174はまた、物体識別及び動作判定の処理の少なくともいくつかを実行するように構成される。プロセッサ174はまた、データ修正、データのパケット化、メタデータ生成等を実行するように構成される。結果として生じる処理データ(例えば、圧縮された映像データ、物体及び/又はその動作を示すデータ(例えば、撮像された生データにおいて識別可能な特徴を示すメタデータ))は、例えば、通信デバイス176に提供(ストリーム)され、通信デバイス176は例えば、ネットワークデバイス、モデム、無線インタフェース、様々なトランシーバタイプ等であってよい。ストリームされるデータは、例えばホストコンピュータシステム160への送信のために、ルータ150に送信される。いくつかの実施形態では、通信デバイス176は、ルータ150へデータをまず送信する必要なく、システム160へ直接データを送信してよい。撮像部172、プロセッサ174及び通信デバイス176は別々のユニット/装置として示されているが、それらの機能は、例示されるような3つの別々のユニット/装置よりかはむしろ単一又は2つの装置として提供される。
いくつかの実施形態では、シーン分析処理手順が撮像部172、プロセッサ174及び/又は遠隔のワークステーションにおいて実装されてカメラ170の視野における様相や事象を検出してもよい(例えば、監視されるシーンにおいて物体を検出し追跡する)。シーン分析処理がカメラ170によって実行される状況では、撮像された映像データから識別され判定された事象及び物体についてのデータは、メタデータとして送信される、又は物体の動作、行動及び特性を示すデータを含むなんらかの他のデータ形式を用いて(映像データを送信して又は送信せずに)、ホストコンピュータシステム160に送信される。カメラの視野における物体の行動、動作及び特性を示すそのようなデータは、例えば、仕掛け線を横切る人物の検出や赤い車両の検出等を含む。述べたように、代替的及び/又は追加的に、映像データは処理のためにホストコンピュータシステム160へストリームされ、ホストコンピュータシステム160において少なくとも部分的に分析が実行される。
更に、カメラ170のようなカメラによって撮像されたシーンの画像/映像データにおいて、1つ以上の移動物体が存在するか否かを判定するために、撮像データで処理が実行される。1つ以上の物体の存在及び/又は動作及び他の特徴を判定する画像/映像処理の例は、例えば、米国特許出願番号12/982,601号、発明の名称「記録された映像のサーチ(Searching Recorded Video)」に開示され、その内容の全体は参照によってここに組み入れる。以下で更に詳細に記載されるように、いくつかの実施形態では、ガウス混合モデルが用いられ、移動物体の画像を含む前景を、静止物体(例えば、木、建物及び道路)を含む背景から分離する。そしてこれらの移動物体の画像は、移動物体の画像の様々な特徴を識別するように処理される。
述べたように、カメラによって撮像された画像に基づいて生成されたデータは、例えば、特性についての情報(例えば、物体の位置、物体の高さ、物体の幅、物体が動く方向、物体が動く速度、物体の色及び/又は物体のカテゴリ分類)を含んでもよい。
例えば、物体の位置は、メタデータとして示されるが、複数のカメラの1つと関連付けられた二次元の座標系における二次元座標として表現される。それ故、これら二次元座標は、特定のカメラによって撮像されたフレームにおいて物体を構成する画素群の位置に関連付けられる。物体の二次元座標はカメラによって撮像されたフレーム内の点であってもよい。いくつかの構成では、物体の位置の座標は、物体の最下部の中央であるとみなす(例えば、物体が立っている人物であるとき、その位置は人物の両足の間である)。二次元座標は、x成分及びy成分を有する。いくつかの構成では、x成分及びy成分は画素の数で測る。例えば、位置(613、427)は、物体の最下部の中央が、カメラの視野のx軸方向に613画素且つy軸方向に427画素の位置にあることを意味する。物体が動くに連れて、物体の位置に関連付けられた座標は変化する。更に、同じ物体が1つ以上の他のカメラの視野において見える場合、他のカメラによって判定される物体の座標の位置はおそらく異なると考えられる。
物体の高さは、例えば、メタデータを用いて表され、画素の数で表現される。物体の高さは、物体を構成する画素群の底部から物体の画素群の頂部までの画素の数で定義される。従って、物体が特定のカメラに近い場合、測定される高さは、物体がカメラからより遠い場合よりも大きいであろう。同様に、物体の幅も、画素で表現されてもよい。物体の幅は、物体の幅の平均に基づいて判定されてもよいし、物体の画素群において横方向の長さが最も長い箇所に基づいて判定されてもよい。同様に、物体の速度及び方向は、画素で測定する。
図1Aを引き続き参照すると、いくつかの実施形態では、ホストコンピュータシステム160はメタデータサーバ162、映像サーバ164及びユーザ端末166を含む。メタデータサーバ162は、ホストコンピュータシステム160と通信するカメラから受信されるメタデータ(又はなんらかの他のデータ形式)を受信、格納及び分析するように構成される。映像サーバ164は、カメラから圧縮された又は圧縮されない映像を受信し格納してもよい。ユーザ端末166によって、例えば警備員等のユーザが、ホストコンピュータシステム160と接続し、例えば、多数の物体及びそれらのそれぞれの動作を示すデータアイテムが提示された全体画像から、より詳細にユーザが調べたい領域を選択することが可能となる。ユーザ端末のスクリーン/モニタに提示された全体画像から関心領域の選択を受信するのに応じて、ネットワーク100において配置された複数のカメラの1つの対応する映像データ及び/又は関連付けられたメタデータは、(複数物体を示すデータアイテムが提示される、提示された全体画像に代えて又は加えて)ユーザに提示される。いくつかの実施形態では、ユーザ端末166は、同時に1以上の配信動画をユーザに対して表示することができる。いくつかの実施形態では、メタデータサーバ162、映像サーバ164及びユーザ端末166の機能は、別々のコンピュータシステムによって実行されてもよい。いくつかの実施形態では、そのような機能は、1つのコンピュータシステムによって実行されてもよい。
更に、図2を参照すると、全体画像(例えば、地図)を用いてカメラの動作を制御する一例の処理手順200が示される。処理手順200の動作は図3にも記載され、図3は、多数のカメラ(図1A及び1Bに記載される任意のカメラに類似してもよい)によって監視される領域の全体画像300を示す。
処理手順200は、多数の移動物体の動作データを、複数のカメラによって撮像された画像データから判定するステップS210を含む。動作データを判定する処理手順の例示の実施形態は、図5に関連して以下でより詳細に記載される。述べた通り、動作データは、カメラ自体によって判定されてもよく、(図1Bに記載されたプロセッサのような)ローカルカメラプロセッサは撮像された映像の画像/フレームを処理して、例えば、背景にある移動しない特徴から、フレームにおける移動物体を識別する。いくつかの実施形態では、画像/フレームの処理動作の少なくともいくつかは、図1Aに記載されるホストコンピュータシステム160のような中央コンピュータシステムにおいて実行されてもよい。識別された移動物体の動作を示すデータ及び/又は他の物体の特性(例えば、物体の大きさ、特定の事象を示すデータ等)を示すデータに結果的になる処理されたフレーム/画像は、中央コンピュータシステムによって用いられ、図3の全体画像300のような全体画像上で、多数の移動物体の地理的な位置に対応する全体画像の位置に、多数の物体の判定された動作データの図形表示を提示/表現する(ステップS220)。
図3の例では、全体画像は、いくつかの建物を含むキャンパス(「ペルコキャンパス」)の俯瞰画像である。いくつかの実施形態では、カメラ及びそれらのそれぞれの視野の位置は、画像300内で表現されてよく、従って、ユーザは、配置されたカメラの位置を図形的に見て、ユーザが見たい画像300の領域の映像ストリームを提供するカメラを選択することが可能である。全体画像300は、それ故、カメラ310a−gの図形表示(黒い縁の円として表現される)を含み、又、カメラ310a−b及び310d−gのそれぞれのおおよその視野の表示を含む。図示の通り、図3の例においてカメラ310cの視野表示はないが、これはカメラ310cが現在稼働中でないことを示す。
図3に更に示す通り、多数の移動物体の地理的な位置に対応する全体画像の位置に、多数の物体の判定された動作データの図形表示が提示される。例えば、いくつかの実施形態では、図3に示す軌跡330a−cのような軌道は、カメラによって撮像された画像/映像において存在する少なくともいくつかの物体の動作を表し、全体画像において表現されてもよい。図3には、特定の領域(例えば、立入禁止領域として指定される領域)を画定する所定の領域340も示されており、これによって、移動可能な物体によって侵入されたとき、事象検出が起こる。同様に、図3は更に、仕掛け線350のような仕掛け線を図形的に表示してもよく、これによって、横切られたとき、事象検出が起こる。
いくつかの実施形態では、多数の物体の少なくともいくつかの判定された動作は、所定時間にわたって、その位置を変える図形表示として全体画像300上で表示してもよい。例えば、図4を参照すると、撮像された画像410及び全体画像420(俯瞰画像)の写真を含む図形400が示され、また、全体画像420は、撮像された画像410における領域を含む。撮像画像410は移動物体412つまり車を示す。すなわち、車が識別され、その動作が判定されたことを示す(例えば、本明細書に記載されたような、画像/フレーム処理動作を通して行う)。図形表示(動作データアイテム)422は、移動物体412の判定された動作データを表し、全体画像420上で提示される。図形表示422は、この例では、画像/フレーム処理を通して判定された方向に移動する矩形として提示される。矩形422は、物体の判定された特性を示す大きさ及び形でよい(例えば、シーン分析及びフレーム処理手順を通して判定された通り、その矩形は車412の大きさと比例した大きさを有していてもよい)。図形表示は、例えば、移動物体を示す他の幾何学的な形及び記号(例えば、人や車の記号やアイコン)を含み、及び、特別な図形表示(例えば、異なる色、異なる形、異なる視覚効果及び/又は音声効果)を含み、特定事象(例えば、仕掛け線を横切ること及び/又は本明細書に記載されるような他のタイプの事象)の発生を示してもよい。
対応する移動物体の地理的な位置を実質的に示す全体画像における位置に図形表示を提示するために、カメラを全体画像に対して較正して、それらのカメラによって撮像されたフレーム/画像から識別される移動物体のカメラ座標(位置)が全体画像座標(「世界座標」ともいう)に変換されるようにする必要がある。撮像された映像フレーム/画像から判定された、対応する識別された移動物体の地理的位置に実質的に一致する位置に図形表示(図形移動アイテムともいう)を表現することを可能にする例示的な較正処理手順の詳細が図6に関連して以下に提供される。
図2に戻ると、カメラの1つによって撮像された多数の移動物体の少なくとも1つを示す図形表示の少なくとも1つを有する地図の領域が、全体画像上に提示される図形表示に基づいて選択されるのに応じて、複数のカメラの1つからの撮像された画像/映像データが提示される(ステップS230)。例えば、ユーザ(例えば、警備員)は、配置された全てのカメラによって監視される領域をひと目で見ることができる代表的なビュー(すなわち、全体画像)を見ることができ、これによって識別された物体の動作を監視することができる。警備員が移動物体(例えば、追跡された軌跡(例えば、赤い曲線として表示される)に対応して移動した移動物体)についてより詳細を得たいときは、警備員は、特定の物体が移動して示される地図上の領域/範囲をクリック又はさもなければ選択し、これによって、ユーザに提示される領域と関連付けられたカメラからの映像ストリームを生じさせる。例えば、全体画像は、碁盤目状の領域/範囲に分割されてもよく、それらの1つが選択されたときに、その選択された領域を撮像するカメラからの映像ストリームを提示させてもよい。いくつかの実施形態では、映像ストリームは、そのカメラのフレームから識別された移動物体の動作がユーザに提示される全体画像と一緒にユーザに提示されてもよい。図4は、例えば、全体画像と一緒に提示された映像フレームを示し、そこにおいて、移動する車の映像フレーム内での移動は、動く矩形として示される。
いくつかの実施形態では、カメラの1つからの撮像画像データを提示することは、全体画像での移動物体に対応する図形表示の選択に応じて実行されてもよい。例えば、ユーザ(例えば、警備員)は、実際の図形移動データアイテム(矩形又は軌跡線のような、動く形でもよい)をクリックして、移動物体が識別された(そして、その動作が判定された)フレーム/画像を撮像するカメラからの映像ストリームをユーザに提示させてもよい。以下でより詳細に記載される通り、いくつかの実施形態では、移動物体及び/又はその動作を示す図形移動アイテムを選択することによって、選択された図形移動アイテムに対応する移動物体が現れるカメラに関連付けられた補助カメラは、移動物体が位置すると判定される場所を拡大して、これによってその物体の追加の詳細を提供してもよい。
[物体識別及び動作判定処理手順]
複数のカメラのうちの少なくとも1つによって撮像された画像/映像の少なくともいくつかからの全体画像(例えば、図3及び図4にそれぞれ示す全体画像300又は420)に提示された物体の識別及びその物体の動作の判定及び追跡は、図5に例示する処理手順500を用いて実行されてもよい。1つ以上の物体の存在及びそれぞれの動作を判定する画像/映像処理の追加の詳細及び例は、例えば、米国特許出願番号12/982,601号、発明の名称「記録された映像のサーチ(Searching Recorded Video)」で提供される。
簡潔には、処理手順500はネットワークに配置されたカメラの1つ(例えば、図3の例では、カメラは黒い縁の円310a−gを用いて識別される位置に配置される)を用いて映像フレームを撮像するステップS505を含む。映像フレームを撮像するカメラは、図1A及び1Bを参照して本明細書に記載されたカメラ110、120、130、140及び/又は170のいずれかに類似してもよい。更に、処理手順500は単一のカメラについて記載されるが、問題となる領域を監視するのに配置された他のカメラを用いて類似の処理手順を実施してもよい。更に、映像フレームは、実時間で映像源から撮像されてもよいし、又は、データ記憶装置から検索されてもよい(例えば、撮像された画像/映像フレームを一時的に格納するバッファをカメラが含む実施形態のときや、以前に撮像されたデータを大量に格納するリポジトリから検索するとき)。処理手順500は、ガウスモデルを用いて静止した背景画像や意味のない反復動作(例えば、風で動く木)を有する画像を排除して、これによって関心物体からシーンの背景を効果的に取り除いてもよい。いくつかの実施形態では、画像内の各画素の階調強度に対してパラメトリックモデルが発展する。そのようなモデルの一例は、ガウス分布の数値の加重和である。3つのガウシアンの混合を選択した場合、例えば、そのような画素の通常の階調は、6つのパラメータ、すなわち3つの平均値と、3つの標準偏差によって記述される。このように、風でなびく木の枝の動きのような反復的な変化がモデル化される。例えば、いくつかの実装や実施形態では、3つの好適な画素値が画像内のそれぞれの画素に対して保存される。いずれかの画素値がガウスモデルの1つに当てはまると、対応するガウスモデルの確率が高まり、その画素値は移動平均値で更新される。その画素に対して一致するものがない場合、新しいモデルが、混合モデルにおいて最も確率の低いガウスモデルに取って代わる。他のモデルが用いられてもよい。
従って例えば、シーンにおいて物体を検出するために、ガウス混合モデルが(複数の)映像フレームに適用され、ブロック510、520、525及び530に特に示すように背景が生成される。このアプローチによって、たとえ背景が混雑しシーンにおいて動作が存在する場合であっても、背景モデルが生成される。ガウス混合モデルは実時間の映像処理にとっては時間がかかり、その計算特性により最適化が難しい。このため、いくつかの実施形態では、最も確率の高い背景のモデルが構築され(ステップS530)、背景から、セグメントの前景の物体へ適用される(ステップS535)。いくつかの実施形態では、様々な他の背景構築及びそれに続く処理手順が用いられ、背景シーンを生成する。
いくつかの実施形態では、前述した背景モデルと共に又は独立の背景モデルとして、第2の背景モデルが用いられる。これは例えば、物体検出の正確さを改善し、所定時間ある位置にとどまった後そこから出る(去る)物体によって誤って検出されてしまった物体を除去するために行われる。従って例えば、第1の「短期」背景モデルの後に第2の「長期」背景モデルが適用されうる。長期背景モデルの構築プロセスは、非常に遅い速度で更新されるという点を除いて、短期背景モデルと類似する。すなわち、長期背景モデルの生成は、より多くの映像フレームに基づいて行われ、及び/又はより長期の時間にわたって実行される。物体が短期背景を用いて検出されるが、しかし長期背景からは物体が背景の一部であると判定される場合、検出された物体は誤検出物体(しばらくある場所にとどまってから去った物体)とみなされる。この場合、短期背景モデルの物体領域は、長期背景モデルの物体領域によって更新される。一方、物体が長期背景に現れるがしかし短期背景モデルを用いてフレームを処理するとその背景の一部であると判定された場合、その物体は短期背景に併合される。物体が両方の背景モデルにおいて検出された場合、問題のアイテム/物体が前景の物体である可能性が高い。
従って、述べたように、撮像された画像/フレームに(短期背景モデル又は長期背景モデルを用いて)背景差分動作が適用され(ステップS535)、前景の画素を抽出する。背景モデルは、セグメント化の結果に従って更新される(ステップS540)。背景は一般にはすぐには変わらないため、各フレームにおいて、背景モデルを全体画像に更新する必要はない。しかしながら、背景モデルがN(N>0)フレーム毎に更新される場合、背景の更新を伴うフレームと背景の更新を伴わないフレームとに対する処理速度は全く異なるため、時として誤検出を生じる。この問題を克服するため、背景モデルの一部だけをフレーム毎に更新することで、各フレームに対する処理速度を実質的に同じにして速度の最適化を達成する。
前景の画素は、例えば、画像ブロブや類似画素のグループ等へとグループ化及びラベル付けされ(ステップS545)、これは例えば、画像に対して適用する非線形のフィルタリング処理手順を含む形態フィルタリングを用いて行う。いくつかの実施形態では、形態フィルタリングは、エロージョンやダイレーションを含んでもよい。エロージョンは一般には、物体の大きさを減少させ、構成要素(例えば、4近傍又は8近傍)よりも小さい半径を有する物体を取り除くことによって小さなノイズを除去する。ダイレーションは一般には、物体を大きくし、穴や断続的な領域を埋め、構成要素の大きさよりも小さい空所によって分断された複数の領域を連結する。結果として生じる画像ブロブは、フレームにおいて検出された移動可能物体を示してもよい。従って、例えば、形態フィルタリングは、例えば画像内に散っている単一の画素で構成される「物体」又は「ブロブ」を除去するのに用いられてもよい。他の動作として、更に大きいブロブの境界をならしてもよい。このように、ノイズが除去され、物体の誤検出の数が減る。
図5に更に示すように、セグメント化された画像/フレームにおいて存在する反射は、検出され映像フレームから除去される。セグメント化エラーによる小さな画像ブロブノイズを除去するために、そしてシーンにおいてその大きさに従って認定物体を発見するために、例えばシーン較正方法が用いられてブロブの大きさを検出してもよい。シーン較正としては、パースペクティブグランドプレーン(perspective ground plane)モデルが考えられる。例えば、認定オブジェクトは、グランドプレーンモデルにおいて、閾値高さ(例えば、最小の高さ)よりも高くなければならず、閾値幅(例えば、最大の幅)よりも狭くなければならない。グランドプレーンモデルは、異なる縦位置における平面上の2つの平行な線分の指示を通して計算される。ここで2つの線分は、グランドプレーンの消失点(遠近法において、平行線が収束する点)の現実世界での長さと同じ長さを有していなければならず、これによって実際の物体の大きさが消失点に対する位置に従って計算される。ブロブの最大又は最小の幅又は高さは、シーンの下部で規定される。検出された画像ブロブの正規化された幅又は高さが最小の幅又は高さより小さい場合、又はその正規化された幅又は高さが最大の幅又は高さよりも大きい場合、その画像ブロブは捨てられる。このように、セグメント化されたフレームから、反射及び陰影が検出されて除去される(ステップS550)。
反射検出及び除去は、陰影除去の前又は後に行われる。例えば、いくつかの実施形態では、起こる可能性のある反射を除去するために、全体のシーンの画素数に対する前景の画素の割合が高いか否かの判定がまず実行される。前景の画素の割合が閾値よりも高い場合、次のことが起こりうる。反射及び陰影除去の追加の詳細が、米国特許出願番号12/982,601、発明の名称「記録された映像のサーチ(Searching Recorded Video)」で開示される。
検出された画像ブロブに一致し得る最新物体がない場合(例えば、現在追跡中の、以前に識別された物体)、その画像ブロブに対して新しい物体が生成される。さもなければ、画像ブロブは存在する物体にマッピングされ又は一致する。一般に、新しく生成された物体は、所定時間、シーンに現れるまで更には処理されず、少なくとも最小距離を移動する。このように、多くの誤検出物体は放棄される。
関心物体(例えば、人、車のような移動物体等)を識別するための他の処理手順及び技術が用いられてもよい。
識別された物体(例えば、上述の処理手順又は任意の他の物体識別処理手順を用いて識別される)は追跡される。物体を追跡するために、シーン内の物体は分類される(ステップS560)。物体は、例えば物体に関連付けられたアスペクト比、物理的な大きさ、縦方向の輪郭、姿及び/又は他の特性に従って、他の車や人から区別可能な人又は車として分類される。例えば、物体の縦方向の輪郭は、物体領域における前景の画素の頂点の画素の、縦方向の座標への一次元投影として規定されてもよい。この縦方向の輪郭は、まず低域通過フィルタでフィルタされる。較正された物体の大きさから分類結果を精緻化する。というのも、1人の人間の大きさは、常に1台の車の大きさよりも小さいからである。
人及び車の群は、それらの形態の違いから分類される。例えば、画素での人の幅の大きさは、その物体の位置で判定される。幅の一部は、縦方向の輪郭に沿った山と谷で検出される。物体の幅が人の幅よりも大きく、1以上の山が物体で検出された場合、その物体は車ではなく人の群に対応すると考えられる。更に、いくつかの実施形態では、物体のサム(例えば、サムネイル画像)に対する離散コサイン変換(DCT)又は他の変換(例えば、離散サイン変換、ウォルシュ変換、アダマール変換、高速フーリエ変換、ウェーブレット変換等)に基づいた色記述が適用され、検出された物体の色の特徴(量子化変換係数)が抽出される。
図5に更に示す通り、処理手順500は事象検出動作(ステップS570)を含む。ブロック170で検出される事象のサンプルリストは、次の事象を含む。i)物体がシーンに入る、ii)物体がシーンから出る、iii)カメラが妨害される、iv)物体はまだシーンにいる、v)物体が合体する、vi)物体が分裂する、vii)物体が所定の領域に入る、viii)物体が所定の領域(例えば、図3に示す所定の領域340)から出る、ix)物体が仕掛け線(例えば、図3に示す仕掛け線350)を横切る、x)物体が除去される、xi)物体が放棄される、xii)物体が、ある領域又は仕掛け線がある所定の禁止された方向に一致する方向に移動する、xii)物体をカウントする、xiv)物体除去(例えば、物体が所定時間よりも長い間静止しその大きさが所定の領域の大きい部分よりも大きいとき)、xv)物体は放棄される(例えば、物体が所定の時間よりも長い間静止し、その大きさが所定の領域の大きい部分よりも小さいとき)、xvi)休止時間を計算する(例えば、特定の休止時間よりも長い所定時間の間、物体が静止し又は微小に移動するとき)、xvii)物体がぶらつく(例えば、物体が特定の休止時間よりも長い所定時間の間、所定の領域にいる)。他の事象のタイプが規定され、画像/フレームから判定された活動分類において用いられてもよい。
記載した通り、いくつかの実施形態では、識別された物体、物体の動作等を示すデータはメタデータとして生成されてもよい。このように、処理手順500は、追跡される物体の動作から、又はその追跡に起因する事象から、メタデータを生成するステップS580を含む。生成されたメタデータは、物体情報と検出された事象とを結合させる、表現が統一された記述を含む。物体は、例えば位置、色、大きさ、アスペクト比等によって記述される。物体は、対応する物体識別子及びタイムスタンプを有する事象と関連付けられてもよい。いくつかの実施形態では、事象はルールプロセッサを通して生成されてもよく、ルールプロセッサは、どのような物体情報及び事象が映像フレームに関連付けられたメタデータで提供されるべきかをシーン分析処理手順が判定することを可能にするように規定されたルールを有する。そのルールは、任意の数の方法(例えば、システムを構成するシステム管理者によって、システムにおいて1以上のカメラを再構成することを許可されたユーザによって、等)で確立されてもよい。
図5に示す処理手順500が非限定的な例であり、変形可能である(例えば、動作を追加、除去、再配置及び/又は並行処理する)ことに留意されたい。いくつかの実施形態では、処理手順500は、例えば図1Bに示す映像源(例えば、撮像ユニット)内に含まれる又は映像源に連結されたプロセッサで実行されるように実装することができ、及び/又はホストコンピュータシステム160のようなサーバで(全部又は一部を)実行されてもよい。いくつかの実施形態では、処理手順500は実時間で、映像データ上で動作する。つまり、映像フレームが撮像されると、処理手順500は、映像フレームが映像源によって撮像されるのと同じくらい速く又はそれよりも速く、物体を識別し及び/又は物体事象を検出することができる。
[カメラ較正]
述べた通り、複数カメラから抽出された図形表示(例えば、軌跡又は移動アイコン/記号)を単一の全体画像(又は地図)に提示するために、各カメラを全体画像で較正する必要がある。全体画像に対するカメラの較正によって、カメラに対して特定された位置/座標(いわゆる、カメラ座標)において、それら様々なカメラによって撮像されたフレームにおいて現れる識別された移動物体は、その様々なカメラの任意の座標系の全体画像とは異なる座標系(いわゆる、地図座標)の全体画像における適切な位置に提示/表現される。全体画像に対するカメラの較正では、カメラの座標系と全体画像の画素位置との間の座標変換を行う。
図6は、一例の較正処理手順600の実施形態を示す。全体画像(例えば、図3の全体画像300のような俯瞰図)に対して1つのカメラの較正を実行するために、較正されるカメラによって撮像されたフレームに現れる1以上の位置(較正点ともいう)が選択される(ステップS610)。例えば、特定のカメラからの撮像画像700である図7Aについて検討する。図7Bに示す全体画像のシステム座標(世界座標ともいう)が既知で、その全体画像上の小さな領域が、較正されるカメラによって撮像されるとする。較正されるカメラによって撮像されるフレームにおける選択点(較正点)に対応する全体画像中の点が識別される(ステップS620)。図7Aの例では、9つの点(1から9の数字が付される)が識別される。一般に、選択点は撮像画像における静止した特徴(例えば、ベンチ、縁石、画像中の様々な他の陸標等)に対応する点である必要がある。更に、全体画像からの選択点に対する、全体画像中の対応点は、容易に識別可能である必要がある。いくつかの実施形態では、カメラの撮像画像中の点の選択及びその全体画像における対応点は、ユーザによって手動で選択される。いくつかの実施形態では、その画像中で選択された点及びその全体画像における対応点は、画素座標で提供されてもよい。しかしながら、較正処理で用いられる点は、地理的な座標(例えば、メートル又はフィートのような距離の単位)で提供されてもよく、いくつかの実施形態では、撮像画像の座標系は画素で提供されて全体画像の座標系は地理的な座標で提供されてもよい。後者の実施形態では、実行される座標変換は画素から地理的な単位への変換である。
カメラ座標系と全体画像の座標系の間の座標変換を判定するために、いくつかの実施形態では、二次元の線形パラメータモデルが用いられる。このモデルの予測係数(つまり、座標変換係数)は、カメラの座標系における選択位置(較正点)の座標に基づいて及び全体画像における対応する識別された位置の座標に基づいて計算される(ステップS630)。このパラメータモデルは、以下の一次の二次元線形モデルであってよい。
(等式1)
(等式2)
ここでx及びyは、(全体画像における選択位置に対してユーザによって決定される)特定の位置の現実世界座標であり、x及びyは、その特定の位置(全体画像に対して較正されるカメラによって撮像された画像から、ユーザによって決定された位置)に対応するカメラ座標である。α及びβパラメータは、値を求めるべきパラメータである。
予測係数の計算を容易にするために、等式1及び等式2の右辺の項を二乗することによって、二次の二次元モデルが一次モデルから導出される。二次モデルは一般には一次モデルよりも頑健であり、一般にはノイズの多い測定の影響を受けにくい。二次モデルにおいては、パラメータ設計及び判定においてより自由度が大きくなり得る。また、いくつかの実施形態では、二次モデルはカメラの放射状の歪みを補うことができる。二次モデルは以下のように表現できる。
(等式3)
(等式4)
上記2つの式を掛けあわせて多項式にすると、9つの予測係数が出る(つまり、x−yカメラ座標の9つの係数で全体画像における世界座標のxの値を表現し、x−yカメラ座標の9つの係数で世界座標のyの値を表現する)。9つの予測係数は以下のように表すことができる。
(等式5)
(等式6)
上記の行列式において、パラメータα22は、(xc1c1)がカメラ画像内で選択された第1の位置(点)でのx−yカメラ座標である場合に、項x2 cl2 clを(等式3の項が掛けられたときに)掛ける項α2 xxα2 xyに対応する。
全体画像における対応する位置の世界座標は、以下に表す行列Pとして表現される。
(等式7)
行列A及びその関連付けられた予測パラメータは、以下に係る最小二乗解により判定される。
(等式8)
カメラネットワーク(例えば、図1Aのネットワーク100又は図3に示すカメラ310a−g)に配置される各カメラは、類似した方法で較正され、カメラのそれぞれの座標変換(つまり、カメラのそれぞれのA行列)を判定する必要がある。その後、特定のカメラで撮像されたフレームに現れる特定の物体の位置を判定するために、カメラの対応する座標変換がそのカメラに対する物体の位置座標に適用され、結果として全体画像における物体の対応位置(座標)が判定される。全体画像における、計算され変換された物体の座標は、次に、全体画像における適切な位置に物体(及びその動作)を示す。
等式1−8に関連して記載した上述の較正処理手順に代えて又は加えて、他の較正技術が用いられてもよい。
[補助カメラ]
カメラの較正に伴う計算処理が多く、そして、インタラクション及び時間がユーザに要求されるため(例えば、撮像画像における適切な点を選択すること)、カメラの頻繁な再較正を避けることが望ましい。しかしながら、カメラの属性が変更されるたびに(例えば、カメラが空間的に離間する場合、カメラのズームが変わった場合等)、新たなカメラの座標系と全体画像の座標系との間の新しい座標変換が計算される必要がある。いくつかの実施形態では、ユーザは、全体画像に提示されるデータに基づいた映像ストリームを受信する(つまり、選択されたカメラによって監視されるオブジェクトの生配信ビデオを取得すること)先の特定のカメラを選択(又は特定のカメラによって監視される全体画像から領域を選択)した後、追跡物体を拡大することを望むことがある。しかしながら、物体を拡大する、さもなければカメラを調整することは、異なるカメラ座標系を用いることを必要とする。従って、そのカメラからの物体動作データが全体画像にほぼ正確に示されるには新しい座標変換が計算されなくてはならない。
従って、いくつかの実施形態では、(様々なカメラによって識別される物体の動作が単一の全体画像で提示され追跡されるように、)移動物体を識別し物体の動作を判定するのに用いられる少なくともいくつかのカメラは、それぞれ主カメラに近接して配置される対とする補助カメラと一致する。そして、補助カメラは、主(マスタ)カメラと類似した視野を有する。いくつかの実施形態では、用いられる主カメラは、それ故に定位置カメラであり(ずらすこと又は属性を調整することができるが、監視する領域を一定に保つカメラを含む)、一方では補助カメラは視野を調整することができるカメラ、例えばPTZカメラであってよい。
補助カメラは、いくつかの実施形態において、その主(マスタ)カメラのみで較正されるが、全体画像の座標系に対して較正されなくてもよい。そのような較正は、補助カメラの初期の視野について実行される。カメラが選択され映像ストリームを提供するとき、ユーザは次に、追加の詳細を取得したいと望む領域又は特徴を選択することができる(例えば、選択される領域/特徴が提示されるモニタのエリアをマウスでクリックする又はポインティングデバイスを用いることによって行う)。結果として、関心のある特徴又は関心領域が位置する画像であって選択された主カメラに関連付けられた補助カメラによって撮像された画像の座標が判定される。この判定は、例えば、主カメラによって撮像された画像からの選択された特徴及び/又は領域の座標に座標変換を適用して、対となる補助カメラによって撮像された画像に現れる特徴及び/又は領域の座標を計算することによって実行される。主カメラとその補助カメラとの間で座標変換を適用することによって、補助カメラに対して、選択された特徴及び/又は領域の位置が判定される。このため、主カメラの位置を変更する必要がなく、補助カメラは自動的に又はユーザからの追加の入力によって、選択された特徴及び/又は領域の異なるビューに焦点を当て又はさもなければその異なるビューを得ることができる。例えば、いくつかの実施形態では、移動物体及び/又はその動作を示す図形移動アイテムを選択することによって、選択された図形移動アイテムに対応する移動物体が現れるカメラに関連付けられた補助カメラは、その移動物体が位置すると判定される場所を自動的に拡大して、これによってその物体の追加の詳細を提供してもよい。特に、主カメラの座標系において拡大される移動物体の位置は既知であるので、主カメラからその補助カメラへの較正に由来する座標変換は、その物体の補助カメラ座標を提供することができる。これによって、補助カメラは、その移動物体の判定された補助カメラ座標に対応する視野の領域を自動的に拡大することができる。いくつかの実施形態では、ユーザ(例えば、警備員や技術者)は、ユーザインタフェースを通して適切な選択及び調整を行うことによって、補助カメラの拡大を容易にしてもよく、さもなければ、補助カメラの属性を調整してもよい。そのようなユーザインタフェースは、表示装置上に提示されるグラフィカルユーザインタフェースであってもよく(全体画像が提示される装置と同一の又は異なる装置)、グラフィカルな制御アイテム(例えば、ボタン、バー等)を含んで、例えば、特定の領域又は移動物体についての追加の詳細を提供する(複数の)補助カメラのチルト、パン、ズーム、ディスプレイスメント及び他の属性を制御してもよい。
主及び/又は補助カメラによって取得された画像をユーザが見るのを終えたとき、及び/又は何らかの所定の時間が経過したあと、補助カメラは、いくつかの実施形態では、その初期位置に戻ってもよい。これによって、選択された特徴及び/又は領域に焦点を当てるように調整された後に、補助カメラによって撮像された新しい視野のために主カメラに対して補助カメラを再較正する必要がなくなる。
主カメラを用いて補助カメラを再較正することは、いくつかの実施形態では、図6に関連して記載される通り、全体画像を撮像するカメラを較正するのに用いるのと類似した処理手順を用いて実行されてもよい。そのような実施形態では、カメラの1つで撮像された画像においていくつかの点が選択され、他のカメラで撮像された画像において対応する点が識別される。2つの画像において識別された一致する較正点を選択すると、二次(又は一次)の二次元予想モデルが構築され、2つのカメラの間での座標変換が行われる。
いくつかの実施形態では、他の較正技術/処理手順が用いられて補助カメラに対して主カメラを較正してもよい。例えば、いくつかの実施形態では、米国特許出願番号12/982,138、発明の名称「カメラネットワークを用いた移動物体の追跡(Tracking Moving Objects Using a Camera Network)」に記載されたものと類似の較正技術が用いられてもよい。
[プロセッサベースの計算システムの実施形態]
本明細書に記載された映像/画像処理動作の実行においては、移動物体を検出し、全体画像での移動物体の動作を示すデータを提示し、全体画像の選択された領域に対応する、カメラからの映像ストリームを提示し、及び/又はカメラを較正することが含まれる。この実行は、プロセッサベースの計算システム(又はそれの何らかの部分)によって容易になる。また、本明細書に記載された任意のプロセッサベースの装置は、例えば、ホストコンピュータシステム160及び/又はそのモジュール/ユニットの任意の1つやネットワーク100の任意のカメラの任意のプロセッサ等を含み、図8に関連して記載されるようなプロセッサベースの計算システムを用いて実装されてもよい。図8は一般的な計算システム800の概念図を示す。計算システム800はパーソナルコンピュータ、専用計算装置等のような、典型的には中央処理ユニットを含むプロセッサベースの装置810を含む。CPU812に加えて、システムは主メモリ、キャッシュメモリ及び/又はバスインタフェース回路(図示せず)を含む。プロセッサベースの装置810は、計算システムに関連付けられたハードディスクドライブ又はフラッシュドライブのような大容量記憶装置を含む。計算システム800は更に、キーボード、キーパッド又は何らかの他のユーザ入力インタフェース816とモニタ820(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)(例えば、図1Aのホストコンピュータシステム160のモニタ)を含んでもよく、それらはユーザがアクセス可能な位置に配置されてもよい。
プロセッサベースの装置810は、例えば、移動物体を検出し、全体画像上での移動物体の動作を示すデータを提示し、全体画像の選択された領域に対応する、カメラからの映像ストリームを提示し、カメラを較正すること等の動作の実装を容易にするように構成される。記憶装置(ストレージ)814はコンピュータプログラムプロダクトを含んでもよく、コンピュータプログラムプロダクトは、プロセッサベースの装置810上で実行されるとそのプロセッサベースの装置に動作を実行させて上述した処理手順を実行するのを容易にさせる。プロセッサベースの装置は更に、周辺装置を含んで入力/出力の機能を実現してもよい。そのような周辺装置は、例えば、CD−ROMドライブ及び/又はフラッシュドライブ(例えば、取り外し可能なフラッシュドライブ)又はネットワーク接続を含んで、接続されたシステムへ関連コンテンツをダウンロードさせてもよい。そのような周辺装置は、それぞれのシステム/装置の一般動作を実現するソフトウェアコンピュータ命令をダウンロードするのに用いられてもよい。代替的に及び/又は追加的に、いくつかの実施形態では、専用論理回路(例えば、FPGA(フィールドプログラママブルゲートアレイ)、ASIC(特定用途集積回路)、DSPプロセッサ等)がシステム800の実施形態で用いられてもよい。プロセッサベースの装置810に含まれる他のモジュールは、スピーカ、サウンドカード、ポインティングデバイス(例えば、ユーザが計算システム800に入力を行うマウス、トラックボール)である。プロセッサベースの装置810は、オペレーティングシステム(例えば、ウィンドウズXP(登録商標)マイクロソフト社オペレーティングシステム)を含んでもよい。代替的に、他のオペレーティングシステムが用いられてもよい。
コンピュータプログラム(プログラム、ソフトウェア・アプリケーション又はコードとして知られる)は、プログラム可能なプロセッサのコンピュータ命令を含み、ハイレベルな手順及び/又はオブジェクト指向の言語で実装されてもよく、及び/又はアセンブリ/コンピュータ命令で実装されてもよい。本明細書で用いられる通り、「コンピュータ読取り可能な媒体」とは非一時的なコンピュータプログラムプロダクト、装置及び/又はデバイス(例えば、磁気ディスク、光学ディスク、プログラム可能な論理デバイス(PLD))をいい、機械命令及び/又はデータをプログラム可能なプロセッサ(コンピュータ読取り可能な信号としてコンピュータ命令を受信する非一時的なコンピュータ読取り可能な媒体を含む)へ提供するのに用いられる。
特定の実施形態を本明細書で詳細に開示したが、これは例示のみの目的でなされたものであり、特許請求の範囲を限定するものではない。特に、特許請求の範囲によって画定される発明の精神及び範囲から逸脱しない範囲で、様々な置換や代替や修正が可能であることに留意されたい。他の側面、効果及び修正も、特許請求の範囲の範囲内である。特許請求の範囲は、本明細書に開示される実施形態及び特徴を表す。特許請求の範囲に記載された実施形態及び特徴もまた考慮される。従って、他の実施形態も特許請求の範囲の権利範囲内である。

Claims (22)

  1. 複数のカメラによって撮像された画像データから、複数の移動物体の動作データを判定するステップと、
    前記複数のカメラによって監視される領域を示す全体画像上で、前記複数の移動物体の地理的な位置に対応する前記全体画像上の位置に、前記複数の物体の前記判定された動作データの図形表示を提示するステップと、
    前記複数のカメラの1つによって撮像された前記複数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する前記全体画像の領域を、前記全体画像上に提示される図形表示に基づいて選択することに応じて、前記複数のカメラの1つからの撮像画像データを提示するステップと
    を含む方法。
  2. 請求項1に記載の方法において、
    前記複数の移動物体の少なくとも1つの前記図形表示の少なくとも1つを提示する前記全体画像の領域を選択することに応じて前記撮像画像データを提示するステップは、
    前記複数のカメラの1つによって撮像された移動物体に対応する図形表示を選択することに応じて前記複数のカメラの1つからの撮像画像データを提示することを含む方法。
  3. 請求項1に記載の方法において、更に、
    前記複数のカメラの少なくとも1つを、前記全体画像を用いて較正して、前記複数のカメラの少なくとも1つによって撮像された少なくとも1つの領域のビューの画像を、前記全体画像の対応する少なくとも1つの領域に一致させるステップを含む方法。
  4. 請求項3に記載の方法において、
    前記複数のカメラの少なくとも1つを較正するステップは、
    前記複数のカメラの少なくとも1つによって撮像された画像内に現れる1以上の位置を選択することと、
    前記全体画像上で、前記複数のカメラの少なくとも1つによって撮像された前記画像内の前記1以上の選択位置に対応する位置を識別することと、
    前記識別された全体画像の位置と前記複数のカメラの少なくとも1つの前記画像内における1以上の前記対応する1以上の選択位置とに基づいて二次の二次元線形パラメータモデルに係る変換係数を計算して、前記複数のカメラの少なくとも1つによって撮像された画像内の位置の座標を、前記全体画像内の対応する位置の座標へ変換すること
    を含む方法。
  5. 請求項1に記載の方法において、更に、
    地図の前記選択領域内の前記少なくとも1つの前記図形表示に対応する前記複数の移動物体の少なくとも1つの追加の詳細を提示するステップであって、前記追加の詳細は、前記選択領域に対応する前記複数のカメラの1つに関連付けられた補助カメラによって撮像された補助フレーム内に示される、ステップを含む方法。
  6. 請求項5に記載の方法において、
    前記複数の移動物体の前記少なくとも1つの前記追加の詳細を提示するステップは、
    前記複数のカメラの1つによって撮像される前記複数の移動物体の前記少なくとも1つの位置に対応する、前記補助フレーム内の領域を拡大することを含む、方法。
  7. 請求項1に記載の方法において、
    前記複数のカメラによって撮像される前記画像から、前記複数の移動物体の動作データを判定するステップは、
    前記複数のカメラの1つによって撮像される少なくとも1つの画像へガウス混合モデルを適用し、移動物体の画素群を含む前記少なくとも1つの画像の前景を、静止物体の画素群を含む前記少なくとも1つの画像の背景から分離することを含む、方法。
  8. 請求項1に記載の方法において、
    前記複数の移動物体の前記動作データは、前記複数の移動物体のうちの1つの移動物体のデータを含み、カメラの視野内の前記物体の位置、前記物体の幅、前記物体の高さ、前記物体が移動する方向、前記物体の速度、前記物体の色、前記物体がカメラの視野に入るという表示、前記物体が前記カメラの前記視野から出るという表示、前記カメラが妨害されているという表示、所定時間以上前記物体が前記カメラの視野にとどまっているという表示、いくつかの移動物体が合体するという表示、前記移動物体が2以上の移動物体に分裂するという表示、前記物体が関心領域に入るという表示、前記物体が所定の領域を出るという表示、前記物体が仕掛け線を横切るという表示、前記物体が前記領域又は前記仕掛け線のある禁止された所定の方向に一致する方向に移動しているという表示、前記物体のカウントを示すデータ、前記物体を除去する表示、前記物体を放棄する表示、及び前記物体の滞在時間を示すデータ、のうちの1以上を含む、方法。
  9. 請求項1に記載の方法において、
    前記全体画像上に前記図形表示を提示するステップは、
    前記全体画像上で、複数の色を有する、移動する幾何学的な形を提示することを含み、
    前記幾何学的な形は、円、矩形及び三角形のうちの1以上を含む、方法。
  10. 請求項1に記載の方法において、
    前記全体画像上に前記図形表示を提示するステップは、
    前記全体画像上で、前記複数の移動物体の少なくとも1つがたどった通り道の地理的な位置に対応する前記全体画像の位置に、前記複数の物体の少なくとも1つの前記判定された動作を追跡する軌跡を提示することを含む、方法。
  11. 画像データを撮像する複数のカメラと、
    1以上の表示装置と、
    1以上のプロセッサであって、
    複数のカメラによって撮像された画像データから、複数の移動物体の動作データを判定するステップと、
    前記複数のカメラによって監視される領域を示す全体画像上で、1以上の表示装置の少なくとも1つを用いて、前記複数の移動物体の地理的な位置に対応する前記全体画像上の位置に、前記複数の物体の前記判定された動作データの図形表示を提示するステップと、
    前記1以上の表示装置の1つを用いて、前記複数のカメラの1つによって撮像された前記複数の移動物体の少なくとも1つの前記図形表示の少なくとも1つを提示する前記全体画像の領域を、前記全体画像上に提示される図形表示に基づいて選択することに応じて、前記複数のカメラの1つからの撮像画像データを提示するステップと
    を含む動作を実行するように構成されたプロセッサと
    を含むシステム。
  12. 請求項11に記載のシステムにおいて、
    前記全体画像の領域を選択することに応じて前記撮像画像データを提示するステップを実行するように構成された前記1以上のプロセッサは、前記1以上の表示装置の前記1つを用いて、前記複数のカメラの前記1つによって撮像された移動物体に対応する図形表示を選択することに応じて、前記複数のカメラの前記1つからの撮像画像データを提示するステップを実行するように構成される、システム。
  13. 請求項11に記載のシステムにおいて、
    前記1以上のプロセッサは更に、前記複数のカメラの少なくとも1つを、前記全体画像を用いて較正して、前記複数のカメラの少なくとも1つによって撮像された少なくとも1つの領域のビューの画像を、前記全体画像の対応する少なくとも1つの領域に一致させるステップを実行するように構成される、システム。
  14. 請求項13に記載のシステムにおいて、
    前記複数のカメラの少なくとも1つを較正する動作を実行するように構成された前記1以上のプロセッサは、
    前記複数のカメラの少なくとも1つによって撮像された画像内に現れる1以上の位置を選択するステップと、
    前記全体画像上で、前記複数のカメラの少なくとも1つによって撮像された前記画像内の前記1以上の選択位置に対応する位置を識別するステップと、
    前記識別された全体画像の位置と前記複数のカメラの少なくとも1つの前記画像内における1以上の前記対応する1以上の選択位置とに基づいて二次の二次元線形パラメータモデルに係る変換係数を計算して、前記複数のカメラの少なくとも1つによって撮像された画像内の位置の座標を、前記全体画像内の対応する位置の座標へ変換するステップと
    を実行するように構成される、システム。
  15. 請求項11に記載のシステムにおいて、
    前記1以上のプロセッサは更に、
    地図の前記選択領域内の前記少なくとも1つの前記図形表示に対応する前記複数の移動物体の少なくとも1つの追加の詳細を提示するステップであって、前記追加の詳細は、前記選択領域に対応する前記複数のカメラの1つに関連付けられた補助カメラによって撮像された補助フレーム内に示される、ステップを実行するように構成される、システム。
  16. 請求項11に記載のシステムにおいて、
    前記複数の移動物体の前記動作データは、前記複数の移動物体のうちの1つの移動物体のデータを含み、カメラの視野内の前記物体の位置、前記物体の幅、前記物体の高さ、前記物体が移動する方向、前記物体の速度、前記物体の色、前記物体がカメラの視野に入るという表示、前記物体が前記カメラの前記視野から出るという表示、前記カメラが妨害されているという表示、所定時間以上前記物体が前記カメラの視野にとどまっているという表示、いくつかの移動物体が合体するという表示、前記移動物体が2以上の移動物体に分裂するという表示、前記物体が関心領域に入るという表示、前記物体が所定の領域を出るという表示、前記物体が仕掛け線を横切るという表示、前記物体が前記領域又は前記仕掛け線のある禁止された所定の方向に一致する方向に移動しているという表示、前記物体のカウントを示すデータ、前記物体を除去する表示、前記物体を放棄する表示、及び前記物体の滞在時間を示すデータ、のうち1以上を含む、システム。
  17. プロセッサ上で実行可能なコンピュータ命令のセットでプログラムされた非一時的なコンピュータ読取り可能な媒体であって、前記コンピュータ命令のセットは、実行されると、
    複数のカメラによって撮像された画像データから、複数の移動物体の動作データを判定するステップと、
    前記複数のカメラによって監視される領域を示す全体画像上で、前記複数の移動物体の地理的な位置に対応する前記全体画像上の位置に、前記複数の物体の前記判定された動作データの図形表示を提示するステップと、
    前記複数のカメラの1つによって撮像された前記複数の移動物体の少なくとも1つの図形表示の少なくとも1つを提示する前記全体画像の領域を、前記全体画像上に提示される図形表示に基づいて選択することに応じて、前記複数のカメラの1つからの撮像画像データを提示するステップと
    を含む動作を実行させる、コンピュータ読取り可能な媒体。
  18. 請求項17に記載のコンピュータ読取り可能な媒体において、
    前記複数の移動物体の少なくとも1つの前記図形表示の少なくとも1つを提示する前記全体画像の前記領域の前記選択に応じて前記撮像画像データを提示するステップを実行させる前記命令のセットは、
    前記複数のカメラの1つによって撮像された移動物体に対応する図形表示を選択することに応じて前記複数のカメラの1つからの撮像画像データを提示するステップを実行させる命令を含む、コンピュータ読取り可能な媒体。
  19. 請求項17に記載のコンピュータ読取り可能な媒体において、
    前記命令のセットは更に、
    前記複数のカメラの少なくとも1つを、前記全体画像を用いて較正して、前記複数のカメラの少なくとも1つによって撮像された少なくとも1つの領域のビューの画像を、前記全体画像の対応する少なくとも1つの領域に一致させるステップを実行させる命令を含む、コンピュータ読取り可能な媒体。
  20. 請求項19に記載のコンピュータ読取り可能な媒体において、
    前記複数のカメラの前記少なくとも1つを較正する動作を実行させる前記命令のセットは、
    前記複数のカメラの少なくとも1つによって撮像された画像内に現れる1以上の位置を選択するステップと、
    前記全体画像上で、前記複数のカメラの少なくとも1つによって撮像された前記画像内の前記1以上の選択位置に対応する位置を識別するステップと、
    前記識別された全体画像の位置と前記複数のカメラの少なくとも1つの前記画像内における1以上の前記対応する1以上の選択位置とに基づいて二次の二次元線形パラメータモデルに係る変換係数を計算して、前記複数のカメラの少なくとも1つによって撮像された画像内の位置の座標を、前記全体画像内の対応する位置の座標へ変換するステップと
    を実行させる命令を含む、コンピュータ読取り可能な媒体。
  21. 請求項17に記載のコンピュータ読取り可能な媒体において、
    前記命令のセットは更に、
    地図の前記選択領域内の前記少なくとも1つの前記図形表示に対応する前記複数の移動物体の少なくとも1つの追加の詳細を提示するステップであって、前記追加の詳細は、前記選択領域に対応する前記複数のカメラの1つに関連付けられた補助カメラによって撮像された補助フレーム内に示される、ステップを実行させる命令を含む、コンピュータ読取り可能な媒体。
  22. 請求項17に記載のコンピュータ読取り可能な媒体において、
    前記複数の移動物体の前記動作データは、前記複数の移動物体のうちの1つの移動物体のデータを含み、カメラの視野内の前記物体の位置、前記物体の幅、前記物体の高さ、前記物体が移動する方向、前記物体の速度、前記物体の色、前記物体がカメラの視野に入るという表示、前記物体が前記カメラの前記視野から出るという表示、前記カメラが妨害されているという表示、所定時間以上前記物体が前記カメラの視野にとどまっているという表示、いくつかの移動物体が合体するという表示、前記移動物体が2以上の移動物体に分裂するという表示、前記物体が関心領域に入るという表示、前記物体が所定の領域を出るという表示、前記物体が仕掛け線を横切るという表示、前記物体が前記領域又は前記仕掛け線のある禁止された所定の方向に一致する方向に移動しているという表示、前記物体のカウントを示すデータ、前記物体を除去する表示、前記物体を放棄する表示、及び前記物体の滞在時間を示すデータ、のうちの1以上を含む、コンピュータ読取り可能な媒体。
JP2014543515A 2011-11-22 2012-11-19 地図に基づいた制御 Expired - Fee Related JP6109185B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/302,984 US20130128050A1 (en) 2011-11-22 2011-11-22 Geographic map based control
US13/302,984 2011-11-22
PCT/US2012/065807 WO2013078119A1 (en) 2011-11-22 2012-11-19 Geographic map based control

Publications (2)

Publication Number Publication Date
JP2014534786A true JP2014534786A (ja) 2014-12-18
JP6109185B2 JP6109185B2 (ja) 2017-04-05

Family

ID=47326372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014543515A Expired - Fee Related JP6109185B2 (ja) 2011-11-22 2012-11-19 地図に基づいた制御

Country Status (6)

Country Link
US (1) US20130128050A1 (ja)
EP (1) EP2783508A1 (ja)
JP (1) JP6109185B2 (ja)
CN (1) CN104106260B (ja)
AU (1) AU2012340862B2 (ja)
WO (1) WO2013078119A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170012717A (ko) * 2015-07-22 2017-02-03 홍의재 영상정보를 기반으로 공간상의 위치정보를 생성하는 방법 및 그 장치
JPWO2014192441A1 (ja) * 2013-05-31 2017-02-23 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2017107407A (ja) * 2015-12-10 2017-06-15 株式会社メガチップス 画像処理装置、制御プログラム及び前景画像特定方法
JP2018523234A (ja) * 2016-03-18 2018-08-16 シェンチェン ユニバーシティー 乗客の混雑度の算出方法及びそのシステム
KR20200098194A (ko) * 2019-02-12 2020-08-20 한화테크윈 주식회사 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법
KR20200100988A (ko) * 2019-02-19 2020-08-27 한화테크윈 주식회사 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법
JP2022069339A (ja) * 2020-10-23 2022-05-11 横河電機株式会社 装置、システム、方法およびプログラム
KR102398280B1 (ko) * 2021-10-08 2022-05-16 한아름 관심 영역에 대한 영상을 제공하기 위한 장치 및 방법

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286678B2 (en) 2011-12-28 2016-03-15 Pelco, Inc. Camera calibration using feature identification
EP2645701A1 (en) * 2012-03-29 2013-10-02 Axis AB Method for calibrating a camera
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9639964B2 (en) * 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
KR102077498B1 (ko) * 2013-05-13 2020-02-17 한국전자통신연구원 상호 기하 관계가 고정된 카메라 군의 이동 경로 추출 장치 및 방법
JP6159179B2 (ja) * 2013-07-09 2017-07-05 キヤノン株式会社 画像処理装置、画像処理方法
US9060103B2 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell security and safety
US9237318B2 (en) 2013-07-26 2016-01-12 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9113052B1 (en) 2013-07-26 2015-08-18 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9065987B2 (en) 2013-07-26 2015-06-23 SkyBell Technologies, Inc. Doorbell communication systems and methods
US20170263067A1 (en) 2014-08-27 2017-09-14 SkyBell Technologies, Inc. Smart lock systems and methods
US9049352B2 (en) 2013-07-26 2015-06-02 SkyBell Technologies, Inc. Pool monitor systems and methods
US9196133B2 (en) 2013-07-26 2015-11-24 SkyBell Technologies, Inc. Doorbell communication systems and methods
US11889009B2 (en) 2013-07-26 2024-01-30 Skybell Technologies Ip, Llc Doorbell communication and electrical systems
US9179107B1 (en) 2013-07-26 2015-11-03 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9197867B1 (en) 2013-12-06 2015-11-24 SkyBell Technologies, Inc. Identity verification using a social network
US10440165B2 (en) 2013-07-26 2019-10-08 SkyBell Technologies, Inc. Doorbell communication and electrical systems
US11764990B2 (en) 2013-07-26 2023-09-19 Skybell Technologies Ip, Llc Doorbell communications systems and methods
US9736284B2 (en) 2013-07-26 2017-08-15 SkyBell Technologies, Inc. Doorbell communication and electrical systems
US9118819B1 (en) 2013-07-26 2015-08-25 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9060104B2 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US8941736B1 (en) * 2013-07-26 2015-01-27 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10733823B2 (en) 2013-07-26 2020-08-04 Skybell Technologies Ip, Llc Garage door communication systems and methods
US9769435B2 (en) 2014-08-11 2017-09-19 SkyBell Technologies, Inc. Monitoring systems and methods
US9172922B1 (en) 2013-12-06 2015-10-27 SkyBell Technologies, Inc. Doorbell communication systems and methods
US11909549B2 (en) 2013-07-26 2024-02-20 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US9230424B1 (en) 2013-12-06 2016-01-05 SkyBell Technologies, Inc. Doorbell communities
US20180343141A1 (en) 2015-09-22 2018-11-29 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9247219B2 (en) 2013-07-26 2016-01-26 SkyBell Technologies, Inc. Doorbell communication systems and methods
US8953040B1 (en) 2013-07-26 2015-02-10 SkyBell Technologies, Inc. Doorbell communication and electrical systems
US9179108B1 (en) 2013-07-26 2015-11-03 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9172920B1 (en) 2014-09-01 2015-10-27 SkyBell Technologies, Inc. Doorbell diagnostics
US10044519B2 (en) 2015-01-05 2018-08-07 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10204467B2 (en) 2013-07-26 2019-02-12 SkyBell Technologies, Inc. Smart lock systems and methods
US11651665B2 (en) 2013-07-26 2023-05-16 Skybell Technologies Ip, Llc Doorbell communities
US9172921B1 (en) 2013-12-06 2015-10-27 SkyBell Technologies, Inc. Doorbell antenna
US11004312B2 (en) 2015-06-23 2021-05-11 Skybell Technologies Ip, Llc Doorbell communities
US10708404B2 (en) 2014-09-01 2020-07-07 Skybell Technologies Ip, Llc Doorbell communication and electrical systems
US8937659B1 (en) 2013-07-26 2015-01-20 SkyBell Technologies, Inc. Doorbell communication and electrical methods
US9058738B1 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10672238B2 (en) 2015-06-23 2020-06-02 SkyBell Technologies, Inc. Doorbell communities
US9342936B2 (en) 2013-07-26 2016-05-17 SkyBell Technologies, Inc. Smart lock systems and methods
US9013575B2 (en) 2013-07-26 2015-04-21 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9094584B2 (en) 2013-07-26 2015-07-28 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9142214B2 (en) 2013-07-26 2015-09-22 SkyBell Technologies, Inc. Light socket cameras
US9160987B1 (en) 2013-07-26 2015-10-13 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9179109B1 (en) 2013-12-06 2015-11-03 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9113051B1 (en) 2013-07-26 2015-08-18 SkyBell Technologies, Inc. Power outlet cameras
US20150109436A1 (en) * 2013-10-23 2015-04-23 Safeciety LLC Smart Dual-View High-Definition Video Surveillance System
US20150128045A1 (en) * 2013-11-05 2015-05-07 Honeywell International Inc. E-map based intuitive video searching system and method for surveillance systems
CN104657940B (zh) * 2013-11-22 2019-03-15 中兴通讯股份有限公司 畸变图像校正复原与分析报警的方法和装置
US9253455B1 (en) 2014-06-25 2016-02-02 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9799183B2 (en) 2013-12-06 2017-10-24 SkyBell Technologies, Inc. Doorbell package detection systems and methods
US9786133B2 (en) 2013-12-06 2017-10-10 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9743049B2 (en) 2013-12-06 2017-08-22 SkyBell Technologies, Inc. Doorbell communication systems and methods
CN106164882A (zh) * 2014-01-29 2016-11-23 英特尔公司 辅助显示机构
WO2015122161A1 (ja) * 2014-02-14 2015-08-20 日本電気株式会社 映像解析システム
US10687029B2 (en) 2015-09-22 2020-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9888216B2 (en) 2015-09-22 2018-02-06 SkyBell Technologies, Inc. Doorbell communication systems and methods
US20170085843A1 (en) 2015-09-22 2017-03-23 SkyBell Technologies, Inc. Doorbell communication systems and methods
US11184589B2 (en) 2014-06-23 2021-11-23 Skybell Technologies Ip, Llc Doorbell communication systems and methods
KR101645959B1 (ko) * 2014-07-29 2016-08-05 주식회사 일리시스 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
CN104284148A (zh) * 2014-08-07 2015-01-14 国家电网公司 一种基于变电站视频系统的全站地图系统及其拼接方法
US9997036B2 (en) 2015-02-17 2018-06-12 SkyBell Technologies, Inc. Power outlet cameras
JP6465600B2 (ja) * 2014-09-19 2019-02-06 キヤノン株式会社 映像処理装置および映像処理方法
EP3016106A1 (en) * 2014-10-27 2016-05-04 Thomson Licensing Method and apparatus for preparing metadata for review
US9454907B2 (en) 2015-02-07 2016-09-27 Usman Hafeez System and method for placement of sensors through use of unmanned aerial vehicles
US9454157B1 (en) 2015-02-07 2016-09-27 Usman Hafeez System and method for controlling flight operations of an unmanned aerial vehicle
US10742938B2 (en) 2015-03-07 2020-08-11 Skybell Technologies Ip, Llc Garage door communication systems and methods
CN106033612B (zh) * 2015-03-09 2019-06-04 杭州海康威视数字技术股份有限公司 一种目标跟踪方法、装置和系统
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
US11575537B2 (en) 2015-03-27 2023-02-07 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US11381686B2 (en) 2015-04-13 2022-07-05 Skybell Technologies Ip, Llc Power outlet cameras
US11641452B2 (en) 2015-05-08 2023-05-02 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US20180047269A1 (en) 2015-06-23 2018-02-15 SkyBell Technologies, Inc. Doorbell communities
US10706702B2 (en) 2015-07-30 2020-07-07 Skybell Technologies Ip, Llc Doorbell package detection systems and methods
WO2017038450A1 (ja) * 2015-09-02 2017-03-09 日本電気株式会社 監視システム、監視ネットワーク構築方法、およびプログラム
US9418546B1 (en) * 2015-11-16 2016-08-16 Iteris, Inc. Traffic detection with multiple outputs depending on type of object detected
TWI587246B (zh) * 2015-11-20 2017-06-11 晶睿通訊股份有限公司 影像物件判別方法及其具有影像物件判別功能的攝影系統
US10638092B2 (en) * 2016-03-31 2020-04-28 Konica Minolta Laboratory U.S.A., Inc. Hybrid camera network for a scalable observation system
US10375399B2 (en) 2016-04-20 2019-08-06 Qualcomm Incorporated Methods and systems of generating a background picture for video coding
US10043332B2 (en) 2016-05-27 2018-08-07 SkyBell Technologies, Inc. Doorbell package detection systems and methods
US9955061B2 (en) 2016-08-03 2018-04-24 International Business Machines Corporation Obtaining camera device image data representing an event
US10163008B2 (en) * 2016-10-04 2018-12-25 Rovi Guides, Inc. Systems and methods for recreating a reference image from a media asset
WO2018087545A1 (en) * 2016-11-08 2018-05-17 Staffordshire University Object location technique
JP2020503604A (ja) * 2016-12-05 2020-01-30 アビギロン コーポレイションAvigilon Corporation 外観検索のシステムおよび方法
US10679669B2 (en) * 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
EP3385747B1 (en) * 2017-04-05 2021-03-31 Axis AB Method, device and system for mapping position detections to a graphical representation
US10157476B1 (en) * 2017-06-15 2018-12-18 Satori Worldwide, Llc Self-learning spatial recognition system
US10909825B2 (en) 2017-09-18 2021-02-02 Skybell Technologies Ip, Llc Outdoor security systems and methods
US10546197B2 (en) 2017-09-26 2020-01-28 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of video image data using machine learning
CN114222096A (zh) * 2017-10-20 2022-03-22 杭州海康威视数字技术股份有限公司 数据传输方法及摄像机、电子设备
US10950003B2 (en) 2018-03-29 2021-03-16 Pelco, Inc. Method of aligning two separated cameras matching points in the view
US10628706B2 (en) * 2018-05-11 2020-04-21 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of sensor data and generating spatial intelligence using machine learning
US10931863B2 (en) 2018-09-13 2021-02-23 Genetec Inc. Camera control system and method of controlling a set of cameras
US11933626B2 (en) * 2018-10-26 2024-03-19 Telenav, Inc. Navigation system with vehicle position mechanism and method of operation thereof
US11195067B2 (en) 2018-12-21 2021-12-07 Ambient AI, Inc. Systems and methods for machine learning-based site-specific threat modeling and threat detection
US11443515B2 (en) 2018-12-21 2022-09-13 Ambient AI, Inc. Systems and methods for machine learning enhanced intelligent building access endpoint security monitoring and management
WO2020232139A1 (en) * 2019-05-13 2020-11-19 Hole-In-One Media, Inc. Autonomous activity monitoring system and method
CN112084166A (zh) * 2019-06-13 2020-12-15 上海杰之能软件科技有限公司 样本数据的建立、数据模型的训练方法及装置、终端
CN110505397B (zh) * 2019-07-12 2021-08-31 北京旷视科技有限公司 相机选择的方法、装置及计算机存储介质
US11074790B2 (en) 2019-08-24 2021-07-27 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US11328565B2 (en) * 2019-11-26 2022-05-10 Ncr Corporation Asset tracking and notification processing
EP3836538B1 (en) * 2019-12-09 2022-01-26 Axis AB Displaying a video stream
US11593951B2 (en) * 2020-02-25 2023-02-28 Qualcomm Incorporated Multi-device object tracking and localization
US11683453B2 (en) * 2020-08-12 2023-06-20 Nvidia Corporation Overlaying metadata on video streams on demand for intelligent video analysis
US11869239B2 (en) * 2020-08-18 2024-01-09 Johnson Controls Tyco IP Holdings LLP Automatic configuration of analytics rules for a camera

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130783A (ja) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd 分散映像監視装置
JPH10262176A (ja) * 1997-03-19 1998-09-29 Teiichi Okochi 映像形成方法
JP2000224457A (ja) * 1999-02-02 2000-08-11 Canon Inc 監視システムおよびその制御方法およびそのプログラムを記憶した記憶媒体
JP2001094968A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP2001319218A (ja) * 2000-02-29 2001-11-16 Hitachi Ltd 画像監視装置
JP2003324723A (ja) * 2002-05-02 2003-11-14 Sony Corp モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
JP2006033380A (ja) * 2004-07-15 2006-02-02 Hitachi Kokusai Electric Inc 監視システム
JP2007209008A (ja) * 2003-10-21 2007-08-16 Matsushita Electric Ind Co Ltd 監視装置
US20080192116A1 (en) * 2005-03-29 2008-08-14 Sportvu Ltd. Real-Time Objects Tracking and Motion Capture in Sports Events
WO2009110417A1 (ja) * 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
CA2540587A1 (en) * 2003-10-09 2005-04-14 Moreton Bay Corporation Pty Ltd System and method for image monitoring
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
US8098290B2 (en) * 2004-01-30 2012-01-17 Siemens Corporation Multiple camera system for obtaining high resolution images of objects
KR100568237B1 (ko) * 2004-06-10 2006-04-07 삼성전자주식회사 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법
US8289390B2 (en) * 2004-07-28 2012-10-16 Sri International Method and apparatus for total situational awareness and monitoring
US20060072014A1 (en) * 2004-08-02 2006-04-06 Geng Z J Smart optical sensor (SOS) hardware and software platform
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
US8026945B2 (en) * 2005-07-22 2011-09-27 Cernium Corporation Directed attention digital video recordation
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
JP4318724B2 (ja) * 2007-02-14 2009-08-26 パナソニック株式会社 監視カメラ及び監視カメラ制御方法
US7777783B1 (en) * 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
KR100883065B1 (ko) * 2007-08-29 2009-02-10 엘지전자 주식회사 모션 검출에 의한 녹화 제어장치 및 방법
US20090079831A1 (en) * 2007-09-23 2009-03-26 Honeywell International Inc. Dynamic tracking of intruders across a plurality of associated video screens
CA2707104C (en) * 2007-11-30 2018-06-19 Searidge Technologies Inc. Airport target tracking system
US8237791B2 (en) * 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
US8488001B2 (en) * 2008-12-10 2013-07-16 Honeywell International Inc. Semi-automatic relative calibration method for master slave camera control
TWI492188B (zh) * 2008-12-25 2015-07-11 Univ Nat Chiao Tung 利用多攝影機自動偵測與追蹤多目標的方法及系統
CN101604448B (zh) * 2009-03-16 2015-01-21 北京中星微电子有限公司 一种运动目标的测速方法和系统
GB2477793A (en) * 2010-02-15 2011-08-17 Sony Corp A method of creating a stereoscopic image in a client device
US9600760B2 (en) * 2010-03-30 2017-03-21 Disney Enterprises, Inc. System and method for utilizing motion fields to predict evolution in dynamic scenes
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
CN102148965B (zh) * 2011-05-09 2014-01-15 厦门博聪信息技术有限公司 多目标跟踪特写拍摄视频监控系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130783A (ja) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd 分散映像監視装置
JPH10262176A (ja) * 1997-03-19 1998-09-29 Teiichi Okochi 映像形成方法
JP2000224457A (ja) * 1999-02-02 2000-08-11 Canon Inc 監視システムおよびその制御方法およびそのプログラムを記憶した記憶媒体
JP2001094968A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP2001319218A (ja) * 2000-02-29 2001-11-16 Hitachi Ltd 画像監視装置
JP2003324723A (ja) * 2002-05-02 2003-11-14 Sony Corp モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
JP2007209008A (ja) * 2003-10-21 2007-08-16 Matsushita Electric Ind Co Ltd 監視装置
JP2006033380A (ja) * 2004-07-15 2006-02-02 Hitachi Kokusai Electric Inc 監視システム
US20080192116A1 (en) * 2005-03-29 2008-08-14 Sportvu Ltd. Real-Time Objects Tracking and Motion Capture in Sports Events
WO2009110417A1 (ja) * 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014192441A1 (ja) * 2013-05-31 2017-02-23 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
KR20170012717A (ko) * 2015-07-22 2017-02-03 홍의재 영상정보를 기반으로 공간상의 위치정보를 생성하는 방법 및 그 장치
KR101710860B1 (ko) * 2015-07-22 2017-03-02 홍의재 영상정보를 기반으로 공간상의 위치정보를 생성하는 방법 및 그 장치
JP2017107407A (ja) * 2015-12-10 2017-06-15 株式会社メガチップス 画像処理装置、制御プログラム及び前景画像特定方法
JP2018523234A (ja) * 2016-03-18 2018-08-16 シェンチェン ユニバーシティー 乗客の混雑度の算出方法及びそのシステム
KR20200098194A (ko) * 2019-02-12 2020-08-20 한화테크윈 주식회사 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법
KR102252662B1 (ko) * 2019-02-12 2021-05-18 한화테크윈 주식회사 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법
KR20200100988A (ko) * 2019-02-19 2020-08-27 한화테크윈 주식회사 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법
KR102528983B1 (ko) * 2019-02-19 2023-05-03 한화비전 주식회사 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법
JP2022069339A (ja) * 2020-10-23 2022-05-11 横河電機株式会社 装置、システム、方法およびプログラム
JP7415872B2 (ja) 2020-10-23 2024-01-17 横河電機株式会社 装置、システム、方法およびプログラム
KR102398280B1 (ko) * 2021-10-08 2022-05-16 한아름 관심 영역에 대한 영상을 제공하기 위한 장치 및 방법

Also Published As

Publication number Publication date
AU2012340862B2 (en) 2016-12-22
JP6109185B2 (ja) 2017-04-05
CN104106260B (zh) 2018-03-13
US20130128050A1 (en) 2013-05-23
WO2013078119A1 (en) 2013-05-30
CN104106260A (zh) 2014-10-15
EP2783508A1 (en) 2014-10-01
AU2012340862A1 (en) 2014-06-05

Similar Documents

Publication Publication Date Title
JP6109185B2 (ja) 地図に基づいた制御
CN110400352B (zh) 利用特征识别的摄像机校准
CN105830092B (zh) 用于数字合成及/或检索的系统、方法及设备
CN107256377B (zh) 用于检测视频中的对象的方法、设备和系统
JP4643766B1 (ja) 移動体検出装置及び移動体検出方法
KR101870902B1 (ko) 영상 처리 장치 및 영상 처리 방법
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
JP4915655B2 (ja) 自動追尾装置
CN116018616A (zh) 保持帧中的目标对象的固定大小
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
CN108665476B (zh) 一种行人跟踪方法以及电子设备
US9105104B2 (en) Image processing apparatus,image processing method, and program
CN107408303A (zh) 用于对象跟踪的系统和方法
EP2555163B1 (en) Image processing apparatus, image processing method, and program
JP2019029935A (ja) 画像処理装置およびその制御方法
JP2018197945A (ja) 障害物検出装置および障害物検出方法
Benedek et al. An integrated 4D vision and visualisation system
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Kaur Background subtraction in video surveillance
JP2012226403A (ja) 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム
JP3616355B2 (ja) コンピュータによる画像処理方法と画像処理装置
JP2020086961A (ja) 画像解析装置、撮影装置、画像解析方法、及び、プログラム
US11908197B2 (en) Information processing apparatus, information processing method, and storage medium
JP2015194911A (ja) 移動体検出装置、移動体検出方法、移動体検出システムおよびカメラ
JP2024035625A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170307

R150 Certificate of patent or registration of utility model

Ref document number: 6109185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees