JP4541316B2 - 映像監視検索システム - Google Patents

映像監視検索システム Download PDF

Info

Publication number
JP4541316B2
JP4541316B2 JP2006105466A JP2006105466A JP4541316B2 JP 4541316 B2 JP4541316 B2 JP 4541316B2 JP 2006105466 A JP2006105466 A JP 2006105466A JP 2006105466 A JP2006105466 A JP 2006105466A JP 4541316 B2 JP4541316 B2 JP 4541316B2
Authority
JP
Japan
Prior art keywords
processing unit
search
metadata
block
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006105466A
Other languages
English (en)
Other versions
JP2007280043A (ja
Inventor
和也 佐藤
哲司 羽下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006105466A priority Critical patent/JP4541316B2/ja
Priority to US11/538,938 priority patent/US7627199B2/en
Priority to GB0620330A priority patent/GB2436904B/en
Publication of JP2007280043A publication Critical patent/JP2007280043A/ja
Application granted granted Critical
Publication of JP4541316B2 publication Critical patent/JP4541316B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Description

この発明は、監視カメラから入力される映像を所定の条件で監視すると共に、記録した映像を所定の条件で検索する映像監視検索システムに関するものである。
不審者や犯罪者から人や施設を守るセキュリティ用途等に利用される映像監視システムにおいて、多数のカメラ映像を監視員が長時間にわたった常時目視による監視を行うことは非常に負荷が高く効率が悪い。そこで、何か特定のイベントが発生した場面を特許文献3に示されるような画像処理によって抽出し、監視員に注意を促すための情報を提示するシステムの工夫が様々になされている。具体的には、入力される映像から画像処理によって人物等の移動物体を抽出し、この移動体が予め映像画面上で指定された領域に侵入し、指定時間以上滞留を行ったとき等に発報を行う侵入監視システム等がある。
これらのシステムでは、一般的に、予め指定された条件での検出をリアルタイムに行った際の検出結果を記録することによって後から再度検出結果リストを出力し直すことは可能であっても、後からこれら検出位置や滞留時間等の条件を変えて再検索ができるものは少ないと思われる。しかし、特許文献1では、映像から抽出された移動物体を追跡してその移動情報を記録しているため、この記録された時空間情報に対して後から条件を変えて検索をし直すことは可能と考えられる。
また、特許文献2の場合、映像表示画面を複数の区分領域に分割し、映像から抽出された移動物体を追跡して、その移動軌跡情報を区分領域単位で持ち表示する方法が提示されており、軌跡情報を表示する機能としては高速に動作すると考えられる。
特許文献1に記されている監視システムでは、移動物体の軌跡情報の保持方法として、各画像での物体の存在位置を全てアルファマップとして保持したり、軌跡情報をスプライン関数で近似してその係数を保持したりする方法を挙げている。しかし、前者の方法で情報を保持することは、画像処理等による移動物体の抽出結果イメージを実質全て保存することになることから、非常に大きなサイズの情報を保持する必要がある。また、後者の場合、画面上を複雑に行き来する移動物体の軌跡情報を一般的に数式で表現するためには、非常に複雑な計算が必要であり、入力されるライブ映像に対してリアルタイムに解析を行う場合等、処理負荷を軽くしなければ追従できないような場合には実現が困難な場合がある。また、検索を行う際にも、各々の移動物体が検索条件に合致するかどうかの判定を複雑な高次多項式演算によって処理しなければならず、大量のデータに対する検索を高速に行うことは困難な場合がある。
一方、特許文献2に記されている監視システムでは、移動物体の軌跡情報の保持方法として、映像表示画面を複数の区分領域に分割してその移動軌跡情報を区分領域単位で持つとしており、比較的軽い処理で情報処理ができる可能性がある。しかし、この場合、区分領域毎の滞留時間に関連する情報は保持されるが、それ以外の情報についての記述はなく、また、滞留時間に関する情報も情報の表示方法に関する内容は記述されているものの、条件検索に関する内容の記述はない。
特開2004−64438号公報(段落番号0016〜0020) 特許第3601951号公報(段落番号0020〜0029) 特開平6−22318号公報(段落番号0006〜0009)
従来の映像監視検索システムは以上のように構成されているので、高速に処理することができず、映像監視業務の効率を高めることができないという課題があった。
この発明は上記のような課題を解決するためになされたもので、高速に処理することができ、映像監視業務の効率を高めることができる映像監視検索システムを得ることを目的とする。
この発明に係る映像監視検索システムは、映像データを入力する映像入力部と、該映像データの画像フレームを複数のブロック領域に分割し、各画像フレームから個々の物体を検出し、複数の画像フレームにおける離散的な位置の一連の同一物体を1つのオブジェクトとして抽出し、上記オブジェクトの移動軌跡情報を、この移動軌跡が通過する各ブロック領域にオブジェクトの特徴と共に配分して上記各ブロック領域毎のメタデータとして抽出するオブジェクト処理部と、上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータを記憶するメタデータ記憶部と、リアルタイム検知条件又は事後検索条件を入力する条件入力部と、上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータと上記条件入力部に入力されたリアルタイム検知条件とを照合し、上記リアルタイム検知条件に合致するオブジェクトを検知するリアルタイム検知処理部と、上記メタデータ記憶部に記憶されている上記各ブロック領域毎のメタデータと上記条件入力部に入力された事後検索条件とを照合し、上記事後検索条件に合致するオブジェクトを検索する事後検索処理部と、上記リアルタイム検知処理部により検知されたオブジェクト又は上記事後検索処理部により検索されたオブジェクトを表示する表示部とを備えたものである。
この発明により、高速に処理することができ、映像監視業務の効率を高めることができるという効果が得られる。
実施の形態1.
図1はこの発明の実施の形態1による映像監視検索システムの構成を示すブロック図である。この映像監視検索システムは、映像入力部10、映像記憶部20、オブジェクト処理部30、メタデータ記憶部40、条件入力部50、リアルタイム検知処理部60、事後検索処理部70及び表示部80を備えており、パソコンやワークステーションのように、コンピュータによって処理が実行される環境において構築されるものである。ただし、図1における各構成のうちの一部が物理的に離れた所に存在し、LAN(Local Area Network)や公衆回線等の通信機能を介した遠隔地にて処理を継続するという構成を取る場合もある。
映像入力部10は、ビデオカメラや映像記録再生装置、又はLANや公衆回線等のネットワークから伝送されてくる映像データの入力を受け付け、入力された映像データを後段の映像記憶部20とオブジェクト処理部30に転送する。一般には撮影対象をビデオカメラで映している現在のライブ映像の場合もあるし、過去に一度記録された映像を再生しているものが入力されることもある。
なお、映像入力部10は、アナログのビデオカメラのような機器から映像データが入力される場合は、A/D(Analog-Digital)変換機能を有している。一方、LAN等を経由して既にディジタル化された映像データが入力されるような場合には、A/D変換機能は不要であるが、物理的及び論理的なインターフェースとして対応する通信プロトコル処理を行い、映像データ部分のみを取り出す機能を有している。
映像記憶部20は、映像入力部10に入力された映像データを蓄積しておくもので、後で表示部80により結果表示を行う際に、元の映像データとして参照したり、表示された処理結果に基づき所望の時間帯の記録映像を再生したりする場合の映像ソースとして備えている。所望の時刻の情報にランダムアクセスしやすいように、HDD(Hard Disk Drive)やRAM(Random Access Memory)といった電子メディアによって実装すると良い。
オブジェクト処理部30は、映像入力部10により入力された映像データの画像フレームを複数のブロック領域に分割し、各画像フレームから個々の物体を検出し、複数の画像フレームにおける一連の同一物体を1つのオブジェクトとして抽出し、このオブジェクトの特徴(オブジェクトに関する関連情報)を各ブロック領域毎のメタデータとして抽出するもので、以下にその機能を説明する。なお、ここでは、オブジェクトとは、映像の中に映っている一連の同一人物や車両といった監視対象の個別単位となるものをいう。
オブジェクト処理部30は、オブジェクト抽出処理において、初めに、映像入力部10から転送された映像データ中に写っている個々の物体を背景画像から切り出し、さらに、同一の物体が複数の画像フレーム間に渡って写っている期間を認識して1つの映像期間単位にまとめると共に、この映像期間単位内に写っている一連の同一物体と認識したものを1つのオブジェクトとして関連づける。なお、以下では、画像フレームのことを単にフレームということもある。また、入力デバイスにより片フィールドだけの情報を用いる場合もあるが、ここでは総称してフレームと呼ぶことにする。
なお、映像からの物体の切り出しや同一物体が複数フレーム間に渡って写っていることの認識方法については、例えば特許文献3に見られるような画像差分抽出や、テンプレート探索といった画像処理技術を用いることによって自動的に行うことを一般には想定しているが、必要に応じて人手を介した処理を交えることも考えられる。
図2は移動体抽出の様子を説明する図であり、画像差分抽出を用いる方式の例として、入力画像とこの画像に対する背景モデル画像との差分から変化領域を抽出し、その変化領域の外接矩形領域や重心位置といった特徴量を抽出する。図2に示す例では、さらに変化領域の抽出結果をフィードバックして背景モデルを更新させている。
オブジェクト処理部30は、メタデータ抽出処理において、この1つの映像期間単位における対象オブジェクトの特徴をメタデータという形で抽出する。抽出する方法としては、上述のような画像処理技術を用いることにより、物体の面積や位置や移動軌跡といった特徴の抽出を自動的に行うことを一般には想定している。ただし、これについても必要に応じて人手を介した処理を交えることも考えられる。
このメタデータを抽出する際の値の保持方法として、この実施の形態1においては、特に移動軌跡情報に関して以下に示す方法をとるものとする。まず、映像入力部10から入力される映像画面を複数のブロック領域に分割し、オブジェクトの移動軌跡情報として各ブロック領域内におけるオブジェクトの進行方向、その進行方向に沿って移動した距離、その間の移動に要した時間の全て、いずれか一つ又は複数についての情報を、ブロック領域毎に保持する。
図3は移動軌跡情報に関するメタデータ保持方法の例を示す図である。ここでは、図3(a)に示すように、映像画面を横(X軸)方向にm個、縦(Y軸)方向にn個の計m×n個の矩形のブロック領域に分割し、図3(b)に示すように、各ブロック領域に相当する情報配列に進行方向、移動距離、移動時間に関する情報を保持する。このmとnの値については、撮影対象とカメラとの距離、カメラ画角、撮影対象の大きさや動きの速さ、あるいは求められる検索精度の高さ、さらには、メタデータを保持するために確保が必要なメモリサイズ等によって決定すれば良い。
また、この例では、各ブロック領域は矩形すなわち正方形を含む長方形を想定して説明するが、より一般的にはブロック領域の形は必ずしも矩形である必要はなく、六角形等、他の多角形で実現しても良い。また、進行方向の情報を保持する場合についてのブロック領域間の境界については、境界線を境にして隣同士のブロック領域が分かれるのでなく、一般に地図帳等での各ページの境で見られるように同じ領域が一部隣り合うブロックに重複して含まれるようにブロック領域の境界を決定しても良い。
図4はオブジェクト及びメタデータ抽出の様子を説明する図である。図4(a)に示すオブジェクト抽出では、入力された映像から画像処理によって5回に渡って検出された移動物体を、画面左下から画面右上に向かって移動した同一の移動物体であると判断し、これを一つのオブジェクトとして関連づけて抽出する。その際に、各々検出された各移動物体の領域に対して、その領域の重心点等、所定の定義を行った代表点を選択しておく。
次に図4(b)に示すオブジェクトの移動軌跡では、まず、映像画面を横(X軸)方向に8個、縦(Y軸)方向に6個の計48個のブロック領域に分割した上で、上述の各移動物体の領域に対する代表点間を順につないで移動軌跡を描く。
オブジェクトの各領域における代表点は、上記のように移動物体の領域の重心となる点を選択する方法の他、領域の下端や上端を選択する等、場合によって使い分けて良い。例えば、図4(a)に示すように、重心点を利用すれば画像処理による抽出精度のぶれが比較的安定する。また、領域の下端を利用してさらに適当な影除去処理等を組み合わせることにより、人物映像の場合はその足元を指定することになるため、撮影対象場所の平面上の位置が比較的把握しやすい。さらに、地面上に障害物があり移動物体の下部がしばしば障害物の陰に隠れることがある場合等には、領域の上端を利用することにより、比較的安定した移動軌跡を得ることができる。さらに、この移動物体の高さ情報が推定できる場合は、ここからさらに地面上の移動軌跡に投影することもできる。この他にも、例えば、人物の頭部形状モデル等を利用して人物オブジェクト追跡を行う場合等では、その頭部の中心位置を代表点に選択しても良い。
また、例えばこれら種類の異なる代表点を上端と下端といったように複数同時に用いて複数種類別々の情報として管理しても良いし、複数点を重複して管理しても良い。一つの代表点で管理する場合は、その管理と検索照合処理が簡単に行え、情報保持のためのメモリサイズも小さくて済むという利点がある。一方、複数点を別々に管理する場合には、上述のように人物オブジェクトの足元を追跡したり頭部を追跡したりと、場合によって都合の良い方の情報を利用できるという効果がある。また、複数点を重複して管理する場合は、オブジェクトの動きを単に点と線で表すだけでなく、オブジェクトそのものの大きさがもたらす移動軌跡の幅を持たせて表現できるという効果がある。ただし、この場合、後述する時間情報を積算して保持する場合は重複する分を差し引いて考える必要ある。
各代表点をつないで移動軌跡を描く方法として、図4(b)では、各移動物体で抽出された代表点を単純に折れ線グラフのように線分でつないでいく方法を示しており、非常に処理が単純で軽い負荷で実現が可能である。このような単純な接続でない方法として、例えば以下のような補正を行う場合もある。画像処理で抽出される各代表点は抽出時の画像処理の精度による誤差を含むことから、仮に真っ直ぐに移動する物体であっても、画像上で抽出される移動軌跡はギザギザな揺らぎが発生しがちなことから、ある代表点を定める際に、それより過去又は未来も含めた所定の数の位置座標と平均を取る等して、軌跡を平滑化することがある。あるいは、抽出される代表点はあくまでも離散的な位置でしか指定できない(図4では5カ所)ため、処理速度に余裕がある場合であれば、これら離散値を連続的に平滑化する曲線で近似しても良い。
このようにして生成された移動軌跡の情報を、図4(c)のブロック領域毎の移動軌跡の情報保持に示すように、各ブロック領域単位に分割して保持する。
図5はブロック領域単位での移動距離と移動時間を説明する図であり、ここでは、図4(b)のようにつないだ移動軌跡情報を、図4(c)のように各ブロック領域に分割する方法の例を示している。図5において、オブジェクトの移動軌跡として、まず、移動物体の代表点P0とP1の2点が示され、この間の軌跡は2点間を線分でつなぐものとしている。この軌跡が通過するブロック領域は図中のブロック領域1,2,3,4の4カ所である。この場合は与えられた移動軌跡情報の最小分解粒度がP0とP1という離散状態におけるそれぞれの座標位置とその時刻であり、この間における移動中の速度変化等はわからない。従ってここでは、P0P1間は等速直線移動を行ったと仮定し、P0P1間の距離を図中のΔL1とΔL2とΔL3とΔL4の長さの比率に配分し、2点間の距離(移動距離)とこの間の移動に要した時間(移動時間)を各々のブロック領域に配分する。ここで、ΔL1,ΔL2,ΔL3,ΔL4は、線分P0P1を各ブロック領域間の境界線との交点で切った際のそれぞれの長さである。
図6は進行方向情報の保持方法について説明する図である。図6(a)に示す例では、代表点P0,P1,P2の3点が与えられ、この間を2本の線分で間をつないで移動軌跡としている。この軌跡が通過するブロック領域は図中のブロック領域1からブロック領域5の5カ所である。図5の場合と同様に、線分P0P1と線分P1P2がそれぞれ各ブロック領域間の境界線との交点で切られてさらに短い線分となり、それぞれの領域内に入る軌跡の線分のそれぞれ方向を調べる。ブロック領域1,2,3には1本、ブロック領域4,5には2本の軌跡の線分が入ることになるが、ブロック領域5の場合は、オブジェクトの代表点P1の前後で進行方向が変わっているため、P1の前と後とで2本の軌跡の線分に分けたことによるものである。この図6に示す例にはないが、2回以上連続して同一ブロック領域内で進行方向が変わった場合も、同様に代表点の前後で軌跡の線分の数を増やしていくと良い。
図6(b)では、各ブロック領域について進行方向をここでは16分割したうちのどの方向にこれらの線分が入るかを調べたところ、ブロック領域1,2では方向1、ブロック領域3では方向7、ブロック領域4,5では方向1,7にそれぞれ入っている。
ブロック領域5のように、ブロック領域中で進行方向が変わる場合の進行方向情報の保持方法の定義として、この他にも例えば、最初にブロック領域間境界線と交差する部分の線分のみの情報(ブロック領域5の場合なら方向1)を保持するとか、最後に交差する線分のみの情報(ブロック領域5の場合なら方向7)を保持する等として簡略化しても良い。図6に示す例の定義の場合は、ブロック領域内のどこか一部で少しでも移動が見られた場合、その全ての方向がメタデータとして記録されることになる。一方、例えばブロック領域間境界線と移動軌跡と最初に交差する線分のみの情報を保持する場合は、ブロック領域内全てのうちのどこかで生じた進行方向ではなく、境界線上のどこかでその方向への進行が見られたものが記録されるということになる。
以上は離散的な複数の代表点間を線分で結んだ場合の例であるが、例えば連続的に平滑化する曲線で近似した場合も、曲線の移動軌跡が通過する各ブロック領域に対して同様の処理を行えば良い。ただし、この場合、軌跡とブロック領域間の境界線との交点と次の交点との間の進行方向は一般には常に変わるため、保存する進行方向情報については交点間を線分で結んだ方向に集約すると良い。移動距離や移動時間については曲線のまま評価しても良いし、ブロック領域境界線との交点と次の交点とを結ぶ線分で近似しても良い。
図7は進行方向情報のメタデータの保持方法の例を示す図である。図6におけるブロック領域1,2,3,4,5は、図7におけるブロック領域(X,Y)=(0,0),(1,0),(0,1),(1,1),(2,1)の領域にそれぞれ相当する。ただし、ブロック領域(X,Y)とは、図3(a)に示すように、画面を分割した場合の横軸(X)と縦軸(Y)について零から数えてそれぞれ何番目のブロックであるかを表現したものである。さらに、各ブロック領域において、この例では全方位360度を16分割した各方向について情報保持域を設けている。ブロック領域(0,0),(1,0)の場合は方向(Dir)が1に対してのみ移動があったため値を1とし、他の方向には値に0を入れている。ブロック領域(0,1)の場合は方向Dir=7に対してのみ値が1で他の方向には値に0を入れ、ブロック領域(1,1),(2,1)の場合は方向Dir=1と7に対してのみ値が1で他の方向には値に0が入る。1が入ることによってその領域内におけるその方向に対する移動が含まれていたことを表し、値が0の方向には移動がなかったことを表す。
この値については、例えば一度でもその方向に移動があったかどうかを0か1かの二値情報で保持しても良いし、移動があった回数だけ値を加算していく等して、各方向への移動検知回数を保持しても良い。前者の場合は保持データサイズを小さくすることができる利点があるが、後者の場合では各領域上を移動した頻度等の情報を併せて持つことができる。
さらには、進行方向情報と移動距離情報又は移動時間情報とを併せた形で情報保持できるよう、移動が見られた回数を加算していくのではなく、移動距離又は移動時間を加算して保持するようにしても良い。このようなデータ保持方法を取ることによってトータルのデータサイズを小さくすることができる。
これらの実施例において、画面をブロック領域に分割する際の分割数や、各ブロック領域中の進行方向情報を保持するための角度の分割数については、細かく分割するほど精度の良い移動軌跡情報が保持できるという効果があるが、一方、粗く分割することによって保持すべきメタデータサイズを小さくできたり、照合判定の際の処理が簡単にできたりする等の効果がある。
メタデータ記憶部40は、オブジェクト処理部30により抽出された各ブロック領域毎のメタデータを記憶するが、後続の処理がしやすい形で保持すれば良く、例えばファイルシステムを持つコンピュータを利用するような場合には、メタデータファイルとして保存する等の方法をとると良い。
記憶されるメタデータとしては、オブジェクトがどの位置をどのように通過していったかという進行方向や移動距離、その際の滞留状況としての移動時間情報の他、一般的に移動軌跡に関係する情報で検索し表示を行うシステムを構築するために有効な情報を複数保持して良い。例えば1つのオブジェクトが映像に写り始めた時点である先頭フレーム情報や、オブジェクトが最後に写っている最終フレーム情報や、該当映像期間単位内にそのオブジェクトが最大の面積で写っているときとか、オブジェクトが人間の場合なら顔が最も良く写っているときといったような条件にあてはまる特定の代表フレーム情報等がある。なお、ここでのフレーム情報とは、該当フレームを特定するポインタ情報であって、フレーム番号やタイムスタンプ等によって表現する。
また、オブジェクトそのものの特徴として、オブジェクトの期間内における平均的な大きさ、高さ、幅、縦横比といった形状や色情報といったものも挙げられる。さらに、詳細な情報の例としては、オブジェクトが写っている各フレーム単位における、オブジェクトが写っている画面上の位置座標情報、オブジェクト領域部分すなわちオブジェクトが例えば人である場合には、人の形をした領域のビットマップ情報等がある。なお、位置座標情報における位置とは、例えば、重心や最下部、最上部等で定義される代表点位置、オブジェクトに外接する楕円形や四角形等の閉曲線、オブジェクトの面積のある割合を領域内に含む楕円形や四角形等の閉曲線等を対象とした位置である。
また、上述のような画像処理から直接導かれる特徴量に対して、間接的な特徴量としてのメタデータの一例を以下に挙げる。映像中より抽出されたオブジェクトがその形状や動作の特徴を基にして、例えば人なのか車なのかといったといった種類分けや、人の場合に立っているのか寝ているのかといった姿勢状態や、さらに例えば人の場合に体型や顔の形状等から人種や性別や年齢といった情報等が考えられる。あるいは、人の顔の形状等の特徴を基に予めシステムに登録されている個人を特定できたり、映像データ情報とは別に、個人IDを識別するIDカードやタグ等から個人を特定する情報が得られたりする場合には、対象オブジェクトが持っている個人IDや名称をメタデータとして持つことも考えられる。これらの特徴を抽出するには、通常は、専用の画像処理アルゴリズムをオブジェクト処理部内に持つことになるが、場合によっては人手を介した処理を交えることも考えられる。
条件入力部50は、リアルタイム検知を行う場合には、ユーザからリアルタイム検知条件を入力してリアルタイム検知処理部60に転送し、事後検索を行う場合には、ユーザから事後検索条件を入力して事後検索処理部70に転送する。入力の仕方としては、例えば、キーボードやマウス、タッチパネル等を使う一般のパソコン等に見られるユーザインタフェースや、専用のボタンやダイヤル等の入力装置を介して行う。
リアルタイム検知処理部60は、オブジェクト処理部30により抽出された各ブロック領域毎のメタデータと条件入力部50から転送されたリアルタイム検知条件とを照合し、リアルタイム検知条件に合致するオブジェクトを検知して表示部80に転送することにより、オブジェクト検知イベントをリアルタイムに出力する。
ここで、リアルタイム検知条件としてのオブジェクトの滞留時間の例を説明する。
図8は指定領域内のオブジェクトの滞留時間を説明する図である。ここでは、画面中の指定領域内で指定時間以上滞留するオブジェクトを検知する方法を説明する。図8の点線で示している画面上の2点(Xs,Ys),(Xe,Ye)をそれぞれ左上、右下とする矩形領域において、例えば指定時間の下限値として“10秒以上”滞留しているオブジェクトを検知するよう設定が行われたとする。滞留時間に関する情報は、メタデータの中でブロック領域毎に移動時間を加算していく累計値で保持しているため、この指定された矩形領域を完全に含む状態にできるブロック領域を対象として、ブロック領域(1,1),(2,1),(3,1),(4,1),(1,2),(2,2),(3,2),(4,2),(1,3),(2,3),(3,3),(4,3),(1,4),(2,4),(3,4),(4,4)の合計16ブロック領域におけるオブジェクトの通過時間情報を監視しておき、この累計値が10秒を超えた時点で条件合致となる。
保持する情報の分解能がブロック領域単位であるため、指定矩形領域とブロック領域の境界線とが一致しない部分についての取り扱い方法については、例えば、この他にもブロック領域が逆に完全に指定矩形領域に含まれるものだけを対象として、ブロック領域(2,2),(3,2),(2,3),(3,3)の4ブロック領域を監視対象とすると定義しても良いし、指定矩形領域に含まれる面積が各ブロック領域に占める割合が所定の値以上のものとしても良い。
滞留時間の下限だけでなく上限の値も含め、例えば“10秒以上20秒以下”の滞留時間であったオブジェクトを探すといった指定をした場合、リアルタイム検知の場合は、まだ移動軌跡情報が確定していない状態で条件判定を行うことから、オブジェクトが消失して移動軌跡が確定した段階での判定となる。
次にリアルタイム検知条件としてのオブジェクトの通過情報の例を説明する。
図9は指定領域でのオブジェクトの通過を説明する図である。ここでは、画面中の指定領域を指定方向に通過するオブジェクトを検知する方法を説明する。図9(a)の点線で示している、画面上の2点(Xs,Ys),(Xe、Ye)を結ぶ線分上を、画面向かって左から右方向に通過するオブジェクトを検知するよう設定が行われたとする。この指定された線分を完全に含む状態にできるブロック領域を対象として、ブロック領域(3,1),(3,2),(3,3),(3,4)の4ブロックにおけるオブジェクトの進行方向情報を監視しておき、どこか一つでも指定方向の進行が検知されたブロック領域が見つかった時点で条件合致とすれば良い。
さらに、方向に関する条件合致判定方法の例について、図9(b)は監視しているブロック領域内を進行方向情報として16分割で管理されている場合のイメージ図である。図9(a)の点線で指定された線分を左側から右側への通過という条件を指定された場合、この線分の法線方向を通過方向と考えると、図9(b)の中央にある矢印が指定進行方向となる。従って方向0の範囲の進行が見つかった時点でイベント検知とする方法がある。ただ分割角度が細かく設定されている場合等は、特に指定された点線の線分に対してほとんど垂直に近い角度で通過しなければ条件に合わないことになる。そこで指定された方向を中心に左右それぞれ所定の許容角度を設けても良い。例えば図9(b)では指定方向から左右各45度の許容範囲を与えた結果、太線で囲んだ範囲である方向14、方向15、方向0、方向1、方向2の範囲が監視対象となっている例である。
滞留時間検知の場合と同様に、進行方向情報の保持単位の分解能がブロック領域単位であるため、監視対象とするブロック領域の範囲については、指定された線分を完全に含む状態にできるための全てのブロック領域とする方法の他に、指定線分が各ブロック領域に対してある割合以上の長さを含むものを対象とする等の定義としても良い。
次にリアルタイム検知条件としてのオブジェクトの移動距離の例を説明する。
図8では先に指定領域内のオブジェクトの滞留時間についての条件例について述べたが、メタデータとして、ブロック領域毎にオブジェクトの移動距離情報を格納している場合には、指定領域内で指定の長さ以上に移動を行ったオブジェクトを検知するという条件設定も同様に説明できる。すなわち、図中の点線で示している、画面上の2点(Xs,Ys),(Xe,Ye)をそれぞれ左上、右下とする矩形領域において、例えば指定距離として“100画素以上”の移動を行ったオブジェクトを検知するよう設定が行われたとする。ここで距離の単位として画素というものを用いたが、これは画面サイズが例えば横(X軸方向)640画素、縦(Y軸方向)480画素といったような単位で表せる場合に、オブジェクトが映像画面上を移動した移動量を画素数単位で表現したものである。
移動距離に関する情報は、滞留時間に関する情報と同様に、メタデータの中でブロック領域毎に移動量を加算していく累計値で保持しているため、この指定された矩形領域を完全に含む状態にできるブロック領域を対象として、ブロック領域(1,1),(2,1),(3,1),(4,1),(1,2),(2,2),(3,2),(4,2),(1,3),(2,3),(3,3),(4,3),(1,4),(2,4),(3,4),(4,4)の合計16ブロック領域におけるオブジェクトの移動量情報を監視しておき、この累計値が100画素分を超えた時点で条件合致となる。
情報の分解能がブロック領域単位であるため、指定矩形領域とブロック領域の境界線とが一致しない部分の定義方法については、例えばこの他にも、ブロック領域が完全に指定矩形領域に含まれるものだけを対象として、ブロック領域(2,2),(3,2),(2,3),(3,3)の4ブロック領域を監視対象とするよう定義しても良いし、指定矩形領域に含まれる面積の各ブロック領域の面積に対して占める割合が所定の値以上のものとしても良い。
移動距離の下限だけでなく上限の値も含め、例えば“100画素以上200画素以下”の移動量であったオブジェクトを検索するといった指定をした場合、リアルタイム検知の場合は、まだ移動軌跡情報が確定していない状態で条件判定を行うことから、オブジェクトが消失して移動軌跡が確定した段階での判定となる。
次にリアルタイム検知条件としてのオブジェクトの速度の例について説明する。
メタデータにブロック領域毎にオブジェクトの移動距離情報と移動時間情報が格納されている場合、この値の比をとることによりオブジェクトの平均の速度情報を計算することができるため、指定領域内で指定の速度以上で移動を行うオブジェクトを検知する方法も同様に図8で説明できる。図中の点線で示している、画面上の2点(Xs,Ys),(Xe,Ye)をそれぞれ左上、右下とする矩形領域において、例えば指定時間の下限値として“100画素毎秒以上”の速さで移動しているオブジェクトを検知するよう設定が行われたとする。
移動距離情報と移動時間情報は、同様にメタデータの中でブロック領域毎に通過時間を加算していく累計値で保持しているため、この指定された矩形領域を完全に含む状態にできるブロック領域を対象として、ブロック領域(1,1),(2,1),(3,1),(4,1),(1,2),(2,2),(3,2),(4,2),(1,3),(2,3),(3,3),(4,3),(1,4),(2,4),(3,4),(4,4)の合計16ブロック領域におけるオブジェクトの移動距離及び移動時間情報を監視しておき、この各々累計値同士の比が100画素毎秒を超えた時点で条件合致とするのが一つの方法である。ただし、この場合、オブジェクトの移動軌跡情報が確定した後に平均値を取ると100画素毎秒を超えない可能性があるために、事後検索を行う場合の再現性はない。完全に平均値で判定する場合は、オブジェクトが消失して移動軌跡が確定した段階での判定となる。
また、情報の分解能がブロック領域単位であるため、指定矩形領域とブロック領域の境界線とが一致しない部分の定義方法については、例えばこの他にもブロック領域が完全に指定矩形領域に含まれるものだけを対象として、ブロック領域(2,2),(3,2),(2,3),(3,3)の4ブロック領域を監視対象とすると定義しても良いし、指定矩形領域に含まれる面積の各ブロック領域の面積に対して占める割合が所定の値以上のものとしても良い。
また、速度の平均の取り方については、このように監視対象のブロック領域全体で平均をとるのでなく、監視対象の各ブロック領域内それぞれで平均をとって監視するという定義とする方法もある。
さらに、速度の下限だけでなく上限の値も含め、例えば“100画素毎秒以上200画素毎秒以下”の速度であったオブジェクトを検索するといった指定をする方法もある。
次にリアルタイム検知条件の組合せの例を説明する。
このような検知条件を複数設定し、それぞれを論理和や論理積といった論理演算で関係を規定し、組合せで使っても良い。例えば、複数の条件を論理和で判定すれば複数の条件のうちいずれか一つでも条件合致すれば良いことになり、論理積で判定すれば複数の条件を全て満たした時点で条件合致となる。また、これらをさらに高次に組み合わせて使っても良い。
図10はリアルタイム検知条件を複数指定する場合を説明する図であり、ここでは、オブジェクトの通過条件を複数指定する場合を示している。
例えば図10(a)の移動経路の指定に示すように、複数箇所に通過条件を設定し、これらを全て満たすことを条件とすれば、A地点からB地点へ移動してB地点からC地点へ移動するといった移動経路を持つオブジェクトを検出できる。また、通過条件の指定線分の長さを短くしたり組合せ数を増やしたりすることによって指定の経路を厳しく制限することができる。ただこの実施の形態1における進行方向情報は、各々の進行情報に発生時刻又は発生順序は必ずしも記録していないため、記録に残らないこれらの時刻情報又は順序情報は必ず用いることができるとは限らない。従って実際にはB地点からC地点へ移動した後にA地点へ移動して改めてB地点へ移動するといった複雑な動きをしたオブジェクトも上記の検索で見つかることになるが、所望の条件を満たすオブジェクトを全て含む以上に多めに検出されることなり、見逃しは生じない。
また、図10(b)の右折の指定に示すように、局所的に通過条件を組み合わせて論理積の条件設定とすれば、指定位置における“右折”、“左折”といった動きを定義することもできる。
複数条件の組合せ方法としては、さらにこれらを高次に組み合わせることにより、例えば“A地点を右方向に通過し、かつ領域B又は領域Cで10秒以上滞留していたオブジェクト”といった条件を任意に作ることができる。
事後検索処理部70は、オブジェクト処理部30で抽出されメタデータ記憶部40に記憶されている各ブロック領域毎のメタデータと条件入力部50から転送された事後検索条件とを照合し、事後検索条件に合致するオブジェクトを検索する。
例えば、図8で設定したようなオブジェクトの滞留時間を事後検索条件として設定した場合には、事後検索処理部70は、リアルタイム検知処理部60の場合と同様に、指定された領域から監視対象のブロック領域を決定し、その各ブロック領域内で保持している移動時間情報の合計値が、例えば10秒以上というように指定された滞留時間以上となっているオブジェクトを全て事後検索結果として抽出する。事後検索の場合、オブジェクトの移動軌跡情報は既に確定しているため、滞留時間の下限だけでなく上限の値も含め、例えば10秒以上20秒以下の滞留時間であったオブジェクトを検索するといった指定をしても良い。
事後検索処理部70による事後検索としては、同様のことがオブジェクトの移動距離や平均速度に関する検索方法でも言えるため、例えば移動距離が100画素以上200画素以下であったオブジェクトや、速度が100画素毎秒以上200画素毎秒以下であったオブジェクト、といった事後検索条件でも良い。
表示部80は、リアルタイム検知処理部60でイベント検知されたオブジェクトに関する情報を逐次追加表示していったり、事後検索処理部70で検索されたオブジェクトを一括表示したりする。この場合、表示部80はコンピュータシステムにおけるディスプレイ等の表示デバイスを用いた表示を行う。
表示の際には、該当するオブジェクトが映っている画像に移動軌跡情報を重畳したものを表示したり、リアルタイム検知や事後検索の際の条件として指定したブロック領域を重畳表示したりすることにより、各オブジェクトの行動が把握しやすく、検出された理由等が一目でわかる等の効果が得られる。また、ベースとする画像については、リアルタイム検知結果の場合は、リアルタイム検知条件に合致したイベント検知時点の画像とすることができる。さらに、事後検索結果の場合は、該当オブジェクトの出現時や消失時、又は映っている期間の中間の時刻といったように予め決めていても良いし、そのオブジェクトが最も大きく映っている時とか最も画面中央に映っている時とかのように、所定の条件を満たす画像がどれであるかをオブジェクト処理部30がメタデータに残す情報の一つとして判定させておく等の工夫もできる。
さらに、この表示部80が他の処理部と物理的に一体となったコンピュータシステム内で実現する場合ばかりでなく、一般的には例えば遠隔地にある別のコンピュータや携帯電話等の移動端末に結果を送信して表示するという構成でも良い。この場合、ユーザにとって遠隔地にあるカメラ映像を監視することができるという効果がある。
また、このようなリアルタイム検知や事後検索を行う他に、映像記憶部20による映像の記録が行われている場合、結果表示されたオブジェクトのリストの中から任意のオブジェクトを選択し、このオブジェクトが映っている時間帯を指定して映像記憶部20にアクセスして該当期間の映像を再生させることができる。この構成をとることにより、常にカメラのライブ映像を監視員の目で監視しておらずに見逃した場面であっても、このシステムによって提示されたオブジェクトを後から指定してその場面を再生して見ることが非常に容易になる。
次に映像監視検索システムの動作シーケンスについて説明する。
図11はリアルタイム検知処理と事後検索処理を示すフローチャートであり、リアルタイム検知処理と事後検索処理との関係についてメタデータを介してつなげあわせたものである。ステップST11において、オブジェクト処理部30は入力映像に対するオブジェクト処理を行ってメタデータを抽出し、ステップST12において、リアルタイム検知処理部60は、抽出されたメタデータと条件入力部50から入力されたリアルタイム検知条件に基づきリアルタイム検知処理を行う。
また、リアルタイム検知処理を行わない場合には、ステップST11において、オブジェクト処理部30は入力映像に対するオブジェクト処理を行い、抽出したメタデータをメタデータ記憶部40に記憶する。ステップST13において、事後検索処理部70は、メタデータ記憶部40に記憶されているメタデータと条件入力部50から入力された事後検索条件に基づき事後検索処理を行う。
図12はリアルタイム検知処理を示すフローチャートである。ステップST21において、オブジェクト処理部30は映像入力部10から1枚の画像を入力し、ステップST22において、オブジェクト処理部30は入力された1枚の画像に対してオブジェクト処理を行ってメタデータを抽出する。このとき、具体的には、オブジェクト処理部30は、映像中の移動物体を検出し、動きの連続性から関連づけられるものを一つのオブジェクトとみなしてその移動軌跡等に関する情報をメタデータとして抽出する。
ステップST23において、条件入力部50はリアルタイム検知条件を入力し、ステップST24において、リアルタイム検知処理部60は、抽出されたメタデータと条件入力部50から入力されたリアルタイム検知条件に基づきリアルタイム検知照合を行う。ステップST25において、リアルタイム検知処理部60は、抽出されたメタデータがリアルタイム検知条件に合致するか否かの判定を行う。合致しない場合はステップST21の次の画像入力処理に戻り、合致した場合には、リアルタイム検知処理部60は、イベント発生として結果を表示部80に転送し、結果表示リストに追加を行う。その後はステップST21の次の画像入力処理に戻る。
図13は事後検索処理を示すフローチャートである。ステップST31,ST32の処理は、図12に示すステップST21,ST22の処理と同じである。ステップST33において、オブジェクト処理部30は抽出したメタデータをメタデータ記憶部40に記憶する。ステップST34において、オブジェクト処理部30は検索対象期間の映像を全て解析終了したかを判定し、検索対象期間の映像を全て解析し終わるまで、上記ステップST31〜ST33の処理を繰り返す。
解析終了後に、ステップST35において、条件入力部50は事後検索条件を入力し、ステップST36において、事後検索処理部70は、メタデータ記憶部40に記憶されているメタデータと条件入力部50から入力された事後検索条件に基づき事後検索照合して、事後検索条件に合致するオブジェクトを抽出する。ステップST37において、事後検索処理部70は、抽出したオブジェクトのリストを表示部80に転送し、表示部80は結果表示を行う。
事後検索の場合には、前の検索結果を破棄して新たな検索条件を与え直して再検索したり、前の検索結果に新たな検索条件を加えて絞り込み検索を行ったりすることができる。
また、図11〜図13には示していないが、リアルタイム検知処理と事後検索処理の組合せとして、過去のある時点から現在まで既にオブジェクト処理が終了しメタデータが抽出された結果に対して事後検索を行い、引き続き現在以降については同じ条件でリアルタイム検知処理を続けるという方法も考えられる。この場合、結果表示としては、一度事後検索処理で出力されたオブジェクトの結果リストに対し、リアルタイム検知処理で出力されるオブジェクトを後から追記していく形となる。
以上のように、この実施の形態1によれば、監視員は常時カメラからのライブ映像を見続けることなく、指定した条件の動きを行ったオブジェクト情報を自動的に収集することができ、監視業務に対する負荷を軽くすることができるという効果が得られる。
また、この実施の形態1によれば、リアルタイム検知処理及び事後検索処理において、画面上を複数のブロック領域に分けて進行方向や通過時間といった移動軌跡情報をメタデータとして保持し、これらの値を照合するだけで条件合致判定が行えるため、非常に高速な処理が実現でき、短時間で検索結果が得られるという効果が得られる。
さらに、この実施の形態1によれば、リアルタイム性を要する監視業務の場合は、予め所望の行動を指定してリアルタイム検知処理を行わせることにより、該当するオブジェクトの検知を即座に知ることができ、しかも別途映像記録を行っておけば、このときに映像を見逃していても該当する場面をただちに再生して確認することができるという効果が得られる。
さらに、この実施の形態1によれば、それ程リアルタイム性を要しない監視業務の場合には、事後検索処理によりある期間中に所望の行動を取ったオブジェクトを一括して検索し、個別にそのときの映像を再生して確認することにより、集中して監視結果をまとめることができるという効果が得られる。
さらに、この実施の形態1によれば、リアルタイム検知処理と事後検索処理を組み合わせることにより、例えばリアルタイム検知により想定外の不審な行動をしている場面等を見つけた場合等、リアルタイム検知の際とは条件を変えて事後検索をすることにより、さらにリアルタイム検知で見落としていたオブジェクトを探し出すことができるという効果が得られる。
さらに、この実施の形態1によれば、事後検索の場合は何度も検索条件を与え直して再検索することや、検索条件を次々に追加して絞り込み検索を行うことも可能で、あらゆる角度から監視映像を評価することができるという効果が得られる。
さらに、この実施の形態1によれば、オブジェクト毎のメタデータサイズを固定にできることから、メタデータの保存も容易にすることができるという効果が得られる。
実施の形態2.
図14はこの発明の実施の形態2による映像監視検索システムの構成を示すブロック図である。この映像監視検索システムは、映像入力部10、映像記憶部20、オブジェクト処理部30、メタデータ記憶部40、条件入力部50、リアルタイム検知処理部60、事後検索処理部70、表示部80及びブロック形状決定処理部100を備えており、上記実施の形態1の図1に示す構成にブロック形状決定処理部100を追加したものであり、その他の構成は図1に示す構成と同じである。
上記実施の形態1では、進行方向や移動距離や移動時間に関するメタデータの保持単位として、映像画面を横(X軸)方向にm個、縦(Y軸)方向にn個の計m×n個の全て同じ大きさの矩形のブロック領域に分割しているが、このmとnの値については、撮影対象とカメラとの距離、カメラ画角、撮影対象の大きさや動きの速さ、あるいは求められる検索精度の高さやメタデータを保持するための確保できるメモリサイズ等によって決定すれば良い。
この実施の形態2では、このmやnの数、すなわちブロック領域の大きさを可変にできる仕組みを備えたものである。
図14において、ブロック形状決定処理部100は、ユーザからの指示に基づき、オブジェクト処理部30が分割するブロック領域のサイズを設定し、入力される映像によって移動軌跡情報のためのメタデータを保持する単位となるブロック領域のサイズをオブジェクト処理部30に通知する。その他の図14における各構成の処理は上記実施の形態1と同様である。
例えばカメラと被写体との位置が遠く離れていたり、レンズの画角が広角のタイプである場合には、カメラ映像の画面サイズに対する対象オブジェクト自体の大きさやオブジェクトの動きの大きさや速さは比較的小さいものとなることが考えられる。この場合は、検索の分解能を上げるためにブロック領域のサイズは小さめに設定すると良い。逆に、カメラと被写体との位置が近かったり、レンズの画角が狭いタイプである場合には、カメラ映像の画面サイズに対する対象オブジェクトの大きさや動きの大きさや速さの割合は比較的大きくなる。この場合は、逆に検索のための細かい分解能は不要となり、ブロック領域サイズは大きめに設定すれば良い。
これらの設定をユーザがカメラ入力映像を見て判断し、ブロック形状決定処理部100がそのユーザの判断を受け付けてオブジェクト処理部30に伝える。
以上のように、この実施の形態2によれば、上記実施の形態1と同様の効果が得られると共に、細かい検索精度が不要な場合には、ブロック領域のサイズを大きくして設定することにより、メタデータ保持のための必要なメモリ量を減らすことができ、解析や検索にかかる処理自体も無駄な精度を省くことで軽くすることができ、逆に比較的小さなオブジェクトが細かい動きをするような場合には、ブロック領域のサイズを小さく設定することにより、検索精度を向上することができるという効果が得られる。
上記の例では、ブロック形状決定処理部100が、ユーザからの指示により、入力される映像によって移動軌跡情報のためのメタデータを保持するブロック領域の大きさをオブジェクト処理部30に通知しているが、自動的にブロック領域のサイズ調整を行う方法も考えられる。
例えば、オブジェクト処理部30が、映像入力部10から映像を入力し、オブジェクト処理を行いながら、オブジェクトの平均的なサイズと動きを計測し、ブロック形状決定処理部100が、オブジェクト処理部30により計測されたオブジェクトのサイズやオブジェクトの動きが小さければ、ブロック領域のサイズを小さく設定し、逆にオブジェクトのサイズやオブジェクトの動きが大きいときはブロック領域のサイズを大きく設定して、オブジェクト処理部30に通知する。このような自動修正処理は、監視業務を開始する前にシステム設置調整の段階で実施後に実運用に入るとしても良いし、運用中も長いスパンで状況が変わるような場合には動的に修正をかけていっても良い。
また、この実施の形態2によれば、ブロック領域のサイズの自動調整機能を持つことにより、上記のような必要なメモリ量や解析・検索処理精度をよりよい状態に調整できるという効果に加えて、この調整がユーザの手間をかけずに設定可能になるという効果が得られる。
実施の形態3.
この発明の実施の形態3による映像監視検索システムの構成を示すブロック図は、上記実施の形態2の図14と同じである。この実施の形態3は、画面上の全てのブロック領域が同じサイズであるという制限をなくし、オブジェクトの画面上に位置によりブロック領域のサイズを調整するものである。
図15はオブジェクトの画面上の位置によりブロック領域のサイズを調整するイメージ例を示す図である。図15(a)の撮影対象が斜めになる映像例に示すように、撮影対象の地平面とカメラの光軸とが浅い角度で接し、手前から遠方まで広い範囲を同時に映している例は監視用途のカメラでは実際には多いと思われる。この場合には、上記実施の形態2で述べたように、オブジェクトの平均的なサイズやオブジェクトの動きの大きさについては、画面の上の方と下の方とでは大きく異なってくる。このような場合の対応として、図15(b)のブロック領域のサイズ例に示すように、画面上の位置によってオブジェクトが映る大きさの比率を見て、それにあわせてブロック領域のサイズを調整するという方法がある。
ここで、移動距離の補正について説明する。
この場合、実際に映っている撮影対象位置のおよその大きさに合わせてブロック領域のサイズを合わせるということになる。従って移動距離に関する情報をメタデータとして保持する際には、ブロック領域のサイズの違いによって補正を加える必要がある。すなわち、上記実施の形態1における移動距離情報及びそれに伴う速度情報については、単純に画面上の画素数で比較する例を挙げているが、ここではこの画素数をブロック領域サイズの比率に合わせて補正した数字に対して評価して保存する。例えば、最も大きなブロック領域と最も小さなブロック領域のサイズが一辺の長さで2倍異なれば、小さなブロック領域内で10画素分オブジェクトが移動したとすれば、大きなブロック領域内での20画素分の動きに相当するということである。すなわち、小さい方のブロック領域内での移動距離は大きい方に合わせるなら2倍に換算する必要がある。
これによって平均の速さによる評価を行う場合も同様に補正されることになるので、カメラから遠くに映っているオブジェクトは近傍に映っているオブジェクトと実際には同じ速度で動いていても、画面上の動きは遅いという違いが同じ値に補正される。このことは、メタデータの種類として、このほかにオブジェクトの大きさ等を用いる場合も同様に補正することによって、カメラから遠方に映るオブジェクトは、実際には同じ大きさであっても画面上では小さくなるという問題にも対応できることになる。
ブロック領域のサイズの設定の方法としては、上記実施の形態2で述べたように、ユーザが手動でブロック形状決定処理部100に入力を行い、図15(b)の例では、画面上の方へ行くほどカメラから遠い位置を撮影していることから、ブロック領域のサイズを小さく設定する方法がある。さらに、自動調整機能を持つ方法としては、ブロック形状決定処理部100が、オブジェクト処理部30から遠方を映している部分と近傍を映している部分でそれぞれ抽出されるオブジェクトの平均的なサイズの計測結果を受け取り、その比率を求めてブロック領域のサイズの比率を計算することによって、自動調整を行うようにしても良い。
以上のように、この実施の形態3によれば、上記実施の形態2と同様の効果が得られると共に、画面上の位置に応じてブロック領域のサイズを調整することにより、画面上の位置によってカメラと被写体との遠近関係が異なることからくるオブジェクトの大きさや動きの速さ、移動距離等の違いを吸収して検索精度の差を小さくすることができるという効果が得られる。
実施の形態4.
図16はこの発明の実施の形態4による映像監視検索システムの構成を示すブロック図である。この映像監視検索システムは、映像入力部10、映像記憶部20、オブジェクト処理部30、メタデータ記憶部40、条件入力部50、リアルタイム検知処理部60、事後検索処理部70、表示部80及び画像変換処理部110を備えており、上記実施の形態1の図1に示す構成に画像変換処理部110を追加したものであり、その他の構成は図1に示す構成と同じである。
上記実施の形態1〜上記実施の形態3では、入力されてきたカメラ映像を基本的にはそのままオブジェクト処理部30に転送し、その後の処理に進めているが、この実施の形態4では、後で検索条件が設定しやすいような形でオブジェクト処理ができるように、入力映像に対して画像変換による位置補正を行った後に、オブジェクト処理を行う例について説明する。
また、上記実施の形態3では、オブジェクトがカメラから遠方に映っている場合と近傍に移っている場合とでは、オブジェクトのサイズや動きの大きさや速さが異なるということから、メタデータを抽出し保存する単位であるブロック領域のサイズを調整することにより、カメラからの距離の違いが補正された形でメタデータを生成しているが、この実施の形態4では、これと同等の効果を得るために、ブロック領域のサイズは全て同じにした状態であっても、逆にオブジェクト処理を行う映像データ自体をカメラからの遠近の違いを補正するように射影変換することを考える。
図16において、画像変換処理部110は映像入力部10により入力された映像データにおける指定された画面領域を矩形領域に射影変換してオブジェクト処理部30に転送する。この画像変換処理部110は、ユーザによる変換処理内容を受け付ける入出力機能として、例えば、画像をモニタ上に表示させた状態でマウス等を使って、以下に述べる変換領域等の指定ができるGUI(Graphical User Interface)機能を持つものとする。
図17は画面上の位置を射影して補正する変換処理の例を示す図である。図17(a)に示す変換前の画像について、まず映像中に映っている被写体の位置関係等を考え、撮影対象の地面が水平であるとすると、画像変換処理部110は画面上で左右対称な台形を構成する4点A,B,C,Dをユーザから指示してもらう。この4点は実際の撮影対象となっている現場の地面上では長方形を構成する位置に来るべき所のものを選ぶようにする。画像変換処理部110は、この4点で構成される台形が画像変換処理後には長方形となるように画像を射影変換して、図17(b)に示す変換後の画像を得る。
この例では、台形ABCDが長方形A’B’C’D’に射影され、台形ABCDの内部の画像情報のみが変換後の画像に残っているが、台形の外側の映像情報も全て射影するようにしても良い。また、逆に図17(a)の中で点Aと点Bはカメラ画面の外側に存在する点であるが、このような点が選べるように、画像変換処理部110ではカメラ画像の外側の範囲まで指定できるようなGUIを提供するか、カメラ画像の範囲内でのみ4点を選ばせるようにして、必要に応じてその4点で構成される台形の外側の画像情報も変換処理後の画像に含まれるようにしても良い。
以上のように、この実施の形態4によれば、上記実施の形態1と同様の効果が得られると共に、このような射影変換をした後にオブジェクト処理を行ってメタデータを抽出することにより、被写体となるオブジェクトとカメラからの距離が遠い場合と近い場合とで、大きさや動きの大きさ、動きの速さ等の比率を同じにすることができるという効果が得られる。
また、この実施の形態4によれば、カメラから遠い位置と近い位置とでメタデータを保持するブロック領域のサイズと実際の被写体のサイズとの比率が異なることから、近い位置で映るオブジェクトに対しては細かい単位で位置条件が設定できるが遠方ではできない、すなわち検索処理に対する分解能が異なるという課題に対しても同時に解決することができるという効果が得られる。
実施の形態5.
この発明の実施の形態5による映像監視検索システムの構成を示すブロック図は、上記実施の形態4の図16と同じである。上記実施の形態4で示したカメラ映像の射影変換による補正処理は、カメラから被写体までの遠近による大きさの違いを単純に補正するものであるが、この実施の形態5は、画像変換処理部110が、カメラ映像中に映っている被写体の物理的配置について、カメラからの光軸方向との角度を調節し、カメラの被写体に対する向きに関する補正をできるようにするものである。すなわち、画像変換処理部110は画面領域における被写体と被写体を撮影しているカメラからの光軸方向との角度を調整して矩形領域に射影変換するものである。
図18は画面上の位置を射影して補正する変換処理の例を示す図である。図18(a)は図17(a)と同様に変換前の画像の例である。この映像では遠方で左右方向に走っている道路については画面上でもほぼ左右方向に映っており、右方向へ移動する人物や左方向へ移動する人物といった検索を表現するのは感覚的に容易である。しかし、手前から遠方に走っている道路は画面上では斜め向きに映っているため、手前方向に移動する人物や遠方方向に移動する人物と言っても、画面上では右斜め下方向への移動や左斜め上方向への移動という条件になってしまう。
そこで、上記実施の形態4で行ったように、図18(a)の画面上で4点A,B,C,Dを選択する際に、実際の撮影対象となっている現場の地面上では長方形を構成する位置に来るべき所のものを選ぶという点においては同じだが、画面上で台形となるような点を指定する必要はなく、例えば映っている建物の向きや道路の向き等に沿った方向の長方形を構成する位置で選択するようにする。図18(a)で選択した4点A,B,C,Dは道路の向きに合わせた位置として選択したものであり、図18(b)はその四角形ABCDの内部の映像情報を長方形A’B’C’D’に射影変換したものである。
この結果、図18(b)では、遠方の左右に走っている道路が左右方向に映っているように、遠方から手前に走っている道路は上下方向に映っている。すなわち、この道路を遠方から手前に移動してくるオブジェクトは、変換後の画像では上から下へ移動するように映る。あるいはオブジェクトが手前から遠方に向かって歩いた後に交差点で右折するという動作をした場合、変換前のカメラ映像上では右下から左上に移動した後に、鋭角に進行方向を変えて右向き移動に変わるが、変換後の映像上では、下から上向きに移動した後、直角に右方向に向きを変えて進むように映る。
もっとも、このようにして検索した結果から元の映像を再生する場合は、画像変換前の自然な形状の映像を記録してある映像記憶部20の映像を用いて再生すれば良い。必要であれば、画像変換後の映像も別途記録しておいて利用すれば良い。
以上のように、この実施の形態5によれば、上記実施の形態4と同様の効果が得られると共に、カメラからの光軸方向との角度を調節するような射影変換を行った後に、オブジェクト処理を行ってメタデータを抽出することにより、さらに検索条件として進行方向や右折左折といった進行方向変化に対する設定の際に、実際の撮影対象の現場の状況に合わせて行いやすくなるという効果が得られる。
この発明の実施の形態1による映像監視検索システムの構成を示すブロック図である。 この発明の実施の形態1による映像監視検索システムにおいて移動体抽出の様子を説明する図である。 この発明の実施の形態1による映像監視検索システムにおいて移動軌跡情報に関するメタデータ保持方法の例を示す図である。 この発明の実施の形態1による映像監視検索システムにおいてオブジェクト及びメタデータ抽出の様子を説明する図である。 この発明の実施の形態1による映像監視検索システムにおいてブロック領域単位での移動距離と移動時間を説明する図である。 この発明の実施の形態1による映像監視検索システムにおいて進行方向情報の保持方法について説明する図である。 この発明の実施の形態1による映像監視検索システムにおいて進行方向情報のメタデータの保持方法の例を示す図である。 この発明の実施の形態1による映像監視検索システムにおいて指定領域内のオブジェクトの滞留時間を説明する図である。 この発明の実施の形態1による映像監視検索システムにおいて指定領域でのオブジェクトの通過を説明する図である。 この発明の実施の形態1による映像監視検索システムにおいてリアルタイム検知条件を複数指定する場合を説明する図である。 この発明の実施の形態1による映像監視検索システムにおけるリアルタイム検知処理と事後検索処理を示すフローチャートである。 この発明の実施の形態1による映像監視検索システムにおけるリアルタイム検知処理を示すフローチャートである。 この発明の実施の形態1による映像監視検索システムにおける事後検索処理を示すフローチャートである。 この発明の実施の形態2による映像監視検索システムの構成を示すブロック図である。 この発明の実施の形態3による映像監視検索システムにおいてオブジェクトの画面上の位置によりブロック領域のサイズを調整するイメージ例を示す図である。 この発明の実施の形態4による映像監視検索システムの構成を示すブロック図である。 この発明の実施の形態4による映像監視検索システムにおいて画面上の位置を射影して補正する変換処理の例を示す図である。 この発明の実施の形態5による映像監視検索システムにおいて画面上の位置を射影して補正する変換処理の例を示す図である。
符号の説明
10 映像入力部、20 映像記憶部、30 オブジェクト処理部、40 メタデータ記憶部、50 条件入力部、60 リアルタイム検知処理部、70 事後検索処理部、80 表示部、100 ブロック形状決定処理部、110 画像変換処理部。

Claims (7)

  1. 映像データを入力する映像入力部と、
    該映像データの画像フレームを複数のブロック領域に分割し、各画像フレームから個々の物体を検出し、複数の画像フレームにおける離散的な位置の一連の同一物体を1つのオブジェクトとして抽出し、上記オブジェクトの移動軌跡情報を、この移動軌跡が通過する各ブロック領域にオブジェクトの特徴と共に配分して上記各ブロック領域毎のメタデータとして抽出するオブジェクト処理部と、
    上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータを記憶するメタデータ記憶部と、
    リアルタイム検知条件又は事後検索条件を入力する条件入力部と、
    上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータと上記条件入力部に入力されたリアルタイム検知条件とを照合し、上記リアルタイム検知条件に合致するオブジェクトを検知するリアルタイム検知処理部と、
    上記メタデータ記憶部に記憶されている上記各ブロック領域毎のメタデータと上記条件入力部に入力された事後検索条件とを照合し、上記事後検索条件に合致するオブジェクトを検索する事後検索処理部と、
    上記リアルタイム検知処理部により検知されたオブジェクト又は上記事後検索処理部により検索されたオブジェクトを表示する表示部とを備えた映像監視検索システム。
  2. オブジェクト処理部は、各ブロック領域内のオブジェクトの進行方向、移動距離又は移動時間を、各ブロック領域毎のメタデータとして抽出することを特徴とする請求項1記載の映像監視検索システム。
  3. オブジェクト処理部が分割するブロック領域のサイズを設定するブロック形状決定処理部を備えたことを特徴とする請求項1記載の映像監視検索システム。
  4. オブジェクト処理部により計測されたオブジェクトの平均的なサイズ又は平均的な動きに基づき、上記オブジェクト処理部が分割するブロック領域のサイズを設定するブロック形状決定処理部を備えたことを特徴とする請求項1記載の映像監視検索システム。
  5. オブジェクト処理部により計測されたオブジェクトのサイズ又は動きに基づき、上記オブジェクト処理部が分割するブロック領域のサイズを調整するブロック形状決定処理部を備えたことを特徴とする請求項1記載の映像監視検索システム。
  6. 映像データを入力する映像入力部と、
    上記映像データの画像フレームを複数のブロック領域に分割し、各画像フレームから個々の物体を検出し、複数の画像フレームにおける一連の同一物体を1つのオブジェクトとして抽出し、このオブジェクトの特徴を各ブロック領域毎のメタデータとして抽出するオブジェクト処理部と、
    上記映像入力部により入力された映像データにおける指定された画面領域を矩形領域に射影変換して上記オブジェクト処理部に転送する画像変換処理部と、
    上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータを記憶するメタデータ記憶部と、
    リアルタイム検知条件又は事後検索条件を入力する条件入力部と、
    上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータと上記条件入力部に入力されたリアルタイム検知条件とを照合し、上記リアルタイム検知条件に合致するオブジェクトを検知するリアルタイム検知処理部と、
    上記メタデータ記憶部に記憶されている上記各ブロック領域毎のメタデータと上記条件入力部に入力された事後検索条件とを照合し、上記事後検索条件に合致するオブジェクトを検索する事後検索処理部と、
    上記リアルタイム検知処理部により検知されたオブジェクト又は上記事後検索処理部により検索されたオブジェクトを表示する表示部とを備えた映像監視検索システム。
  7. 映像データを入力する映像入力部と、
    上記映像データの画像フレームを複数のブロック領域に分割し、各画像フレームから個々の物体を検出し、複数の画像フレームにおける一連の同一物体を1つのオブジェクトとして抽出し、このオブジェクトの特徴を各ブロック領域毎のメタデータとして抽出するオブジェクト処理部と、
    上記映像入力部により入力された映像データにおける指定された画面領域を矩形領域に射影変換して上記オブジェクト処理部に転送する画像変換処理部と、
    上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータを記憶するメタデータ記憶部と、
    リアルタイム検知条件又は事後検索条件を入力する条件入力部と、
    上記オブジェクト処理部により抽出された上記各ブロック領域毎のメタデータと上記条件入力部に入力されたリアルタイム検知条件とを照合し、上記リアルタイム検知条件に合致するオブジェクトを検知するリアルタイム検知処理部と、
    上記メタデータ記憶部に記憶されている上記各ブロック領域毎のメタデータと上記条件入力部に入力された事後検索条件とを照合し、上記事後検索条件に合致するオブジェクトを検索する事後検索処理部と、
    上記リアルタイム検知処理部により検知されたオブジェクト又は上記事後検索処理部により検索されたオブジェクトを表示する表示部とを備え、
    上記画像変換処理部は、上記画面領域における被写体と被写体を撮影しているカメラからの光軸方向との角度を調整して矩形領域に射影変換することを特徴とする映像監視検索システム。
JP2006105466A 2006-04-06 2006-04-06 映像監視検索システム Expired - Fee Related JP4541316B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006105466A JP4541316B2 (ja) 2006-04-06 2006-04-06 映像監視検索システム
US11/538,938 US7627199B2 (en) 2006-04-06 2006-10-05 Image surveillance/retrieval system
GB0620330A GB2436904B (en) 2006-04-06 2006-10-12 Image surveillance/retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006105466A JP4541316B2 (ja) 2006-04-06 2006-04-06 映像監視検索システム

Publications (2)

Publication Number Publication Date
JP2007280043A JP2007280043A (ja) 2007-10-25
JP4541316B2 true JP4541316B2 (ja) 2010-09-08

Family

ID=37491454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006105466A Expired - Fee Related JP4541316B2 (ja) 2006-04-06 2006-04-06 映像監視検索システム

Country Status (3)

Country Link
US (1) US7627199B2 (ja)
JP (1) JP4541316B2 (ja)
GB (1) GB2436904B (ja)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5170961B2 (ja) 2006-02-01 2013-03-27 ソニー株式会社 画像処理システム、画像処理装置および方法、プログラム、並びに記録媒体
WO2007112612A1 (fr) * 2006-04-03 2007-10-11 Kecheng Fang Dispositif d'information vidéo et procédé de traitement d'images
US7739275B2 (en) * 2006-05-19 2010-06-15 Yahoo! Inc. System and method for selecting object metadata evolving over time
US8254626B2 (en) * 2006-12-22 2012-08-28 Fujifilm Corporation Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images
US8665482B2 (en) * 2007-03-01 2014-03-04 Konica Minolta Laboratory U.S.A., Inc. Raster image processor using a self-tuning banding mode
US20080263592A1 (en) * 2007-04-18 2008-10-23 Fuji Xerox Co., Ltd. System for video control by direct manipulation of object trails
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
CN101334780A (zh) * 2007-06-25 2008-12-31 英特维数位科技股份有限公司 人物影像的搜寻方法、系统及存储影像元数据的记录媒体
CN101378454B (zh) * 2007-08-31 2010-06-16 鸿富锦精密工业(深圳)有限公司 摄像设备及其拍摄方法
TW200926011A (en) * 2007-09-04 2009-06-16 Objectvideo Inc Background modeling with feature blocks
JP4842919B2 (ja) * 2007-12-20 2011-12-21 富士フイルム株式会社 表示装置、撮影装置、および表示方法
US8106968B1 (en) * 2008-02-20 2012-01-31 Cognitech, Inc. System and method for pattern detection and camera calibration
DE102008001076A1 (de) * 2008-04-09 2009-10-15 Robert Bosch Gmbh Verfahren, Vorrichtung sowie Computerprogramm zur Auflösungsreduktion eines Eingangsbilds
US9405968B2 (en) 2008-07-21 2016-08-02 Facefirst, Inc Managed notification system
US10909400B2 (en) 2008-07-21 2021-02-02 Facefirst, Inc. Managed notification system
US9721167B2 (en) 2008-07-21 2017-08-01 Facefirst, Inc. Biometric notification system
US9141863B2 (en) * 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
US10929651B2 (en) 2008-07-21 2021-02-23 Facefirst, Inc. Biometric notification system
US10043060B2 (en) 2008-07-21 2018-08-07 Facefirst, Inc. Biometric notification system
JP5088276B2 (ja) * 2008-09-03 2012-12-05 富士通株式会社 案内対象領域決定装置、ナビゲーション装置、案内対象領域決定方法、及び、プログラム
FR2936627B1 (fr) * 2008-09-30 2016-07-22 European Aeronautic Defence And Space Company - Eads France Procede d'optimisation de la recherche d'une scene a partir d'un flux d'images archivees dans une base de donnees video.
JP5213123B2 (ja) * 2009-01-15 2013-06-19 株式会社日立製作所 映像出力方法及び映像出力装置
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
JP5570176B2 (ja) * 2009-10-19 2014-08-13 キヤノン株式会社 画像処理システム及び情報処理方法
CN102236919A (zh) * 2010-04-29 2011-11-09 国基电子(上海)有限公司 手持装置及其记录车辆异常状况的方法
EP2395456A1 (en) * 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Methods and systems for semantic label propagation
JP5178797B2 (ja) * 2010-09-13 2013-04-10 キヤノン株式会社 表示制御装置及び表示制御方法
JP5668405B2 (ja) * 2010-10-14 2015-02-12 大日本印刷株式会社 情報表示装置及び情報表示用プログラム
US8675957B2 (en) 2010-11-18 2014-03-18 Ebay, Inc. Image quality assessment to merchandise an item
JP5612457B2 (ja) * 2010-12-21 2014-10-22 日本電信電話株式会社 動画像表示装置と動画像オブジェクト探索システムと動画像表示方法とプログラム
JP2012208793A (ja) * 2011-03-30 2012-10-25 Sogo Keibi Hosho Co Ltd 警備装置
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控系统操作方法
WO2013020165A2 (en) * 2011-08-05 2013-02-14 HONEYWELL INTERNATIONAL INC. Attn: Patent Services Systems and methods for managing video data
US8810686B2 (en) * 2011-11-23 2014-08-19 Mediatek Inc. Method, device, and machine readable medium for image capture and selection
JP6187261B2 (ja) * 2012-01-05 2017-08-30 日本電気株式会社 人物特徴量抽出システム、サーバおよび人物特徴量抽出方法
JP5461597B2 (ja) * 2012-01-30 2014-04-02 日本電信電話株式会社 移動体追跡方法及びコンピュータプログラム
US8825368B2 (en) * 2012-05-21 2014-09-02 International Business Machines Corporation Physical object search
KR101441527B1 (ko) * 2012-05-31 2014-09-17 주식회사 코아로직 차량 주행 정보 관리 및 검증 방법, 장치 및 이를 이용한 차량 주행 정보 관리 시스템
GR1008049B (el) * 2012-07-19 2013-12-03 Θεοδωρος Παντελη Χατζηπαντελης Συστημα αναγνωρισης -ανιχνευσης -εντοπισμου και ενημερωσης
US8686874B2 (en) 2012-07-24 2014-04-01 Sentry Protection Llc Corner sensor assembly
KR101917695B1 (ko) * 2012-08-09 2018-11-13 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP6181925B2 (ja) * 2012-12-12 2017-08-16 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
JP2014119975A (ja) * 2012-12-17 2014-06-30 Nippon Hoso Kyokai <Nhk> 映像用メタデータ付与装置及びプログラム
US9721292B2 (en) 2012-12-21 2017-08-01 Ebay Inc. System and method for image quality scoring
WO2014112407A1 (ja) * 2013-01-16 2014-07-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
CN104183127B (zh) * 2013-05-21 2017-02-22 北大方正集团有限公司 交通监控视频检测方法和装置
KR20140141025A (ko) * 2013-05-31 2014-12-10 삼성에스디에스 주식회사 영상 검색 장치 및 방법
WO2015005196A1 (ja) * 2013-07-09 2015-01-15 株式会社日立国際電気 画像処理装置及び画像処理方法
JP6159179B2 (ja) * 2013-07-09 2017-07-05 キヤノン株式会社 画像処理装置、画像処理方法
JP6405606B2 (ja) * 2013-07-12 2018-10-17 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP6381189B2 (ja) * 2013-08-19 2018-08-29 キヤノン株式会社 監視装置
KR102085036B1 (ko) * 2013-08-22 2020-03-05 에스케이 텔레콤주식회사 시간 기준을 이용한 영상 검색장치, 방법 및 컴퓨터로 읽을 수 있는 기록매체
WO2015046462A1 (ja) * 2013-09-26 2015-04-02 三菱電機株式会社 監視カメラ、監視システム及び動き判定方法
JP6261266B2 (ja) * 2013-10-02 2018-01-17 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検知装置
KR102016545B1 (ko) 2013-10-25 2019-10-21 한화테크윈 주식회사 검색 시스템 및 그의 동작 방법
US9589595B2 (en) 2013-12-20 2017-03-07 Qualcomm Incorporated Selection and tracking of objects for display partitioning and clustering of video frames
US10089330B2 (en) 2013-12-20 2018-10-02 Qualcomm Incorporated Systems, methods, and apparatus for image retrieval
JP5597762B1 (ja) * 2013-12-27 2014-10-01 パナソニック株式会社 活動マップ分析装置、活動マップ分析システムおよび活動マップ分析方法
US10389969B2 (en) 2014-02-14 2019-08-20 Nec Corporation Video processing system
FR3020699A1 (fr) * 2014-04-30 2015-11-06 Centre Nat Rech Scient Procede de suivi de forme dans une scene observee par un capteur asynchrone de lumiere
US9177225B1 (en) * 2014-07-03 2015-11-03 Oim Squared Inc. Interactive content generation
JP5854098B2 (ja) * 2014-08-08 2016-02-09 大日本印刷株式会社 情報表示装置及び情報表示用プログラム
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
JP6532234B2 (ja) * 2015-01-09 2019-06-19 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
WO2016129713A1 (ko) * 2015-02-10 2016-08-18 주식회사 일리시스 객체 이동 시간 기반 관심 영역 이벤트 발생 감지 방법
WO2016151950A1 (ja) 2015-03-20 2016-09-29 日本電気株式会社 監視システム、監視方法および監視プログラム
JP6624798B2 (ja) * 2015-03-30 2019-12-25 セコム工業株式会社 検知装置
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
JP5915960B1 (ja) * 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
CN104766087B (zh) * 2015-04-20 2019-03-08 中国电子科技集团公司第二十九研究所 一种对人工点火的早期火苗进行实时检测的方法
US11265317B2 (en) 2015-08-05 2022-03-01 Kyndryl, Inc. Security control for an enterprise network
US20170148291A1 (en) * 2015-11-20 2017-05-25 Hitachi, Ltd. Method and a system for dynamic display of surveillance feeds
JP6558579B2 (ja) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
KR102284448B1 (ko) * 2016-04-19 2021-08-02 캐논 가부시끼가이샤 정보 처리장치, 정보 처리방법 및 기억매체
JP6736340B2 (ja) * 2016-04-19 2020-08-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6762754B2 (ja) * 2016-04-19 2020-09-30 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
KR20180020374A (ko) 2016-08-18 2018-02-28 한화테크윈 주식회사 이벤트 검색 시스템, 장치 및 방법
CN106097725A (zh) * 2016-08-18 2016-11-09 马平 一种基于动态特征提取的车辆分类流量检测方法
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10474884B2 (en) * 2016-11-14 2019-11-12 Aisin Seiki Kabushiki Kaisha Action determination device
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US10515117B2 (en) * 2017-02-14 2019-12-24 Cisco Technology, Inc. Generating and reviewing motion metadata
SG11201907834UA (en) 2017-03-31 2019-09-27 Nec Corp Video image processing device, video image analysis system, method, and program
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
JP6910208B2 (ja) * 2017-05-30 2021-07-28 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
JP2019101783A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 情報処理装置及び方法
WO2019146184A1 (ja) * 2018-01-29 2019-08-01 日本電気株式会社 処理装置、処理方法及びプログラム
JP7299692B2 (ja) * 2018-12-05 2023-06-28 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム
KR102215565B1 (ko) * 2019-02-12 2021-02-15 주식회사 핀텔 에스컬레이터 이용자 행위 검지 장치 및 그 방법
JP2020145516A (ja) * 2019-03-04 2020-09-10 オリンパス株式会社 記録装置,記録方法,記録プログラム
US11302117B2 (en) * 2019-04-09 2022-04-12 Avigilon Corporation Anomaly detection method, system and computer readable medium
CN111753609B (zh) * 2019-08-02 2023-12-26 杭州海康威视数字技术股份有限公司 一种目标识别的方法、装置及摄像机
CN111104547A (zh) * 2019-12-02 2020-05-05 钛马信息网络技术有限公司 车辆中数据处理的方法及装置
JP7205457B2 (ja) * 2019-12-23 2023-01-17 横河電機株式会社 装置、システム、方法およびプログラム
KR102473404B1 (ko) * 2020-02-25 2022-12-02 삼성전기주식회사 탑뷰 제공 장치
US11495024B2 (en) 2020-04-01 2022-11-08 Honeywell International Inc. Systems and methods for collecting video clip evidence from a plurality of video streams of a video surveillance system
JP2022043631A (ja) 2020-09-04 2022-03-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2023238248A1 (ja) * 2022-06-07 2023-12-14 日本電信電話株式会社 物体検出装置、及び物体検出方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189295A (ja) * 2001-12-17 2003-07-04 Cec:Kk 監視カメラシステム及びこれを用いた情報提供システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0622318A (ja) 1992-05-18 1994-01-28 Mitsubishi Electric Corp 移動物体抽出装置
EP0805405A3 (en) 1996-02-05 1998-04-15 Texas Instruments Incorporated Motion event detection for video indexing
JP3601951B2 (ja) 1996-09-20 2004-12-15 株式会社日立製作所 移動物体の表示方法、それを用いた表示システムおよびそのためのプログラム記録媒体
JP3567066B2 (ja) 1997-10-31 2004-09-15 株式会社日立製作所 移動体組合せ検出装置および方法
US6366357B1 (en) * 1998-03-05 2002-04-02 General Scanning, Inc. Method and system for high speed measuring of microscopic targets
US6750974B2 (en) * 2002-04-02 2004-06-15 Gsi Lumonics Corporation Method and system for 3D imaging of target regions
US6817982B2 (en) * 2002-04-19 2004-11-16 Sonosite, Inc. Method, apparatus, and product for accurately determining the intima-media thickness of a blood vessel
JP2004064438A (ja) 2002-07-29 2004-02-26 Toshiba Corp 監視システム及び監視方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189295A (ja) * 2001-12-17 2003-07-04 Cec:Kk 監視カメラシステム及びこれを用いた情報提供システム

Also Published As

Publication number Publication date
US20070248244A1 (en) 2007-10-25
GB2436904A (en) 2007-10-10
GB0620330D0 (en) 2006-11-22
US7627199B2 (en) 2009-12-01
GB2436904B (en) 2008-04-02
JP2007280043A (ja) 2007-10-25

Similar Documents

Publication Publication Date Title
JP4541316B2 (ja) 映像監視検索システム
JP5227911B2 (ja) 監視映像検索装置及び監視システム
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
CN112217998B (zh) 拍摄装置、信息处理装置及其控制方法、存储介质
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US10242294B2 (en) Target object classification using three-dimensional geometric filtering
JP5147761B2 (ja) 画像監視装置
JPH07168932A (ja) ビデオ画像中の人間を探索する方法
KR101645959B1 (ko) 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
JP2012253723A (ja) 画像表示装置及び画像表示方法
US20130071032A1 (en) Image processing apparatus,image processing method, and program
JP2009027393A (ja) 映像検索システムおよび人物検索方法
JP5768265B2 (ja) 類似画像検索システム
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
JP7359621B2 (ja) エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
JP2010117952A (ja) 物体判別方法および物体判別装置
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
US10783365B2 (en) Image processing device and image processing system
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
JP5253101B2 (ja) オブジェクト追尾方法および画像処理装置
JP5376403B2 (ja) 映像表示装置及びプログラム
JP7374632B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2008211534A (ja) 顔検知装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070921

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100623

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees