JP2007267294A - Moving object monitoring apparatus using a plurality of cameras - Google Patents
Moving object monitoring apparatus using a plurality of cameras Download PDFInfo
- Publication number
- JP2007267294A JP2007267294A JP2006092746A JP2006092746A JP2007267294A JP 2007267294 A JP2007267294 A JP 2007267294A JP 2006092746 A JP2006092746 A JP 2006092746A JP 2006092746 A JP2006092746 A JP 2006092746A JP 2007267294 A JP2007267294 A JP 2007267294A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- tracking
- monitoring
- unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、監視領域に設置された複数のカメラを用いて人間や自動車などの移動物体を監視する装置に関する。 The present invention relates to an apparatus for monitoring a moving object such as a human being or an automobile using a plurality of cameras installed in a monitoring area.
犯罪発生率の増加など社会不安に対処するために、不審者や不審車両を監視することを目的としたカメラの設置台数が増加している。このように多数のカメラを用いた監視では、監視領域を限られた監視員リソースで効率的に監視するための監視支援技術が必要になる。 In order to deal with social unrest, such as the increase in crime rates, the number of cameras installed for the purpose of monitoring suspicious persons and suspicious vehicles is increasing. As described above, monitoring using a large number of cameras requires a monitoring support technique for efficiently monitoring a monitoring area with limited monitoring personnel resources.
このような監視支援技術として、特許文献1に示されている「移動物体追跡装置」がある。ここでは、不審者等の追跡対象となる移動物体を追跡し、できるだけ追跡対象が画面に表示されるように、画像切替を自動的に行う技術が開示されている。この技術により、不審者発見後、監視員は多数の監視映像を注視することなく、容易に不審者を追跡監視できるようになる。 As such a monitoring support technique, there is a “moving object tracking device” disclosed in Patent Document 1. Here, a technique is disclosed in which a moving object to be tracked such as a suspicious person is tracked, and image switching is automatically performed so that the tracking target is displayed on the screen as much as possible. With this technology, after a suspicious person is discovered, a supervisor can easily follow and monitor the suspicious person without gazing at a large number of monitoring images.
また、特許文献2に示されている「広域監視装置」では、監視領域のマップ上に移動物体の軌跡を表示し、監視映像と連携させて表示する技術が開示されている。これにより、移動物体の過去の位置と現在の位置を容易に把握できるようになる。
In addition, the “wide area monitoring device” disclosed in
上記従来技術では、監視員または装置が追跡指示を出してから追跡を開始するので、監視員は追跡開始前の状況を把握できない。 In the above-described prior art, since the monitoring starts after the monitoring person or device issues the tracking instruction, the monitoring person cannot grasp the situation before the starting of the tracking.
また、上記従来技術では、監視領域のマップ上に移動物体の軌跡を表示するものであり、幾何学的な位置の履歴を確認することはできるが、監視対象の挙動などの過去の状況を知ることができない。 In addition, in the above-described conventional technique, the locus of a moving object is displayed on the monitoring area map, and the history of the geometric position can be confirmed, but the past situation such as the behavior of the monitoring target is known. I can't.
本発明は、上記の点を考慮してなされたものであり、監視対象の状況を容易に把握できる移動物体監視装置を提供する。 The present invention has been made in consideration of the above points, and provides a moving object monitoring apparatus that can easily grasp the status of a monitoring target.
本発明による移動物体監視装置においては、複数のカメラで撮影した映像から算出される移動物体の特徴量から移動物体を追跡した結果を用いて、移動物体が映っているカメラ映像を選択すると共に移動物体の移動軌跡を生成し、選択されたカメラ映像と生成された移動軌跡とから監視画面を生成する。 In the moving object monitoring apparatus according to the present invention, the moving object is selected and moved using the result of tracking the moving object from the feature quantity of the moving object calculated from the images captured by a plurality of cameras. An object movement trajectory is generated, and a monitoring screen is generated from the selected camera image and the generated movement trajectory.
本発明によれば、軌跡情報に加えて選択されたカメラ映像を表示することにより、追跡対象の状況を容易に把握できる。 According to the present invention, the status of the tracking target can be easily grasped by displaying the selected camera video in addition to the trajectory information.
実施例1
図1は、本発明の一実施例である移動物体監視装置の機能構成を示すブロック図である。
Example 1
FIG. 1 is a block diagram showing a functional configuration of a moving object monitoring apparatus according to an embodiment of the present invention.
カメラ100は、ネットワークカメラやビデオカメラなどの撮影装置である。監視領域全体を撮影できるように複数のカメラを設置する。カメラの設置密度は疎であっても密であっても構わない。
The
映像取得部102はカメラ100で撮影した映像を取得する。カメラ100がネットワークカメラの場合は、ネットワーク経由ですでにデジタル化された画像データを一定の時間間隔で取得する。ビデオカメラの場合にはカメラより出力されるアナログ信号を取得した後で、デジタル化する。
The
映像DB104は、映像取得部102で取得した画像データを蓄積するデータベース
(DB)である。画像データのフォーマットとしては、JPEG(Joint Photographic
Experts Group),PNG(Portable Network Graphics)等一般的に利用されるものを利用すればよい。また、連続した静止画を動画データとして格納しても構わない。この場合、MPEG(Moving Picture Experts Group)などのフォーマットを利用すればよい。
The video DB 104 is a database (DB) that stores the image data acquired by the
A commonly used one such as Experts Group) or PNG (Portable Network Graphics) may be used. Further, continuous still images may be stored as moving image data. In this case, a format such as MPEG (Moving Picture Experts Group) may be used.
特徴量算出部106は、映像DB104に格納された画像データに映っている移動物体の特徴量を算出する。特徴量は、移動物体固有の特徴を現すベクトル量であり、色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが有る。例えば、移動物体の色の特徴として、下半身と上半身の最頻輝度値を用いることができる。この場合、特徴量は二次元のベクトルとなる。
The feature
特徴量DB108は、特徴量算出部106で算出した移動物体の特徴量と関連情報を蓄積するデータベース(DB)である。
The
移動物体追跡部110は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか追跡する。ここで、追跡対象は人物だけに限定するものではなく、移動物体であればどのようなものでも構わない。
The moving
映像選択部112は、移動物体追跡部110の追跡結果を用いて、映像DB104の中から移動物体が映っているカメラ映像を選択する。
The
軌跡生成部114は、移動物体追跡部110の追跡結果を用いて、移動物体の移動軌跡を生成する。移動軌跡とは移動物体の過去の移動履歴を表す線分である。
The
サムネイル生成部116は、軌跡生成部114が生成する軌跡を、本監視装置の利用者にとって分かりやすいものにするためにサムネイルを生成する。サムネイルとは、カメラ100で撮影した映像を縮小した画像データである。過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで過去の映像履歴を一覧することが可能になる。
The
監視画面生成部118は、映像DB104に蓄積された映像データと映像選択部112が選択した移動物体が映っている映像データと軌跡生成部114が生成した軌跡データから、本監視装置の利用者に提供する監視画面を生成する。
The monitoring
入力手段120は、マウス,キーボード等の入力装置であり、“追跡開始”,“追跡終了”等の本監視装置の利用者の操作を受け付ける。
The
出力手段122は、ディスプレイなどの出力装置であり、監視画面生成部118が生成する監視画面を利用者に対して表示する。
The
次に、図2および図3で、監視画面生成部118が生成し出力手段122に表示する監視画面の表示例を説明する。監視画面は、複数映像監視画面と追跡画面で構成される。以下順に説明する。
Next, a display example of the monitoring screen generated by the monitoring
まず、図2で複数の映像を閲覧するための複数映像監視画面の例を説明する。 First, an example of a multiple video monitoring screen for browsing a plurality of videos will be described with reference to FIG.
画面左部のマップ200は、監視領域全体の概略を示すマップである。この例では、3階建てのビルが監視対象であることを表している。
A
アイコン202は、マップ200上でのカメラの幾何学的な配置を示すものである。この例では、6台のカメラが監視領域内に配置されている。
The
映像監視領域204は、カメラ100で撮影した映像を表示する領域である。この例では、監視映像206等、4台のカメラの映像を表示している。5台以上のカメラの映像を表示する場合には、映像監視領域204の分割数を大きくするか、または映像監視領域
204の一部を表示するようにしてスクロールバーで表示領域を変更できるようにすればよい。逆に、3台以下のカメラの映像を表示する場合には、映像監視領域204の分割数を小さくすればよい。
The
この複数映像監視画面によって、本装置の利用者は、カメラ100で撮影した複数の映像を同時に閲覧することができる。画面上で不審人物を確認した場合には、映像監視領域204の監視映像をマウスでクリックすることで追跡開始を指示できる。追跡終了ボタン208をマウスでクリックすることで、現在実行中の追跡を停止できる。
With this multiple video monitoring screen, the user of the present apparatus can simultaneously browse a plurality of videos shot by the
なお、アイコン202と映像監視領域204内の映像との対応関係が明確になるように、例えば、両者をリンク210のようにアイコン202と監視映像206を線分で結んでもよい。また、映像監視領域204内の映像上に、アイコン202に対応するカメラの名称を表示してもよい。
For example, the
次に、図3で特定の移動物体を監視するための追跡画面の例を説明する。 Next, an example of a tracking screen for monitoring a specific moving object will be described with reference to FIG.
画面全体の構成は図2の複数映像監視画面と基本的に同じである。異なるのは、マップ200上に、移動物体の軌跡300を表示する点、および、追跡対象を追跡しているカメラの映像だけを監視領域204に表示する点である。
The configuration of the entire screen is basically the same as the multiple video monitoring screen of FIG. The only difference is that the
移動物体の軌跡300は、サムネイル302と矢印306で構成される。サムネイル
302とは、カメラで撮影した映像を縮小した画像データである。追跡対象がアイコン
304に対応するカメラで撮影された画像データを過去の履歴として利用する。一方、矢印306は、サムネイル302からサムネイル308に移動したことを表す。軌跡の始点のサムネイル302は、このサムネイルに対応するカメラで追跡が始まったことを示し、軌跡の終点のサムネイル310は、このサムネイルに対応するカメラで現在移動物体を追跡中であることを示している。ここで、このように現在移動物体を追跡しているカメラを、カレントカメラと呼ぶことにする。
The moving
監視領域204上には、カレントカメラで撮影した監視映像206を表示する。この際、カレントカメラに対応するアイコン202を、ハイライト表示することで、監視映像
206を撮影したカメラを容易に把握できる。また、サムネイル302をマウスでクリックすると、サムネイルに対応する監視映像を監視領域204に表示するようにしてもよい。
On the
このように、過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで移動物体の過去の状況を容易に把握できる。 In this way, by displaying a past representative video as a thumbnail on the trajectory, it is possible to easily grasp the past situation of the moving object simply by looking at the moving trajectory.
図3では追跡数が一つの場合の追跡画面の例を示したが、追跡数は複数であっても構わない。図18には、追跡数が二つの場合の追跡画面の例を示す。この画面には、移動軌跡300と移動軌跡1800を表示している。移動軌跡300については、図3に示したものと同じである。移動軌跡1800は、移動軌跡300と同じようにサムネイルと矢印で構成されている。また、移動軌跡1800のカレントカメラに対応する監視映像1802を監視領域204の下部表示している。移動軌跡を表示する際には、移動軌跡が重なり合って見えなくなるのを防ぐために、移動軌跡300に対して右方向と下方向にオフセットをかけて移動軌跡1800を表示している。
Although FIG. 3 shows an example of the tracking screen when the number of tracking is one, the number of tracking may be plural. FIG. 18 shows an example of a tracking screen when the number of tracking is two. On this screen, a
次に、図4で移動物体追跡の基本原理を説明する。左側はカメラで撮影した監視映像であり、右側はその監視映像に対して特徴量算出部106で算出した特徴量をグラフ化したものである。また、特徴量をグラフ化する際には、特定の監視映像に対する特徴量だけではなく、その直前の監視映像数枚に対する特徴量も同時に表示してある。そのため、追跡対象一人に対して特徴量がプロットされている。これは、特徴量の算出誤差を考慮し、追跡精度を高めるためである。なお、監視映像の取得時刻は、上から下方向に、それぞれ
t1,t2,t3(t1<t2<t3)とする。
Next, the basic principle of moving object tracking will be described with reference to FIG. The left side is a monitoring video taken by the camera, and the right side is a graph of the feature amount calculated by the feature
まず、時刻t1の監視映像400には、移動物体として人物402と人物404が存在しており、それぞれ、特徴量空間406では特徴量408と特徴量410に対応している。
First, in the
次に、時刻t2における監視映像412には、移動物体として人物414と人物416が存在しており、それぞれ、特徴量空間418では特徴量420と特徴量422に対応している。ここで、特徴量空間406の特徴量408と特徴量空間418の特徴量420が同じ場所に位置しているので、人物402は人物414と同じ可能性が高く、監視映像
400から監視映像412に移動したと判定することができる。
Next, in the
ここで、特徴量408と特徴量420の同値判定には、それぞれの重心間のユークリッド距離を用る。この距離が、あらかじめ定めた所定の閾値よりも小さい場合には両者が十分近く同じであると判定する。ユークリッド距離以外にも、集団の分散を考慮したマハラノビス距離を用いても構わない。また、ウイルクスのΛ統計を用いて両集団に差があるのか否かを検定しても良い。マハラノビス距離およびウイルクスのΛ統計は多変量解析でよく利用される方法であり、例えば、刊行物「すぐわかる多変量解析」(石村貞夫著,東京図書,1992)に記載されている。
Here, the Euclidean distance between the respective centroids is used for the equivalence determination of the
次に、時刻t3における監視映像424には、移動物体として人物426が存在しており、特徴量空間428では特徴量430に対応している。ここで、特徴量空間406の特徴量410と特徴量空間428の特徴量430が同じ場所に位置しているので、人物404は人物426と同じ可能性が高く、監視映像400から監視映像424に移動したと判定することができる。
Next, in the
このように、特徴量空間で同じような値を持つ特徴量を検索することで、特定の移動物体がカメラ間をどのように移動したのか追跡することが可能になる。 Thus, by searching for feature quantities having similar values in the feature quantity space, it becomes possible to track how a specific moving object has moved between cameras.
次に、図5を用いて、本実施例の監視装置における監視方法の処理の流れを説明する。 Next, the flow of processing of the monitoring method in the monitoring apparatus of the present embodiment will be described using FIG.
ステップ500では、ステップ502からステップ518までの処理を、あらかじめ定めた所定の頻度で繰り返す。
In
ステップ502では、映像取得部102でカメラによって撮影した監視映像を取得する。
In
ステップ504では、特徴量算出部106によってステップ502で取得した映像中の移動物体の特徴量を算出する。
In
ステップ506では、監視画面生成部118によって本監視装置の利用者の操作を処理する。ここで、利用者の操作は入力手段120を用いて入力される。
In
ステップ508では、現在実行中の追跡について、ステップ510からステップ516の処理を繰り返す。
In
ステップ510では、処理対象の時刻tを現時刻に設定する。これにより、ステップ
512での追跡処理は現時刻を基準に実施される。
In
ステップ512では、ステップ510で設定した時刻tを基準にして、移動物体追跡部110によって人物追跡を実行する。
In
ステップ514では、ステップ512での人物追跡の結果、カメラ間の渡りが発生したかどうか判定し、発生した場合には、ステップ516を実行する。ここで、カメラ間の渡りとは、追跡対象が当初映っていたカメラから消えて、他のカメラに現れることである。
In
ステップ516では、軌跡生成部114によって人物の移動軌跡を生成する。
In
ステップ518では、監視画面生成部118によって監視画面を生成し出力手段122に表示する。
In
次に、図6のフローチャートを使って、図5のステップ506の入力処理の詳細を説明する。
Next, details of the input processing in
ステップ600では、入力手段120からの本監視装置の利用者の操作を受け付ける。
In
ステップ602では、ステップ600での入力結果を判定する。“追跡開始”が指定された場合には、ステップ604からステップ608を実行する。“追跡開始”は、例えば、図2の複数映像監視画面の監視映像206をマウスでクリックすることで指定される。一方、“追跡終了”が指定された場合には、ステップ610を実行する。“追跡終了”は、例えば、図2の複数映像監視画面の追跡終了ボタン208をマウスでクリックすることで指定される。
In
ステップ604では、ステップ600で指定されたカメラに映っている人物に対応する特徴量を、追跡対象の特徴量として特徴量DBに記憶する。
In
ステップ606では、ステップ600で指定されたカメラをカレントカメラとする。カレントカメラとは、前述のように人物追跡時に移動物体を現時点で追跡しているカメラのことである。
In
ステップ608では、図5のステップ508の処理対象に加えるために、ステップ604とステップ606で得た情報を基にして追跡を新規登録する。
In
ステップ610では、現在実行中の全ての追跡を停止する。この結果、図5のステップ508で処理対象となる追跡は一つも存在しなくなる。
In
次に、図7のフローチャートを使って、図5のステップ512の人物追跡の処理の詳細を説明する。
Next, details of the person tracking process in
ステップ700では、カレントカメラの映像に追跡人物が存在するかどうか判定する。追跡人物とは図5のステップ508で処理対象に指定した移動軌跡に対応する人物のことである。なお、ここで人物と表現しているが車両等移動物体全般のことを含むこととする。カレントカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。カレントカメラの映像に対応する特徴量空間に、追跡対象の特徴量が処理対象の時刻tにおいても存在する場合には、カレントカメラに追跡人物が存在しないと判定し、ステップ702から706を実行する。
In
ステップ702では、カレントカメラ以外に追跡人物が存在するのか検索する。この検索処理については図8にて詳細に説明する。
In
ステップ704では、ステップ702の追跡人物の検索処理の結果を判定し、他のカメラに追跡人物が存在した場合には、ステップ706を実行する。
In
ステップ706では、ステップ702での検索結果を基にして、追跡人物が存在するカメラを新たにカレントカメラとして設定する。
In
ステップ708では、処理開始から事前に指定した所定時間が経過したのか判定する。これは、追跡処理を時間で打ち切るための処理である。必要であれば所定時間に無限大を指定することで、追跡処理の打ち切りを回避することも可能である。判定の結果、所定時間を経過している場合には、ステップ710を実行する。
In
ステップ710では、現在の処理対象の追跡を打ち切るための停止処理を実行する。
In
次に、図8のフローチャートを使って、図7のステップ702の追跡人物の検索処理の詳細を説明する。
Next, details of the tracking person search processing in
ステップ800では、本実施例の監視装置の全てのカメラについてステップ802からステップ808を繰り返し実行する。
In
ステップ802では、ステップ800で処理対象となったカメラがカレントカメラと同じかどうか判定する。同じ場合にはステップ804を実行する。
In
ステップ804では、処理の効率化のためにステップ800の現在のループ処理をスキップして次のループ処理へと進む。カレントカメラには追跡対象の人物が存在しないことが、図7のステップ700で確定しているためである。
In
ステップ806では、ステップ800で処理対象となったカメラに追跡対象の人物が存在するかどうか判定する。処理対象のカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。判定の結果、存在する場合にはステップ808を実行する。
In
ステップ808では、現在処理対象のカメラを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生し、かつ現在処理対象のカメラに追跡対象が存在することが分かる。
In
ステップ810では、無効を意味するNULLを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生していないことが分かる。
In
次に、図1の特徴量DB116に格納する特徴量のデータ構造の例を図9を使って説明する。特徴量データは、特徴量データ全体を表すテーブル900と特徴量ベクトルを表すテーブル910で構成される。
Next, an example of the data structure of the feature amount stored in the
テーブル900は一つの特徴量データを表すテーブルである。このテーブルはデータ項目902〜データ項目908から構成される。データ項目902は、カメラを一意に表すIDである。このIDに対応するカメラで撮影した映像から特徴量を算出したことを示す。データ項目904は、追跡対象の人物を表すIDである。このIDは一つのカメラ内で人物を追跡する過程で定まるものである。あくまでも、一つのカメラ内で一意に定まるものであり、複数のカメラ間で同じ人物に対して一意に定まるものではない。データ項目
906は、特徴量を算出した映像の取得時刻である。データ項目908は、算出した特徴量ベクトルを格納する領域へのポインタであり、テーブル910を指し示している。
A table 900 is a table representing one piece of feature amount data. This table includes
特徴量ベクトルを表すテーブル910は、データ項目912と可変長のデータ項目914から構成される。データ項目912は、ベクトルの次数である。特徴量ベクトルの次数は、特徴量として色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが有るため、一意には定まらない。ここでは、採用する特徴量を自由に変更できるように、特徴量ベクトルの次数をデータ項目912に保持することにする。例えば、移動物体の色の特徴として下半身と上半身の最頻輝度値を用いる場合には、次数は2となる。データ項目914は、特徴量ベクトルの要素であり、データ項目912で指定した次数の数だけ項目が存在する。
A table 910 representing a feature vector is composed of
次に図17に、図1の実施例の監視装置をネットワーク環境下でシステム構築する際の機能配置の一例を示す。このシステムは、ネットワーク1700に、カメラ100とノード1702〜ノード1708が接続される形で構築されている。
Next, FIG. 17 shows an example of functional arrangement when the monitoring apparatus of the embodiment of FIG. 1 is constructed in a network environment. This system is constructed in such a manner that a
ネットワーク1700は、LANなど一般的に利用されているネットワークである。このネットワーク1700を介して図1の機能ブロックを配置する。
A
カメラ100はネットワークインタフェースをもったカメラであり、ネットワーク1700に接続する。このような構成を取ることで、ネットワークに接続された各種機器からカメラ100の映像を取得できる。
The
映像を取得するノード1702には、映像取得部102と映像DB104を配置する。
The
特徴量を算出するノード1704には、特徴量算出部106と特徴量DB108を配置する。
In the
人物追跡を行うノード1706には、移動物体追跡部110と軌跡生成部112とサムネイル生成部116を配置する。
A moving
監視画面を生成するノード1708には、映像選択部112と監視画面生成部114と入力手段116と出力手段118を配置する。
In the
以上述べた実施例により、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体をより少ない負荷で追跡監視できる。また、移動軌跡を確認することで、過去にどのような経路を通ってきて、現在どこにいるのか簡単に把握できる。またサムネイルを確認することで、追跡対象の過去の状況を画像で確認できる。また、利用者がサムネイルで確認することで、装置が異なる移動物体を同じ移動物体として追跡してしまう移動物体追跡のミスを早期に発見することも可能である。 According to the embodiment described above, it is possible to track and display a moving object such as a specific person while displaying a moving locus with a thumbnail on the monitoring area map. Therefore, the user of the monitoring apparatus of this embodiment can track and monitor a moving object with a smaller load. Also, by confirming the movement trajectory, it is possible to easily grasp what route has been taken in the past and where it is now. Also, by checking the thumbnails, the past status of the tracking target can be confirmed with images. It is also possible for the user to detect the moving object tracking mistake that the apparatus tracks different moving objects as the same moving object at an early stage by checking with the thumbnail.
実施例2
第1の実施例では、追跡対象を時間軸の正方向に追跡していたが、時間軸の逆方向、すなわち過去に遡って追跡するようにしてもよい。ここでは、このような追跡を逆追跡と呼ぶことにする。この場合の実施例を以下に示す。基本的には実施例1と大部分が同じ構成であるので、変更がある部分について説明する。
Example 2
In the first embodiment, the tracking target is tracked in the positive direction of the time axis, but may be tracked in the reverse direction of the time axis, that is, tracing back to the past. Here, such tracking is called reverse tracking. An example in this case is shown below. Basically, most of the configuration is the same as that of the first embodiment, and therefore, there will be described a portion having a change.
図10は、逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図である。図10中の移動物体逆追跡部1000以外の機能ブロックは図1に示したものと同じである。
FIG. 10 is a block diagram illustrating a functional configuration of a moving object monitoring apparatus having a reverse tracking function. The functional blocks other than the moving object
移動物体逆追跡部1000は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか過去に遡って追跡する。
The moving object
図11は、逆追跡機能を持つ移動物体監視装置の追跡画面の例を示している。追跡画面の大部分は、図3に示した追跡画面と基本的に同じであり、異なるのは移動軌跡1100である。 FIG. 11 shows an example of a tracking screen of a moving object monitoring apparatus having a reverse tracking function. Most of the tracking screen is basically the same as the tracking screen shown in FIG.
軌跡1100は、サムネイル1102と矢印1104で構成される。矢印1104は、サムネイル1102に移動する前にはサムネイル1106に存在していたことを表す。このように図3の軌跡300とは逆方向に過去に遡って軌跡を表示する。軌跡の始点となるサムネイル1102は、このサムネイルに対応するカメラで逆追跡が始まったことを示している。一方、軌跡の終点となるサムネイル1108は、このサムネイルに対応するカメラ100で逆追跡が終了したことを示している。逆追跡の終了条件としては、逆追跡の対象人物を見失った場合、逆追跡で遡る時間が所定の時間を越えた場合等が有る。
The
次に、図12を用いて、逆追跡機能を持つ本実施例の監視装置における監視方法の処理の流れをフローチャートを使って説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ510がステップ1200変更された点である。
Next, the flow of processing of the monitoring method in the monitoring apparatus of the present embodiment having the reverse tracking function will be described using a flowchart with reference to FIG. Basically, it is the same as the flowchart shown in FIG. 5 except that
ステップ1200では、逆追跡の処理時刻tbをあらかじめ与えておいたΔtだけ減じる。これは追跡処理の対象時刻をΔtだけ遡ることを意味する。その後で、追跡処理の対象時刻tをtbに設定する。これにより、ステップ512での追跡処理は、時刻tbの情報を基にして実行される。
In
次に、図13のフローチャートを使って、図12のステップ506の入力処理の詳細を説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ1300が追加された点である。
Next, details of the input processing in
ステップ1300では、逆追跡の処理時刻tbに現時刻を設定する。これは、現時刻を起点にして過去に遡って追跡対象を逆追跡するためである。
In
本実施例によれば、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を過去に遡って逆追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体の過去の行動を容易に把握できる。つまり、移動軌跡を確認することで、過去にどのような経路を通ってきて、現在どこにいるのか簡単に把握できる。またサムネイルを確認することで、追跡対象の過去の状況を画像で確認できる。 According to this embodiment, a moving object such as a specific person can be traced back in the past while displaying a moving trajectory with a thumbnail on the monitoring area map. Therefore, the user of the monitoring apparatus of the present embodiment can easily grasp the past behavior of the moving object. In other words, by confirming the movement trajectory, it is possible to easily grasp what route has been taken in the past and where it is now. Also, by checking the thumbnails, the past status of the tracking target can be confirmed with images.
実施例3
実施例1および実施例2では、追跡対象を時間軸の正方向または逆方向のどちらかに追跡していたが、両方向、つまり正方向と逆方向の双方に追跡するようにしてもよい。ここでは、このような追跡を正逆追跡と呼ぶことにする。この場合の実施例を以下に示す。基本的には実施例1および実施例2と大部分が同様の構成であるので、変更がある部分を説明する。
Example 3
In the first and second embodiments, the tracking target is tracked in either the forward or reverse direction of the time axis, but may be tracked in both directions, that is, in both the forward and reverse directions. Here, such tracking is called forward / reverse tracking. An example in this case is shown below. Basically, most of the configurations are the same as those in the first and second embodiments, and therefore, the portions with changes will be described.
図14は、正逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図である。図14中の移動物体正逆追跡部1400以外の機能ブロックは図1に示したものと同様である。
FIG. 14 is a block diagram showing a functional configuration of a moving object monitoring apparatus having a forward / reverse tracking function. The functional blocks other than the moving object forward /
移動物体正逆追跡部1400は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか時間軸の正方向と逆方向の両方に向かって追跡する。
The moving object forward /
図15は、正逆追跡機能を持つ移動物体監視装置の追跡画面の例を示している。追跡画面の大部分は、図3に示した追跡画面と基本的に同様であり、異なるのは移動軌跡1500と移動軌跡1502である。
FIG. 15 shows an example of a tracking screen of a moving object monitoring apparatus having a forward / reverse tracking function. Most of the tracking screen is basically the same as the tracking screen shown in FIG. 3, and the difference is a
移動軌跡1500はサムネイル1504を始点とする正方向の追跡、移動軌跡1502は同じくサムネイル1504を始点とする逆方向の追跡である。それそれ、図3と図11で説明した軌跡と同様である。このように、正方向と逆方向の両方の移動軌跡を表示する。
The
次に、図16を用いて、正逆追跡機能を持つ本実施例の監視装置における監視方法の処理の流れを説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ1600〜ステップ1606が追加された点である。ステップ510〜ステップ516は正方向の追跡処理であり、一方ステップ1600〜ステップ1606では逆方向の追跡処理である。ステップ1600〜ステップ1606は、図12のステップ1200〜ステップ516と同様の処理である。
Next, the flow of processing of the monitoring method in the monitoring apparatus of this embodiment having a forward / reverse tracking function will be described with reference to FIG. Basically, it is the same as the flowchart shown in FIG. 5 except that Steps 1600 to 1606 are added.
以上に述べた実施例によれば、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を追跡表示すると同時に、過去に遡って逆追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体を少ない負荷で追跡監視できると同時に、移動物体の過去の行動を容易に把握できる。 According to the embodiment described above, it is possible to track and display a moving object such as a specific person while displaying a moving locus with a thumbnail on a monitoring area map, and at the same time, can perform backward tracking display retroactively. become. Therefore, the user of the monitoring apparatus of the present embodiment can track and monitor the moving object with a small load, and can easily grasp the past behavior of the moving object.
実施例4
実施例1〜3では、監視装置の利用者が、入力手段120を使って明示的に追跡指示を出すが、本装置で異常行動を自動検知するようにして、検知時に自動的に追跡指示を出すようにしてもよい。この場合の実施例を以下に示す。基本的には実施例1と大部分が同様の構成であるので、変更がある部分を説明する。
Example 4
In the first to third embodiments, the user of the monitoring device explicitly issues a tracking instruction using the
図19は、異常検知機能を持つ移動物体監視装置の機能構成を示すブロック図である。異常行動検知部1900が追加された以外は図1のブロック図と同様である。
FIG. 19 is a block diagram illustrating a functional configuration of a moving object monitoring apparatus having an abnormality detection function. 1 is the same as the block diagram of FIG. 1 except that an abnormal
異常行動検知部1900は、画像DB104に格納された画像データを用いて異常行動を検知する。異常行動が検知された場合には、移動物体追跡部110に追跡開始の指示信号を出力し、新しく移動物体の追跡を開始する。
The abnormal
ここで、異常行動の検知方法としては、例えば、刊行物「複数人動画像からの異常動作検出」(情報処理学会研究報告,コンピュータビジョンとイメージメディア、2004−CVIM−145)に記載されている立体高次局所自己相関特徴を用いた公知の異常行動判別方法を利用すればよい。立体高次局所自己相関特徴とは、顔画像認識などによく使われる高次局所自己相関特徴を時間方向に拡張した特徴であり、動画の特徴量を得ることができる。この特徴とは、画像を時系列に並べたボクセルデータ中の各点において251種類の局所的な自己相関特徴を計算し、ボクセルデータ全体にわたって積分することで得られる251次元のベクトル量である。そして、この手法で得られた動画の特徴量を判別分析にかけて異常行動であるかどうか判別する。 Here, as a method for detecting abnormal behavior, for example, it is described in the publication “Detection of abnormal motion from multiple moving images” (Information Processing Society of Japan Research Report, Computer Vision and Image Media, 2004-CVIM-145). What is necessary is just to utilize the well-known abnormal action discrimination method using a solid higher-order local autocorrelation feature. The three-dimensional higher-order local autocorrelation feature is a feature obtained by extending a higher-order local autocorrelation feature often used in face image recognition or the like in the time direction, and can obtain a feature amount of a moving image. This feature is a 251-dimensional vector quantity obtained by calculating 251 types of local autocorrelation features at each point in the voxel data in which images are arranged in time series, and integrating over the entire voxel data. Then, the feature amount of the moving image obtained by this method is subjected to discriminant analysis to determine whether or not it is abnormal behavior.
本実施例によれば、カメラで撮影した映像中の異常行動を検知し自動的に追跡を開始できる。したがって、監視員が追跡指示を出さなくても、不審人物などの移動物体の追跡が可能になり、結果として監視員の負担を低減することが可能になる。 According to the present embodiment, it is possible to detect abnormal behavior in a video photographed by a camera and automatically start tracking. Therefore, it is possible to track a moving object such as a suspicious person without issuing a tracking instruction by the monitoring person, and as a result, it is possible to reduce the burden on the monitoring person.
100…カメラ、102…映像取得部、104…映像DB、106…特徴量算出部、
108…特徴量DB、110…移動物体追跡部、112…映像選択部、114…軌跡生成部、116…サムネイル生成部、118…監視画面生成部、120…入力手段、122…出力手段。
DESCRIPTION OF
DESCRIPTION OF
Claims (7)
複数のカメラで撮影した映像から移動物体の特徴量を算出する特徴量算出部と、
前記特徴量から前記移動物体を追跡する移動物体追跡部と、
前記移動物体追跡部の追跡結果を用いて前記移動物体が映っているカメラ映像を選択する映像選択部と、
前記追跡結果を用いて、前記移動物体の移動軌跡を生成する軌跡生成部と、
前記映像選択部が選択した前記カメラ映像と前記軌跡生成部が生成した前記移動軌跡とから監視画面を生成する監視画面生成部と、
を備えることを特徴とする移動物体監視装置。 In a moving object monitoring apparatus that monitors a moving object using a plurality of cameras,
A feature amount calculation unit for calculating a feature amount of a moving object from images captured by a plurality of cameras;
A moving object tracking unit that tracks the moving object from the feature amount;
A video selection unit that selects a camera video in which the moving object is shown using the tracking result of the moving object tracking unit;
Using the tracking result, a trajectory generating unit that generates a moving trajectory of the moving object;
A monitoring screen generation unit that generates a monitoring screen from the camera image selected by the video selection unit and the movement locus generated by the locus generation unit;
A moving object monitoring apparatus comprising:
7. The moving object tracking unit according to claim 1, wherein the moving object tracking unit calculates the feature amount using any one of Euclidean distance between centroids, Mahalanobis distance between centroids, and Wiltz Λ statistics. A moving object monitoring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006092746A JP4706535B2 (en) | 2006-03-30 | 2006-03-30 | Moving object monitoring device using multiple cameras |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006092746A JP4706535B2 (en) | 2006-03-30 | 2006-03-30 | Moving object monitoring device using multiple cameras |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007267294A true JP2007267294A (en) | 2007-10-11 |
JP4706535B2 JP4706535B2 (en) | 2011-06-22 |
Family
ID=38639797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006092746A Expired - Fee Related JP4706535B2 (en) | 2006-03-30 | 2006-03-30 | Moving object monitoring device using multiple cameras |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4706535B2 (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010140425A (en) * | 2008-12-15 | 2010-06-24 | Hitachi Kokusai Electric Inc | Image processing system |
JP2010205276A (en) * | 2010-04-09 | 2010-09-16 | Toshiba Tec Corp | Traffic line editing device, and traffic line editing program |
JP2010239992A (en) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | Person identification device, person identification method, and person identification program |
JP2012134638A (en) * | 2010-12-20 | 2012-07-12 | Hitachi Building Systems Co Ltd | Elevator monitoring image recording device |
JP2013081039A (en) * | 2011-10-03 | 2013-05-02 | Hitachi Kokusai Electric Inc | Image display device |
CN104679864A (en) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | Intelligent tracking method and intelligent tracking device for suspected target based on GIS (Geographic Information System) |
CN105677922A (en) * | 2016-03-23 | 2016-06-15 | 苏州数字地图信息科技股份有限公司 | Method and device for positioning target by videos |
JP2016129306A (en) * | 2015-01-09 | 2016-07-14 | キヤノン株式会社 | Information processing system, information processing method, and program |
KR20170009300A (en) * | 2015-07-16 | 2017-01-25 | 한화테크윈 주식회사 | Advanced wander alarm system and method thereof |
US9697420B2 (en) | 2013-02-15 | 2017-07-04 | Nec Corporation | Information processing system, information processing method, and computer-readable recording medium |
JP6206857B1 (en) * | 2016-08-24 | 2017-10-04 | パナソニックIpマネジメント株式会社 | Tracking support device, tracking support system, and tracking support method |
KR20180000205A (en) * | 2016-06-22 | 2018-01-02 | 한국전자통신연구원 | Apparatus and method for intelligently analyzing video |
JP2018032950A (en) * | 2016-08-23 | 2018-03-01 | キヤノン株式会社 | Information processing unit and information processing method, and computer program |
JP2018147478A (en) * | 2017-03-02 | 2018-09-20 | 株式会社リコー | Decomposition of video stream into salient fragments |
JP6400260B1 (en) * | 2017-10-20 | 2018-10-03 | 三菱電機株式会社 | Data processing apparatus, programmable display and data processing method |
CN109657703A (en) * | 2018-11-26 | 2019-04-19 | 浙江大学城市学院 | Listener clustering method based on space-time data track characteristic |
CN111277745A (en) * | 2018-12-04 | 2020-06-12 | 北京奇虎科技有限公司 | Target person tracking method and device, electronic equipment and readable storage medium |
US10708635B2 (en) | 2017-03-02 | 2020-07-07 | Ricoh Company, Ltd. | Subsumption architecture for processing fragments of a video stream |
US10713391B2 (en) | 2017-03-02 | 2020-07-14 | Ricoh Co., Ltd. | Tamper protection and video source identification for video processing pipeline |
US10719552B2 (en) | 2017-03-02 | 2020-07-21 | Ricoh Co., Ltd. | Focalized summarizations of a video stream |
US10929707B2 (en) | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Computation of audience metrics focalized on displayed content |
US10929685B2 (en) | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US10943122B2 (en) | 2017-03-02 | 2021-03-09 | Ricoh Company, Ltd. | Focalized behavioral measurements in a video stream |
US10949705B2 (en) | 2017-03-02 | 2021-03-16 | Ricoh Company, Ltd. | Focalized behavioral measurements in a video stream |
US10949463B2 (en) | 2017-03-02 | 2021-03-16 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
US10956494B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
US10956495B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US10956773B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Computation of audience metrics focalized on displayed content |
WO2022009944A1 (en) * | 2020-07-10 | 2022-01-13 | 株式会社日立産業制御ソリューションズ | Video analysis device, wide-area monitoring system, and method for selecting camera |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6659524B2 (en) | 2016-11-18 | 2020-03-04 | 株式会社東芝 | Moving object tracking device, display device, and moving object tracking method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04273689A (en) * | 1991-02-28 | 1992-09-29 | Hitachi Ltd | Monitoring device |
JPH07288802A (en) * | 1994-04-18 | 1995-10-31 | Nippon Telegr & Teleph Corp <Ntt> | Intruded object supervisory equipment |
JPH09130783A (en) * | 1995-10-31 | 1997-05-16 | Matsushita Electric Ind Co Ltd | Distributed video monitoring system |
JPH10150657A (en) * | 1996-09-20 | 1998-06-02 | Hitachi Ltd | Mobile object displaying method, display system using it and program recording medium for it |
JP2004058737A (en) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | Safety monitoring device in station platform |
JP2005086626A (en) * | 2003-09-10 | 2005-03-31 | Matsushita Electric Ind Co Ltd | Wide area monitoring device |
JP2006031678A (en) * | 2004-05-28 | 2006-02-02 | Sony United Kingdom Ltd | Image processing |
JP2006081053A (en) * | 2004-09-13 | 2006-03-23 | Mitsubishi Electric Corp | System for supporting trace of mobile body |
-
2006
- 2006-03-30 JP JP2006092746A patent/JP4706535B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04273689A (en) * | 1991-02-28 | 1992-09-29 | Hitachi Ltd | Monitoring device |
JPH07288802A (en) * | 1994-04-18 | 1995-10-31 | Nippon Telegr & Teleph Corp <Ntt> | Intruded object supervisory equipment |
JPH09130783A (en) * | 1995-10-31 | 1997-05-16 | Matsushita Electric Ind Co Ltd | Distributed video monitoring system |
JPH10150657A (en) * | 1996-09-20 | 1998-06-02 | Hitachi Ltd | Mobile object displaying method, display system using it and program recording medium for it |
JP2004058737A (en) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | Safety monitoring device in station platform |
JP2005086626A (en) * | 2003-09-10 | 2005-03-31 | Matsushita Electric Ind Co Ltd | Wide area monitoring device |
JP2006031678A (en) * | 2004-05-28 | 2006-02-02 | Sony United Kingdom Ltd | Image processing |
JP2006081053A (en) * | 2004-09-13 | 2006-03-23 | Mitsubishi Electric Corp | System for supporting trace of mobile body |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010140425A (en) * | 2008-12-15 | 2010-06-24 | Hitachi Kokusai Electric Inc | Image processing system |
JP2010239992A (en) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | Person identification device, person identification method, and person identification program |
JP2010205276A (en) * | 2010-04-09 | 2010-09-16 | Toshiba Tec Corp | Traffic line editing device, and traffic line editing program |
JP2012134638A (en) * | 2010-12-20 | 2012-07-12 | Hitachi Building Systems Co Ltd | Elevator monitoring image recording device |
JP2013081039A (en) * | 2011-10-03 | 2013-05-02 | Hitachi Kokusai Electric Inc | Image display device |
US9697420B2 (en) | 2013-02-15 | 2017-07-04 | Nec Corporation | Information processing system, information processing method, and computer-readable recording medium |
JP2016129306A (en) * | 2015-01-09 | 2016-07-14 | キヤノン株式会社 | Information processing system, information processing method, and program |
CN104679864A (en) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | Intelligent tracking method and intelligent tracking device for suspected target based on GIS (Geographic Information System) |
KR20170009300A (en) * | 2015-07-16 | 2017-01-25 | 한화테크윈 주식회사 | Advanced wander alarm system and method thereof |
KR102015588B1 (en) * | 2015-07-16 | 2019-08-28 | 한화테크윈 주식회사 | Advanced wander alarm system and method thereof |
CN105677922A (en) * | 2016-03-23 | 2016-06-15 | 苏州数字地图信息科技股份有限公司 | Method and device for positioning target by videos |
KR20180000205A (en) * | 2016-06-22 | 2018-01-02 | 한국전자통신연구원 | Apparatus and method for intelligently analyzing video |
KR102407202B1 (en) * | 2016-06-22 | 2022-06-10 | 한국전자통신연구원 | Apparatus and method for intelligently analyzing video |
JP2018032950A (en) * | 2016-08-23 | 2018-03-01 | キヤノン株式会社 | Information processing unit and information processing method, and computer program |
US10719946B2 (en) | 2016-08-23 | 2020-07-21 | Canon Kabushiki Kaisha | Information processing apparatus, method thereof, and computer-readable storage medium |
JP6206857B1 (en) * | 2016-08-24 | 2017-10-04 | パナソニックIpマネジメント株式会社 | Tracking support device, tracking support system, and tracking support method |
JP2018032994A (en) * | 2016-08-24 | 2018-03-01 | パナソニックIpマネジメント株式会社 | Device, system and method for trace support |
WO2018037631A1 (en) * | 2016-08-24 | 2018-03-01 | パナソニックIpマネジメント株式会社 | Tracking assistance device, tracking assistance system and tracking assistance method |
GB2566912A (en) * | 2016-08-24 | 2019-03-27 | Panasonic Ip Man Co Ltd | Tracking assistance device, tracking assistance system and tracking assitance method |
US10929685B2 (en) | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US10956495B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US11398253B2 (en) | 2017-03-02 | 2022-07-26 | Ricoh Company, Ltd. | Decomposition of a video stream into salient fragments |
JP2018147478A (en) * | 2017-03-02 | 2018-09-20 | 株式会社リコー | Decomposition of video stream into salient fragments |
US10708635B2 (en) | 2017-03-02 | 2020-07-07 | Ricoh Company, Ltd. | Subsumption architecture for processing fragments of a video stream |
US10713391B2 (en) | 2017-03-02 | 2020-07-14 | Ricoh Co., Ltd. | Tamper protection and video source identification for video processing pipeline |
US10720182B2 (en) | 2017-03-02 | 2020-07-21 | Ricoh Company, Ltd. | Decomposition of a video stream into salient fragments |
US10719552B2 (en) | 2017-03-02 | 2020-07-21 | Ricoh Co., Ltd. | Focalized summarizations of a video stream |
US10956773B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Computation of audience metrics focalized on displayed content |
US10956494B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
US10929707B2 (en) | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Computation of audience metrics focalized on displayed content |
US10949463B2 (en) | 2017-03-02 | 2021-03-16 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
US10943122B2 (en) | 2017-03-02 | 2021-03-09 | Ricoh Company, Ltd. | Focalized behavioral measurements in a video stream |
US10949705B2 (en) | 2017-03-02 | 2021-03-16 | Ricoh Company, Ltd. | Focalized behavioral measurements in a video stream |
JP6400260B1 (en) * | 2017-10-20 | 2018-10-03 | 三菱電機株式会社 | Data processing apparatus, programmable display and data processing method |
CN110140152B (en) * | 2017-10-20 | 2020-10-30 | 三菱电机株式会社 | Data processing device, programmable display and data processing method |
CN110140152A (en) * | 2017-10-20 | 2019-08-16 | 三菱电机株式会社 | Data processing equipment, programable display and data processing method |
WO2019077750A1 (en) * | 2017-10-20 | 2019-04-25 | 三菱電機株式会社 | Data processing device, programmable display, and data processing method |
CN109657703A (en) * | 2018-11-26 | 2019-04-19 | 浙江大学城市学院 | Listener clustering method based on space-time data track characteristic |
CN109657703B (en) * | 2018-11-26 | 2023-04-07 | 浙江大学城市学院 | Crowd classification method based on space-time data trajectory characteristics |
CN111277745A (en) * | 2018-12-04 | 2020-06-12 | 北京奇虎科技有限公司 | Target person tracking method and device, electronic equipment and readable storage medium |
CN111277745B (en) * | 2018-12-04 | 2023-12-05 | 北京奇虎科技有限公司 | Target person tracking method and device, electronic equipment and readable storage medium |
WO2022009944A1 (en) * | 2020-07-10 | 2022-01-13 | 株式会社日立産業制御ソリューションズ | Video analysis device, wide-area monitoring system, and method for selecting camera |
JP2022015864A (en) * | 2020-07-10 | 2022-01-21 | 株式会社 日立産業制御ソリューションズ | Video analysis device, wide area monitoring system, and selection method of camera |
Also Published As
Publication number | Publication date |
---|---|
JP4706535B2 (en) | 2011-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4706535B2 (en) | Moving object monitoring device using multiple cameras | |
JP7282851B2 (en) | Apparatus, method and program | |
JP4613230B2 (en) | Moving object monitoring device | |
JP5227911B2 (en) | Surveillance video retrieval device and surveillance system | |
JP6213843B2 (en) | Image processing system, image processing method, and program | |
JP5001260B2 (en) | Object tracking method and object tracking apparatus | |
JP6362674B2 (en) | Video surveillance support apparatus, video surveillance support method, and program | |
JP4542207B1 (en) | Moving object detection method and moving object detection apparatus | |
JP6159179B2 (en) | Image processing apparatus and image processing method | |
JP5743849B2 (en) | Video analysis apparatus and system | |
EP1873732A2 (en) | Image processing apparatus, image processing system and filter setting method | |
JP6210234B2 (en) | Image processing system, image processing method, and program | |
US9589192B2 (en) | Information processing system, information processing method, and program | |
JP2014153813A5 (en) | Image processing apparatus, image processing method, and program | |
US20160084932A1 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
JP6841608B2 (en) | Behavior detection system | |
JP6575845B2 (en) | Image processing system, image processing method, and program | |
JP2011133984A (en) | Motion feature extraction device and motion feature extraction method | |
JP2010140425A (en) | Image processing system | |
JP2008278128A (en) | Monitoring system, monitoring method, and program | |
JP4993678B2 (en) | Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program | |
JP6618349B2 (en) | Video search system | |
Salisbury et al. | Crowdar: augmenting live video with a real-time crowd | |
JP6478643B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019020820A (en) | Video recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110228 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |