JP2007267294A - Moving object monitoring apparatus using a plurality of cameras - Google Patents

Moving object monitoring apparatus using a plurality of cameras Download PDF

Info

Publication number
JP2007267294A
JP2007267294A JP2006092746A JP2006092746A JP2007267294A JP 2007267294 A JP2007267294 A JP 2007267294A JP 2006092746 A JP2006092746 A JP 2006092746A JP 2006092746 A JP2006092746 A JP 2006092746A JP 2007267294 A JP2007267294 A JP 2007267294A
Authority
JP
Japan
Prior art keywords
moving object
tracking
monitoring
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006092746A
Other languages
Japanese (ja)
Other versions
JP4706535B2 (en
Inventor
Masanori Miyoshi
雅則 三好
Hiroshi Shojima
博 正嶋
Chieko Konuma
小沼  知恵子
Masato Takeuchi
政人 竹内
Kazunori Takahashi
和範 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006092746A priority Critical patent/JP4706535B2/en
Publication of JP2007267294A publication Critical patent/JP2007267294A/en
Application granted granted Critical
Publication of JP4706535B2 publication Critical patent/JP4706535B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object monitoring apparatus for easily recognizing the status of an object to be monitored. <P>SOLUTION: In a moving object monitoring apparatus, a result of tracking a moving object, from feature quantities of the moving image calculated from video images shot by a plurality of cameras, is used to select a camera video image in which the moving object is imaged, and to generate a moving locus of the moving object and a monitor screen is generated from the selected camera video image and the generated moving locus. Thus, the selected camera video image is displayed in addition to locus information, thereby easily recognizing the status of an object to be tracked. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、監視領域に設置された複数のカメラを用いて人間や自動車などの移動物体を監視する装置に関する。   The present invention relates to an apparatus for monitoring a moving object such as a human being or an automobile using a plurality of cameras installed in a monitoring area.

犯罪発生率の増加など社会不安に対処するために、不審者や不審車両を監視することを目的としたカメラの設置台数が増加している。このように多数のカメラを用いた監視では、監視領域を限られた監視員リソースで効率的に監視するための監視支援技術が必要になる。   In order to deal with social unrest, such as the increase in crime rates, the number of cameras installed for the purpose of monitoring suspicious persons and suspicious vehicles is increasing. As described above, monitoring using a large number of cameras requires a monitoring support technique for efficiently monitoring a monitoring area with limited monitoring personnel resources.

このような監視支援技術として、特許文献1に示されている「移動物体追跡装置」がある。ここでは、不審者等の追跡対象となる移動物体を追跡し、できるだけ追跡対象が画面に表示されるように、画像切替を自動的に行う技術が開示されている。この技術により、不審者発見後、監視員は多数の監視映像を注視することなく、容易に不審者を追跡監視できるようになる。   As such a monitoring support technique, there is a “moving object tracking device” disclosed in Patent Document 1. Here, a technique is disclosed in which a moving object to be tracked such as a suspicious person is tracked, and image switching is automatically performed so that the tracking target is displayed on the screen as much as possible. With this technology, after a suspicious person is discovered, a supervisor can easily follow and monitor the suspicious person without gazing at a large number of monitoring images.

また、特許文献2に示されている「広域監視装置」では、監視領域のマップ上に移動物体の軌跡を表示し、監視映像と連携させて表示する技術が開示されている。これにより、移動物体の過去の位置と現在の位置を容易に把握できるようになる。   In addition, the “wide area monitoring device” disclosed in Patent Document 2 discloses a technique for displaying a trajectory of a moving object on a monitoring area map and displaying it in cooperation with a monitoring video. Thereby, it becomes possible to easily grasp the past position and the current position of the moving object.

特開平6−325180号公報JP-A-6-325180 特開2005−86626号公報JP-A-2005-86626

上記従来技術では、監視員または装置が追跡指示を出してから追跡を開始するので、監視員は追跡開始前の状況を把握できない。   In the above-described prior art, since the monitoring starts after the monitoring person or device issues the tracking instruction, the monitoring person cannot grasp the situation before the starting of the tracking.

また、上記従来技術では、監視領域のマップ上に移動物体の軌跡を表示するものであり、幾何学的な位置の履歴を確認することはできるが、監視対象の挙動などの過去の状況を知ることができない。   In addition, in the above-described conventional technique, the locus of a moving object is displayed on the monitoring area map, and the history of the geometric position can be confirmed, but the past situation such as the behavior of the monitoring target is known. I can't.

本発明は、上記の点を考慮してなされたものであり、監視対象の状況を容易に把握できる移動物体監視装置を提供する。   The present invention has been made in consideration of the above points, and provides a moving object monitoring apparatus that can easily grasp the status of a monitoring target.

本発明による移動物体監視装置においては、複数のカメラで撮影した映像から算出される移動物体の特徴量から移動物体を追跡した結果を用いて、移動物体が映っているカメラ映像を選択すると共に移動物体の移動軌跡を生成し、選択されたカメラ映像と生成された移動軌跡とから監視画面を生成する。   In the moving object monitoring apparatus according to the present invention, the moving object is selected and moved using the result of tracking the moving object from the feature quantity of the moving object calculated from the images captured by a plurality of cameras. An object movement trajectory is generated, and a monitoring screen is generated from the selected camera image and the generated movement trajectory.

本発明によれば、軌跡情報に加えて選択されたカメラ映像を表示することにより、追跡対象の状況を容易に把握できる。   According to the present invention, the status of the tracking target can be easily grasped by displaying the selected camera video in addition to the trajectory information.

実施例1
図1は、本発明の一実施例である移動物体監視装置の機能構成を示すブロック図である。
Example 1
FIG. 1 is a block diagram showing a functional configuration of a moving object monitoring apparatus according to an embodiment of the present invention.

カメラ100は、ネットワークカメラやビデオカメラなどの撮影装置である。監視領域全体を撮影できるように複数のカメラを設置する。カメラの設置密度は疎であっても密であっても構わない。   The camera 100 is a photographing device such as a network camera or a video camera. Multiple cameras are installed so that the entire surveillance area can be photographed. The camera installation density may be sparse or dense.

映像取得部102はカメラ100で撮影した映像を取得する。カメラ100がネットワークカメラの場合は、ネットワーク経由ですでにデジタル化された画像データを一定の時間間隔で取得する。ビデオカメラの場合にはカメラより出力されるアナログ信号を取得した後で、デジタル化する。   The video acquisition unit 102 acquires video captured by the camera 100. When the camera 100 is a network camera, image data already digitized via the network is acquired at regular time intervals. In the case of a video camera, an analog signal output from the camera is acquired and digitized.

映像DB104は、映像取得部102で取得した画像データを蓄積するデータベース
(DB)である。画像データのフォーマットとしては、JPEG(Joint Photographic
Experts Group),PNG(Portable Network Graphics)等一般的に利用されるものを利用すればよい。また、連続した静止画を動画データとして格納しても構わない。この場合、MPEG(Moving Picture Experts Group)などのフォーマットを利用すればよい。
The video DB 104 is a database (DB) that stores the image data acquired by the video acquisition unit 102. The image data format is JPEG (Joint Photographic
A commonly used one such as Experts Group) or PNG (Portable Network Graphics) may be used. Further, continuous still images may be stored as moving image data. In this case, a format such as MPEG (Moving Picture Experts Group) may be used.

特徴量算出部106は、映像DB104に格納された画像データに映っている移動物体の特徴量を算出する。特徴量は、移動物体固有の特徴を現すベクトル量であり、色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが有る。例えば、移動物体の色の特徴として、下半身と上半身の最頻輝度値を用いることができる。この場合、特徴量は二次元のベクトルとなる。   The feature amount calculation unit 106 calculates the feature amount of the moving object shown in the image data stored in the video DB 104. The feature amount is a vector amount representing a feature unique to the moving object, and there are various features such as a color and texture feature, a shape feature, and a motion feature. For example, the mode luminance values of the lower and upper bodies can be used as the color characteristics of the moving object. In this case, the feature quantity is a two-dimensional vector.

特徴量DB108は、特徴量算出部106で算出した移動物体の特徴量と関連情報を蓄積するデータベース(DB)である。   The feature amount DB 108 is a database (DB) that stores the feature amount of the moving object calculated by the feature amount calculation unit 106 and related information.

移動物体追跡部110は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか追跡する。ここで、追跡対象は人物だけに限定するものではなく、移動物体であればどのようなものでも構わない。   The moving object tracking unit 110 tracks how the moving object has moved between the cameras using the feature amount of the moving object stored in the feature amount DB 108. Here, the tracking target is not limited to a person, and any tracking object may be used.

映像選択部112は、移動物体追跡部110の追跡結果を用いて、映像DB104の中から移動物体が映っているカメラ映像を選択する。   The video selection unit 112 uses the tracking result of the moving object tracking unit 110 to select a camera video in which a moving object is shown from the video DB 104.

軌跡生成部114は、移動物体追跡部110の追跡結果を用いて、移動物体の移動軌跡を生成する。移動軌跡とは移動物体の過去の移動履歴を表す線分である。   The trajectory generation unit 114 uses the tracking result of the moving object tracking unit 110 to generate a moving trajectory of the moving object. The movement locus is a line segment representing the past movement history of the moving object.

サムネイル生成部116は、軌跡生成部114が生成する軌跡を、本監視装置の利用者にとって分かりやすいものにするためにサムネイルを生成する。サムネイルとは、カメラ100で撮影した映像を縮小した画像データである。過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで過去の映像履歴を一覧することが可能になる。   The thumbnail generation unit 116 generates a thumbnail so that the trajectory generated by the trajectory generation unit 114 can be easily understood by the user of the monitoring apparatus. A thumbnail is image data obtained by reducing a video shot by the camera 100. By displaying a past representative video as a thumbnail on the track, it is possible to list past video histories simply by looking at the movement track.

監視画面生成部118は、映像DB104に蓄積された映像データと映像選択部112が選択した移動物体が映っている映像データと軌跡生成部114が生成した軌跡データから、本監視装置の利用者に提供する監視画面を生成する。   The monitoring screen generation unit 118 uses the video data accumulated in the video DB 104, the video data showing the moving object selected by the video selection unit 112, and the trajectory data generated by the trajectory generation unit 114 to inform the user of this monitoring apparatus. Generate the monitoring screen to be provided.

入力手段120は、マウス,キーボード等の入力装置であり、“追跡開始”,“追跡終了”等の本監視装置の利用者の操作を受け付ける。   The input unit 120 is an input device such as a mouse or a keyboard, and accepts user operations of the monitoring device such as “tracking start” and “tracking end”.

出力手段122は、ディスプレイなどの出力装置であり、監視画面生成部118が生成する監視画面を利用者に対して表示する。   The output unit 122 is an output device such as a display, and displays a monitoring screen generated by the monitoring screen generation unit 118 to the user.

次に、図2および図3で、監視画面生成部118が生成し出力手段122に表示する監視画面の表示例を説明する。監視画面は、複数映像監視画面と追跡画面で構成される。以下順に説明する。   Next, a display example of the monitoring screen generated by the monitoring screen generation unit 118 and displayed on the output unit 122 will be described with reference to FIGS. The monitoring screen is composed of a multiple video monitoring screen and a tracking screen. This will be described in order below.

まず、図2で複数の映像を閲覧するための複数映像監視画面の例を説明する。   First, an example of a multiple video monitoring screen for browsing a plurality of videos will be described with reference to FIG.

画面左部のマップ200は、監視領域全体の概略を示すマップである。この例では、3階建てのビルが監視対象であることを表している。   A map 200 on the left side of the screen is a map showing an outline of the entire monitoring area. This example shows that a three-story building is a monitoring target.

アイコン202は、マップ200上でのカメラの幾何学的な配置を示すものである。この例では、6台のカメラが監視領域内に配置されている。   The icon 202 indicates the geometric arrangement of the camera on the map 200. In this example, six cameras are arranged in the monitoring area.

映像監視領域204は、カメラ100で撮影した映像を表示する領域である。この例では、監視映像206等、4台のカメラの映像を表示している。5台以上のカメラの映像を表示する場合には、映像監視領域204の分割数を大きくするか、または映像監視領域
204の一部を表示するようにしてスクロールバーで表示領域を変更できるようにすればよい。逆に、3台以下のカメラの映像を表示する場合には、映像監視領域204の分割数を小さくすればよい。
The video monitoring area 204 is an area for displaying video captured by the camera 100. In this example, images from four cameras such as the monitoring image 206 are displayed. When displaying images from five or more cameras, the display area can be changed with the scroll bar so that the number of divisions of the image monitoring area 204 is increased or a part of the image monitoring area 204 is displayed. do it. Conversely, when displaying images from three or less cameras, the number of divisions of the video monitoring area 204 may be reduced.

この複数映像監視画面によって、本装置の利用者は、カメラ100で撮影した複数の映像を同時に閲覧することができる。画面上で不審人物を確認した場合には、映像監視領域204の監視映像をマウスでクリックすることで追跡開始を指示できる。追跡終了ボタン208をマウスでクリックすることで、現在実行中の追跡を停止できる。   With this multiple video monitoring screen, the user of the present apparatus can simultaneously browse a plurality of videos shot by the camera 100. When a suspicious person is confirmed on the screen, the tracking start can be instructed by clicking the monitoring video in the video monitoring area 204 with the mouse. By clicking the tracking end button 208 with the mouse, the currently running tracking can be stopped.

なお、アイコン202と映像監視領域204内の映像との対応関係が明確になるように、例えば、両者をリンク210のようにアイコン202と監視映像206を線分で結んでもよい。また、映像監視領域204内の映像上に、アイコン202に対応するカメラの名称を表示してもよい。   For example, the icon 202 and the monitoring video 206 may be connected by a line segment as a link 210 so that the correspondence between the icon 202 and the video in the video monitoring area 204 becomes clear. Further, the name of the camera corresponding to the icon 202 may be displayed on the video in the video monitoring area 204.

次に、図3で特定の移動物体を監視するための追跡画面の例を説明する。   Next, an example of a tracking screen for monitoring a specific moving object will be described with reference to FIG.

画面全体の構成は図2の複数映像監視画面と基本的に同じである。異なるのは、マップ200上に、移動物体の軌跡300を表示する点、および、追跡対象を追跡しているカメラの映像だけを監視領域204に表示する点である。   The configuration of the entire screen is basically the same as the multiple video monitoring screen of FIG. The only difference is that the locus 300 of the moving object is displayed on the map 200 and only the video of the camera tracking the tracking target is displayed in the monitoring area 204.

移動物体の軌跡300は、サムネイル302と矢印306で構成される。サムネイル
302とは、カメラで撮影した映像を縮小した画像データである。追跡対象がアイコン
304に対応するカメラで撮影された画像データを過去の履歴として利用する。一方、矢印306は、サムネイル302からサムネイル308に移動したことを表す。軌跡の始点のサムネイル302は、このサムネイルに対応するカメラで追跡が始まったことを示し、軌跡の終点のサムネイル310は、このサムネイルに対応するカメラで現在移動物体を追跡中であることを示している。ここで、このように現在移動物体を追跡しているカメラを、カレントカメラと呼ぶことにする。
The moving object trajectory 300 includes a thumbnail 302 and an arrow 306. The thumbnail 302 is image data obtained by reducing a video photographed by the camera. Image data captured by a camera whose tracking target corresponds to the icon 304 is used as a past history. On the other hand, an arrow 306 indicates that the thumbnail 302 has been moved to the thumbnail 308. The thumbnail 302 at the start of the trajectory indicates that tracking has started with the camera corresponding to this thumbnail, and the thumbnail 310 at the end of the trajectory indicates that the moving object is currently being tracked with the camera corresponding to this thumbnail. Yes. Here, the camera that is currently tracking the moving object is called a current camera.

監視領域204上には、カレントカメラで撮影した監視映像206を表示する。この際、カレントカメラに対応するアイコン202を、ハイライト表示することで、監視映像
206を撮影したカメラを容易に把握できる。また、サムネイル302をマウスでクリックすると、サムネイルに対応する監視映像を監視領域204に表示するようにしてもよい。
On the monitoring area 204, a monitoring image 206 taken by the current camera is displayed. At this time, by highlighting the icon 202 corresponding to the current camera, the camera that captured the monitoring video 206 can be easily grasped. When the thumbnail 302 is clicked with a mouse, a monitoring video corresponding to the thumbnail may be displayed in the monitoring area 204.

このように、過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで移動物体の過去の状況を容易に把握できる。   In this way, by displaying a past representative video as a thumbnail on the trajectory, it is possible to easily grasp the past situation of the moving object simply by looking at the moving trajectory.

図3では追跡数が一つの場合の追跡画面の例を示したが、追跡数は複数であっても構わない。図18には、追跡数が二つの場合の追跡画面の例を示す。この画面には、移動軌跡300と移動軌跡1800を表示している。移動軌跡300については、図3に示したものと同じである。移動軌跡1800は、移動軌跡300と同じようにサムネイルと矢印で構成されている。また、移動軌跡1800のカレントカメラに対応する監視映像1802を監視領域204の下部表示している。移動軌跡を表示する際には、移動軌跡が重なり合って見えなくなるのを防ぐために、移動軌跡300に対して右方向と下方向にオフセットをかけて移動軌跡1800を表示している。   Although FIG. 3 shows an example of the tracking screen when the number of tracking is one, the number of tracking may be plural. FIG. 18 shows an example of a tracking screen when the number of tracking is two. On this screen, a movement locus 300 and a movement locus 1800 are displayed. The movement trajectory 300 is the same as that shown in FIG. Similar to the movement locus 300, the movement locus 1800 includes thumbnails and arrows. In addition, a monitoring image 1802 corresponding to the current camera of the movement locus 1800 is displayed below the monitoring area 204. When displaying the movement locus, the movement locus 1800 is displayed with an offset in the right direction and the downward direction with respect to the movement locus 300 in order to prevent the movement locus from overlapping and disappearing.

次に、図4で移動物体追跡の基本原理を説明する。左側はカメラで撮影した監視映像であり、右側はその監視映像に対して特徴量算出部106で算出した特徴量をグラフ化したものである。また、特徴量をグラフ化する際には、特定の監視映像に対する特徴量だけではなく、その直前の監視映像数枚に対する特徴量も同時に表示してある。そのため、追跡対象一人に対して特徴量がプロットされている。これは、特徴量の算出誤差を考慮し、追跡精度を高めるためである。なお、監視映像の取得時刻は、上から下方向に、それぞれ
t1,t2,t3(t1<t2<t3)とする。
Next, the basic principle of moving object tracking will be described with reference to FIG. The left side is a monitoring video taken by the camera, and the right side is a graph of the feature amount calculated by the feature amount calculation unit 106 for the monitoring video. In addition, when graphing the feature values, not only the feature values for a specific monitoring video but also the feature values for several monitoring videos immediately before are displayed. Therefore, feature quantities are plotted for one tracking target. This is to improve tracking accuracy in consideration of feature amount calculation errors. Note that the monitoring video acquisition times are t1, t2, and t3 (t1 <t2 <t3) from the top to the bottom.

まず、時刻t1の監視映像400には、移動物体として人物402と人物404が存在しており、それぞれ、特徴量空間406では特徴量408と特徴量410に対応している。   First, in the monitoring video 400 at time t1, a person 402 and a person 404 exist as moving objects, and correspond to the feature quantity 408 and the feature quantity 410 in the feature quantity space 406, respectively.

次に、時刻t2における監視映像412には、移動物体として人物414と人物416が存在しており、それぞれ、特徴量空間418では特徴量420と特徴量422に対応している。ここで、特徴量空間406の特徴量408と特徴量空間418の特徴量420が同じ場所に位置しているので、人物402は人物414と同じ可能性が高く、監視映像
400から監視映像412に移動したと判定することができる。
Next, in the monitoring video 412 at time t2, a person 414 and a person 416 exist as moving objects, and correspond to the feature quantity 420 and the feature quantity 422 in the feature quantity space 418, respectively. Here, since the feature quantity 408 in the feature quantity space 406 and the feature quantity 420 in the feature quantity space 418 are located at the same place, the person 402 is likely to be the same as the person 414, and the monitoring video 400 changes to the monitoring video 412. It can be determined that it has moved.

ここで、特徴量408と特徴量420の同値判定には、それぞれの重心間のユークリッド距離を用る。この距離が、あらかじめ定めた所定の閾値よりも小さい場合には両者が十分近く同じであると判定する。ユークリッド距離以外にも、集団の分散を考慮したマハラノビス距離を用いても構わない。また、ウイルクスのΛ統計を用いて両集団に差があるのか否かを検定しても良い。マハラノビス距離およびウイルクスのΛ統計は多変量解析でよく利用される方法であり、例えば、刊行物「すぐわかる多変量解析」(石村貞夫著,東京図書,1992)に記載されている。   Here, the Euclidean distance between the respective centroids is used for the equivalence determination of the feature quantity 408 and the feature quantity 420. If this distance is smaller than a predetermined threshold value, it is determined that both are sufficiently close and the same. In addition to the Euclidean distance, the Mahalanobis distance considering the variance of the group may be used. It is also possible to test whether there is a difference between the two groups using Wilkes' Λ statistics. Mahalanobis distance and Wilks' Λ statistic are methods often used in multivariate analysis, and are described, for example, in the publication “Multivariate Analysis Understandable” (Sadao Ishimura, Tokyo Book, 1992).

次に、時刻t3における監視映像424には、移動物体として人物426が存在しており、特徴量空間428では特徴量430に対応している。ここで、特徴量空間406の特徴量410と特徴量空間428の特徴量430が同じ場所に位置しているので、人物404は人物426と同じ可能性が高く、監視映像400から監視映像424に移動したと判定することができる。   Next, in the monitoring video 424 at time t3, a person 426 exists as a moving object, and corresponds to the feature quantity 430 in the feature quantity space 428. Here, since the feature quantity 410 in the feature quantity space 406 and the feature quantity 430 in the feature quantity space 428 are located at the same place, the person 404 is likely to be the same as the person 426, and the monitoring video 400 changes to the monitoring video 424. It can be determined that it has moved.

このように、特徴量空間で同じような値を持つ特徴量を検索することで、特定の移動物体がカメラ間をどのように移動したのか追跡することが可能になる。   Thus, by searching for feature quantities having similar values in the feature quantity space, it becomes possible to track how a specific moving object has moved between cameras.

次に、図5を用いて、本実施例の監視装置における監視方法の処理の流れを説明する。   Next, the flow of processing of the monitoring method in the monitoring apparatus of the present embodiment will be described using FIG.

ステップ500では、ステップ502からステップ518までの処理を、あらかじめ定めた所定の頻度で繰り返す。   In step 500, the processing from step 502 to step 518 is repeated at a predetermined frequency.

ステップ502では、映像取得部102でカメラによって撮影した監視映像を取得する。   In step 502, the video acquisition unit 102 acquires a monitoring video shot by the camera.

ステップ504では、特徴量算出部106によってステップ502で取得した映像中の移動物体の特徴量を算出する。   In step 504, the feature amount calculation unit 106 calculates the feature amount of the moving object in the video acquired in step 502.

ステップ506では、監視画面生成部118によって本監視装置の利用者の操作を処理する。ここで、利用者の操作は入力手段120を用いて入力される。   In step 506, the monitoring screen generation unit 118 processes the operation of the user of the monitoring apparatus. Here, the user's operation is input using the input means 120.

ステップ508では、現在実行中の追跡について、ステップ510からステップ516の処理を繰り返す。   In step 508, the processing from step 510 to step 516 is repeated for the currently executed tracking.

ステップ510では、処理対象の時刻tを現時刻に設定する。これにより、ステップ
512での追跡処理は現時刻を基準に実施される。
In step 510, the time t to be processed is set to the current time. Thereby, the tracking process in step 512 is performed based on the current time.

ステップ512では、ステップ510で設定した時刻tを基準にして、移動物体追跡部110によって人物追跡を実行する。   In step 512, person tracking is executed by the moving object tracking unit 110 based on the time t set in step 510.

ステップ514では、ステップ512での人物追跡の結果、カメラ間の渡りが発生したかどうか判定し、発生した場合には、ステップ516を実行する。ここで、カメラ間の渡りとは、追跡対象が当初映っていたカメラから消えて、他のカメラに現れることである。   In step 514, it is determined whether or not a camera-to-camera transition has occurred as a result of the person tracking in step 512. If it has occurred, step 516 is executed. Here, the transition between the cameras means that the tracking target disappears from the camera originally shown and appears in another camera.

ステップ516では、軌跡生成部114によって人物の移動軌跡を生成する。   In step 516, the locus generation unit 114 generates a movement locus of the person.

ステップ518では、監視画面生成部118によって監視画面を生成し出力手段122に表示する。   In step 518, a monitoring screen is generated by the monitoring screen generation unit 118 and displayed on the output unit 122.

次に、図6のフローチャートを使って、図5のステップ506の入力処理の詳細を説明する。   Next, details of the input processing in step 506 in FIG. 5 will be described using the flowchart in FIG. 6.

ステップ600では、入力手段120からの本監視装置の利用者の操作を受け付ける。   In step 600, an operation of the user of the monitoring apparatus from the input unit 120 is accepted.

ステップ602では、ステップ600での入力結果を判定する。“追跡開始”が指定された場合には、ステップ604からステップ608を実行する。“追跡開始”は、例えば、図2の複数映像監視画面の監視映像206をマウスでクリックすることで指定される。一方、“追跡終了”が指定された場合には、ステップ610を実行する。“追跡終了”は、例えば、図2の複数映像監視画面の追跡終了ボタン208をマウスでクリックすることで指定される。   In step 602, the input result in step 600 is determined. If “start tracking” is designated, steps 604 to 608 are executed. “Start tracking” is specified by, for example, clicking the monitoring video 206 of the multiple video monitoring screen in FIG. 2 with a mouse. On the other hand, when “end tracking” is designated, step 610 is executed. “Tracking end” is specified by, for example, clicking the tracking end button 208 of the multiple video monitoring screen in FIG. 2 with a mouse.

ステップ604では、ステップ600で指定されたカメラに映っている人物に対応する特徴量を、追跡対象の特徴量として特徴量DBに記憶する。   In step 604, the feature quantity corresponding to the person shown in the camera designated in step 600 is stored in the feature quantity DB as the trace target feature quantity.

ステップ606では、ステップ600で指定されたカメラをカレントカメラとする。カレントカメラとは、前述のように人物追跡時に移動物体を現時点で追跡しているカメラのことである。   In step 606, the camera designated in step 600 is set as the current camera. The current camera is a camera that currently tracks a moving object at the time of tracking a person as described above.

ステップ608では、図5のステップ508の処理対象に加えるために、ステップ604とステップ606で得た情報を基にして追跡を新規登録する。   In step 608, a new trace is registered based on the information obtained in steps 604 and 606 in order to be added to the processing target of step 508 in FIG.

ステップ610では、現在実行中の全ての追跡を停止する。この結果、図5のステップ508で処理対象となる追跡は一つも存在しなくなる。   In step 610, all currently running traces are stopped. As a result, there is no tracking to be processed in step 508 of FIG.

次に、図7のフローチャートを使って、図5のステップ512の人物追跡の処理の詳細を説明する。   Next, details of the person tracking process in step 512 of FIG. 5 will be described using the flowchart of FIG.

ステップ700では、カレントカメラの映像に追跡人物が存在するかどうか判定する。追跡人物とは図5のステップ508で処理対象に指定した移動軌跡に対応する人物のことである。なお、ここで人物と表現しているが車両等移動物体全般のことを含むこととする。カレントカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。カレントカメラの映像に対応する特徴量空間に、追跡対象の特徴量が処理対象の時刻tにおいても存在する場合には、カレントカメラに追跡人物が存在しないと判定し、ステップ702から706を実行する。   In step 700, it is determined whether or not a tracking person exists in the video of the current camera. The tracked person is a person corresponding to the movement locus designated as the processing target in step 508 of FIG. In addition, although expressed as a person here, it shall include the whole moving objects, such as a vehicle. Whether or not a tracking person exists in the current camera is determined in the feature amount space as shown in FIG. When the feature quantity to be tracked also exists in the feature quantity space corresponding to the video of the current camera even at the time t to be processed, it is determined that there is no tracking person in the current camera, and steps 702 to 706 are executed. .

ステップ702では、カレントカメラ以外に追跡人物が存在するのか検索する。この検索処理については図8にて詳細に説明する。   In step 702, it is searched whether there is a tracking person other than the current camera. This search process will be described in detail with reference to FIG.

ステップ704では、ステップ702の追跡人物の検索処理の結果を判定し、他のカメラに追跡人物が存在した場合には、ステップ706を実行する。   In step 704, the result of the tracking person search process in step 702 is determined. If there is a tracking person in another camera, step 706 is executed.

ステップ706では、ステップ702での検索結果を基にして、追跡人物が存在するカメラを新たにカレントカメラとして設定する。   In step 706, based on the search result in step 702, a camera in which the tracking person is present is newly set as the current camera.

ステップ708では、処理開始から事前に指定した所定時間が経過したのか判定する。これは、追跡処理を時間で打ち切るための処理である。必要であれば所定時間に無限大を指定することで、追跡処理の打ち切りを回避することも可能である。判定の結果、所定時間を経過している場合には、ステップ710を実行する。   In step 708, it is determined whether a predetermined time specified in advance has elapsed since the start of processing. This is a process for aborting the tracking process in time. If necessary, it is possible to avoid the termination of the tracking process by specifying infinity at a predetermined time. If the result of determination is that a predetermined time has elapsed, step 710 is executed.

ステップ710では、現在の処理対象の追跡を打ち切るための停止処理を実行する。   In step 710, a stop process is executed to stop tracking the current processing target.

次に、図8のフローチャートを使って、図7のステップ702の追跡人物の検索処理の詳細を説明する。   Next, details of the tracking person search processing in step 702 of FIG. 7 will be described using the flowchart of FIG.

ステップ800では、本実施例の監視装置の全てのカメラについてステップ802からステップ808を繰り返し実行する。   In Step 800, Steps 802 to 808 are repeatedly executed for all the cameras of the monitoring apparatus of this embodiment.

ステップ802では、ステップ800で処理対象となったカメラがカレントカメラと同じかどうか判定する。同じ場合にはステップ804を実行する。   In step 802, it is determined whether or not the camera to be processed in step 800 is the same as the current camera. If they are the same, step 804 is executed.

ステップ804では、処理の効率化のためにステップ800の現在のループ処理をスキップして次のループ処理へと進む。カレントカメラには追跡対象の人物が存在しないことが、図7のステップ700で確定しているためである。   In step 804, the current loop processing in step 800 is skipped to proceed to the next loop processing in order to improve processing efficiency. This is because it is determined in step 700 in FIG. 7 that no person to be tracked exists in the current camera.

ステップ806では、ステップ800で処理対象となったカメラに追跡対象の人物が存在するかどうか判定する。処理対象のカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。判定の結果、存在する場合にはステップ808を実行する。   In step 806, it is determined whether there is a person to be tracked in the camera that has been processed in step 800. Whether or not a tracking person exists in the camera to be processed is determined in the feature space as shown in FIG. If the result of determination is that it exists, step 808 is executed.

ステップ808では、現在処理対象のカメラを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生し、かつ現在処理対象のカメラに追跡対象が存在することが分かる。   In step 808, the current process target camera is returned as a return value, and the process is terminated. On the call side of this flow, it can be seen that camera crossing occurs and that there is a tracking target in the current processing target camera.

ステップ810では、無効を意味するNULLを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生していないことが分かる。   In step 810, NULL meaning invalid is returned as a return value, and the process is terminated. It can be seen that there is no camera crossing on the call side of this flow.

次に、図1の特徴量DB116に格納する特徴量のデータ構造の例を図9を使って説明する。特徴量データは、特徴量データ全体を表すテーブル900と特徴量ベクトルを表すテーブル910で構成される。   Next, an example of the data structure of the feature amount stored in the feature amount DB 116 in FIG. 1 will be described with reference to FIG. The feature amount data includes a table 900 representing the entire feature amount data and a table 910 representing the feature amount vector.

テーブル900は一つの特徴量データを表すテーブルである。このテーブルはデータ項目902〜データ項目908から構成される。データ項目902は、カメラを一意に表すIDである。このIDに対応するカメラで撮影した映像から特徴量を算出したことを示す。データ項目904は、追跡対象の人物を表すIDである。このIDは一つのカメラ内で人物を追跡する過程で定まるものである。あくまでも、一つのカメラ内で一意に定まるものであり、複数のカメラ間で同じ人物に対して一意に定まるものではない。データ項目
906は、特徴量を算出した映像の取得時刻である。データ項目908は、算出した特徴量ベクトルを格納する領域へのポインタであり、テーブル910を指し示している。
A table 900 is a table representing one piece of feature amount data. This table includes data items 902 to 908. The data item 902 is an ID that uniquely represents the camera. The feature amount is calculated from the video imaged by the camera corresponding to the ID. A data item 904 is an ID representing a person to be tracked. This ID is determined in the process of tracking a person in one camera. To the last, it is uniquely determined within one camera, and is not uniquely determined for the same person among a plurality of cameras. A data item 906 is an acquisition time of the video for which the feature amount is calculated. A data item 908 is a pointer to an area for storing the calculated feature vector and points to the table 910.

特徴量ベクトルを表すテーブル910は、データ項目912と可変長のデータ項目914から構成される。データ項目912は、ベクトルの次数である。特徴量ベクトルの次数は、特徴量として色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが有るため、一意には定まらない。ここでは、採用する特徴量を自由に変更できるように、特徴量ベクトルの次数をデータ項目912に保持することにする。例えば、移動物体の色の特徴として下半身と上半身の最頻輝度値を用いる場合には、次数は2となる。データ項目914は、特徴量ベクトルの要素であり、データ項目912で指定した次数の数だけ項目が存在する。   A table 910 representing a feature vector is composed of data items 912 and variable-length data items 914. Data item 912 is the order of the vector. The order of the feature vector is not uniquely determined because there are various features such as color, texture, shape, and motion. Here, the order of the feature quantity vector is held in the data item 912 so that the feature quantity to be adopted can be freely changed. For example, when the mode luminance values of the lower body and the upper body are used as the color characteristics of the moving object, the order is 2. The data item 914 is an element of the feature vector, and there are as many items as the number of orders specified in the data item 912.

次に図17に、図1の実施例の監視装置をネットワーク環境下でシステム構築する際の機能配置の一例を示す。このシステムは、ネットワーク1700に、カメラ100とノード1702〜ノード1708が接続される形で構築されている。   Next, FIG. 17 shows an example of functional arrangement when the monitoring apparatus of the embodiment of FIG. 1 is constructed in a network environment. This system is constructed in such a manner that a camera 100 and nodes 1702 to 1708 are connected to a network 1700.

ネットワーク1700は、LANなど一般的に利用されているネットワークである。このネットワーク1700を介して図1の機能ブロックを配置する。   A network 1700 is a commonly used network such as a LAN. The functional blocks in FIG. 1 are arranged via the network 1700.

カメラ100はネットワークインタフェースをもったカメラであり、ネットワーク1700に接続する。このような構成を取ることで、ネットワークに接続された各種機器からカメラ100の映像を取得できる。   The camera 100 is a camera having a network interface and is connected to the network 1700. By adopting such a configuration, the video of the camera 100 can be acquired from various devices connected to the network.

映像を取得するノード1702には、映像取得部102と映像DB104を配置する。   The video acquisition unit 102 and the video DB 104 are arranged in the node 1702 that acquires the video.

特徴量を算出するノード1704には、特徴量算出部106と特徴量DB108を配置する。   In the node 1704 for calculating the feature amount, the feature amount calculation unit 106 and the feature amount DB 108 are arranged.

人物追跡を行うノード1706には、移動物体追跡部110と軌跡生成部112とサムネイル生成部116を配置する。   A moving object tracking unit 110, a trajectory generation unit 112, and a thumbnail generation unit 116 are arranged in a node 1706 that performs person tracking.

監視画面を生成するノード1708には、映像選択部112と監視画面生成部114と入力手段116と出力手段118を配置する。   In the node 1708 that generates the monitoring screen, the video selection unit 112, the monitoring screen generation unit 114, the input unit 116, and the output unit 118 are arranged.

以上述べた実施例により、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体をより少ない負荷で追跡監視できる。また、移動軌跡を確認することで、過去にどのような経路を通ってきて、現在どこにいるのか簡単に把握できる。またサムネイルを確認することで、追跡対象の過去の状況を画像で確認できる。また、利用者がサムネイルで確認することで、装置が異なる移動物体を同じ移動物体として追跡してしまう移動物体追跡のミスを早期に発見することも可能である。   According to the embodiment described above, it is possible to track and display a moving object such as a specific person while displaying a moving locus with a thumbnail on the monitoring area map. Therefore, the user of the monitoring apparatus of this embodiment can track and monitor a moving object with a smaller load. Also, by confirming the movement trajectory, it is possible to easily grasp what route has been taken in the past and where it is now. Also, by checking the thumbnails, the past status of the tracking target can be confirmed with images. It is also possible for the user to detect the moving object tracking mistake that the apparatus tracks different moving objects as the same moving object at an early stage by checking with the thumbnail.

実施例2
第1の実施例では、追跡対象を時間軸の正方向に追跡していたが、時間軸の逆方向、すなわち過去に遡って追跡するようにしてもよい。ここでは、このような追跡を逆追跡と呼ぶことにする。この場合の実施例を以下に示す。基本的には実施例1と大部分が同じ構成であるので、変更がある部分について説明する。
Example 2
In the first embodiment, the tracking target is tracked in the positive direction of the time axis, but may be tracked in the reverse direction of the time axis, that is, tracing back to the past. Here, such tracking is called reverse tracking. An example in this case is shown below. Basically, most of the configuration is the same as that of the first embodiment, and therefore, there will be described a portion having a change.

図10は、逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図である。図10中の移動物体逆追跡部1000以外の機能ブロックは図1に示したものと同じである。   FIG. 10 is a block diagram illustrating a functional configuration of a moving object monitoring apparatus having a reverse tracking function. The functional blocks other than the moving object reverse tracking unit 1000 in FIG. 10 are the same as those shown in FIG.

移動物体逆追跡部1000は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか過去に遡って追跡する。   The moving object reverse tracking unit 1000 uses the feature amount of the moving object stored in the feature amount DB 108 to trace back how the moving object has moved between the cameras.

図11は、逆追跡機能を持つ移動物体監視装置の追跡画面の例を示している。追跡画面の大部分は、図3に示した追跡画面と基本的に同じであり、異なるのは移動軌跡1100である。   FIG. 11 shows an example of a tracking screen of a moving object monitoring apparatus having a reverse tracking function. Most of the tracking screen is basically the same as the tracking screen shown in FIG.

軌跡1100は、サムネイル1102と矢印1104で構成される。矢印1104は、サムネイル1102に移動する前にはサムネイル1106に存在していたことを表す。このように図3の軌跡300とは逆方向に過去に遡って軌跡を表示する。軌跡の始点となるサムネイル1102は、このサムネイルに対応するカメラで逆追跡が始まったことを示している。一方、軌跡の終点となるサムネイル1108は、このサムネイルに対応するカメラ100で逆追跡が終了したことを示している。逆追跡の終了条件としては、逆追跡の対象人物を見失った場合、逆追跡で遡る時間が所定の時間を越えた場合等が有る。   The locus 1100 includes a thumbnail 1102 and an arrow 1104. An arrow 1104 indicates that the thumbnail 1106 existed before moving to the thumbnail 1102. In this way, the trajectory is displayed retroactively in the opposite direction to the trajectory 300 of FIG. A thumbnail 1102 serving as the start point of the locus indicates that reverse tracking has started with the camera corresponding to the thumbnail. On the other hand, the thumbnail 1108 which is the end point of the locus indicates that the reverse tracking is completed by the camera 100 corresponding to the thumbnail. The reverse tracking end condition includes a case where the person to be reverse-tracked is lost, a case where the time traced back by the reverse tracking exceeds a predetermined time, or the like.

次に、図12を用いて、逆追跡機能を持つ本実施例の監視装置における監視方法の処理の流れをフローチャートを使って説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ510がステップ1200変更された点である。   Next, the flow of processing of the monitoring method in the monitoring apparatus of the present embodiment having the reverse tracking function will be described using a flowchart with reference to FIG. Basically, it is the same as the flowchart shown in FIG. 5 except that step 510 is changed to step 1200.

ステップ1200では、逆追跡の処理時刻tbをあらかじめ与えておいたΔtだけ減じる。これは追跡処理の対象時刻をΔtだけ遡ることを意味する。その後で、追跡処理の対象時刻tをtbに設定する。これにより、ステップ512での追跡処理は、時刻tbの情報を基にして実行される。   In step 1200, the reverse tracking processing time tb is reduced by Δt given in advance. This means that the target time of the tracking process is traced back by Δt. Thereafter, the target time t of the tracking process is set to tb. Thereby, the tracking process in step 512 is executed based on the information at time tb.

次に、図13のフローチャートを使って、図12のステップ506の入力処理の詳細を説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ1300が追加された点である。   Next, details of the input processing in step 506 in FIG. 12 will be described using the flowchart in FIG. 13. Basically, it is the same as the flowchart shown in FIG. 5 except that step 1300 is added.

ステップ1300では、逆追跡の処理時刻tbに現時刻を設定する。これは、現時刻を起点にして過去に遡って追跡対象を逆追跡するためである。   In step 1300, the current time is set as the reverse tracking processing time tb. This is because the tracking target is traced back to the past starting from the current time.

本実施例によれば、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を過去に遡って逆追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体の過去の行動を容易に把握できる。つまり、移動軌跡を確認することで、過去にどのような経路を通ってきて、現在どこにいるのか簡単に把握できる。またサムネイルを確認することで、追跡対象の過去の状況を画像で確認できる。   According to this embodiment, a moving object such as a specific person can be traced back in the past while displaying a moving trajectory with a thumbnail on the monitoring area map. Therefore, the user of the monitoring apparatus of the present embodiment can easily grasp the past behavior of the moving object. In other words, by confirming the movement trajectory, it is possible to easily grasp what route has been taken in the past and where it is now. Also, by checking the thumbnails, the past status of the tracking target can be confirmed with images.

実施例3
実施例1および実施例2では、追跡対象を時間軸の正方向または逆方向のどちらかに追跡していたが、両方向、つまり正方向と逆方向の双方に追跡するようにしてもよい。ここでは、このような追跡を正逆追跡と呼ぶことにする。この場合の実施例を以下に示す。基本的には実施例1および実施例2と大部分が同様の構成であるので、変更がある部分を説明する。
Example 3
In the first and second embodiments, the tracking target is tracked in either the forward or reverse direction of the time axis, but may be tracked in both directions, that is, in both the forward and reverse directions. Here, such tracking is called forward / reverse tracking. An example in this case is shown below. Basically, most of the configurations are the same as those in the first and second embodiments, and therefore, the portions with changes will be described.

図14は、正逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図である。図14中の移動物体正逆追跡部1400以外の機能ブロックは図1に示したものと同様である。   FIG. 14 is a block diagram showing a functional configuration of a moving object monitoring apparatus having a forward / reverse tracking function. The functional blocks other than the moving object forward / reverse tracking unit 1400 in FIG. 14 are the same as those shown in FIG.

移動物体正逆追跡部1400は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか時間軸の正方向と逆方向の両方に向かって追跡する。   The moving object forward / reverse tracking unit 1400 uses the feature amount of the moving object stored in the feature amount DB 108 to determine how the moving object has moved between the cameras in both the forward and reverse directions of the time axis. Chase.

図15は、正逆追跡機能を持つ移動物体監視装置の追跡画面の例を示している。追跡画面の大部分は、図3に示した追跡画面と基本的に同様であり、異なるのは移動軌跡1500と移動軌跡1502である。   FIG. 15 shows an example of a tracking screen of a moving object monitoring apparatus having a forward / reverse tracking function. Most of the tracking screen is basically the same as the tracking screen shown in FIG. 3, and the difference is a movement locus 1500 and a movement locus 1502.

移動軌跡1500はサムネイル1504を始点とする正方向の追跡、移動軌跡1502は同じくサムネイル1504を始点とする逆方向の追跡である。それそれ、図3と図11で説明した軌跡と同様である。このように、正方向と逆方向の両方の移動軌跡を表示する。   The movement trajectory 1500 is tracking in the forward direction starting from the thumbnail 1504, and the movement trajectory 1502 is tracking in the reverse direction similarly starting from the thumbnail 1504. It is the same as the trajectory described in FIGS. In this way, both the forward and backward movement trajectories are displayed.

次に、図16を用いて、正逆追跡機能を持つ本実施例の監視装置における監視方法の処理の流れを説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ1600〜ステップ1606が追加された点である。ステップ510〜ステップ516は正方向の追跡処理であり、一方ステップ1600〜ステップ1606では逆方向の追跡処理である。ステップ1600〜ステップ1606は、図12のステップ1200〜ステップ516と同様の処理である。   Next, the flow of processing of the monitoring method in the monitoring apparatus of this embodiment having a forward / reverse tracking function will be described with reference to FIG. Basically, it is the same as the flowchart shown in FIG. 5 except that Steps 1600 to 1606 are added. Steps 510 to 516 are forward tracking processes, while steps 1600 to 1606 are backward tracking processes. Steps 1600 to 1606 are the same processes as steps 1200 to 516 in FIG.

以上に述べた実施例によれば、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を追跡表示すると同時に、過去に遡って逆追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体を少ない負荷で追跡監視できると同時に、移動物体の過去の行動を容易に把握できる。   According to the embodiment described above, it is possible to track and display a moving object such as a specific person while displaying a moving locus with a thumbnail on a monitoring area map, and at the same time, can perform backward tracking display retroactively. become. Therefore, the user of the monitoring apparatus of the present embodiment can track and monitor the moving object with a small load, and can easily grasp the past behavior of the moving object.

実施例4
実施例1〜3では、監視装置の利用者が、入力手段120を使って明示的に追跡指示を出すが、本装置で異常行動を自動検知するようにして、検知時に自動的に追跡指示を出すようにしてもよい。この場合の実施例を以下に示す。基本的には実施例1と大部分が同様の構成であるので、変更がある部分を説明する。
Example 4
In the first to third embodiments, the user of the monitoring device explicitly issues a tracking instruction using the input unit 120. However, the apparatus automatically detects the abnormal behavior with the apparatus, and automatically issues the tracking instruction at the time of detection. You may make it take out. An example in this case is shown below. Basically, since most of the configuration is the same as that of the first embodiment, a portion where there is a change will be described.

図19は、異常検知機能を持つ移動物体監視装置の機能構成を示すブロック図である。異常行動検知部1900が追加された以外は図1のブロック図と同様である。   FIG. 19 is a block diagram illustrating a functional configuration of a moving object monitoring apparatus having an abnormality detection function. 1 is the same as the block diagram of FIG. 1 except that an abnormal behavior detection unit 1900 is added.

異常行動検知部1900は、画像DB104に格納された画像データを用いて異常行動を検知する。異常行動が検知された場合には、移動物体追跡部110に追跡開始の指示信号を出力し、新しく移動物体の追跡を開始する。   The abnormal behavior detection unit 1900 detects abnormal behavior using image data stored in the image DB 104. When abnormal behavior is detected, a tracking start instruction signal is output to the moving object tracking unit 110 to start tracking a new moving object.

ここで、異常行動の検知方法としては、例えば、刊行物「複数人動画像からの異常動作検出」(情報処理学会研究報告,コンピュータビジョンとイメージメディア、2004−CVIM−145)に記載されている立体高次局所自己相関特徴を用いた公知の異常行動判別方法を利用すればよい。立体高次局所自己相関特徴とは、顔画像認識などによく使われる高次局所自己相関特徴を時間方向に拡張した特徴であり、動画の特徴量を得ることができる。この特徴とは、画像を時系列に並べたボクセルデータ中の各点において251種類の局所的な自己相関特徴を計算し、ボクセルデータ全体にわたって積分することで得られる251次元のベクトル量である。そして、この手法で得られた動画の特徴量を判別分析にかけて異常行動であるかどうか判別する。   Here, as a method for detecting abnormal behavior, for example, it is described in the publication “Detection of abnormal motion from multiple moving images” (Information Processing Society of Japan Research Report, Computer Vision and Image Media, 2004-CVIM-145). What is necessary is just to utilize the well-known abnormal action discrimination method using a solid higher-order local autocorrelation feature. The three-dimensional higher-order local autocorrelation feature is a feature obtained by extending a higher-order local autocorrelation feature often used in face image recognition or the like in the time direction, and can obtain a feature amount of a moving image. This feature is a 251-dimensional vector quantity obtained by calculating 251 types of local autocorrelation features at each point in the voxel data in which images are arranged in time series, and integrating over the entire voxel data. Then, the feature amount of the moving image obtained by this method is subjected to discriminant analysis to determine whether or not it is abnormal behavior.

本実施例によれば、カメラで撮影した映像中の異常行動を検知し自動的に追跡を開始できる。したがって、監視員が追跡指示を出さなくても、不審人物などの移動物体の追跡が可能になり、結果として監視員の負担を低減することが可能になる。   According to the present embodiment, it is possible to detect abnormal behavior in a video photographed by a camera and automatically start tracking. Therefore, it is possible to track a moving object such as a suspicious person without issuing a tracking instruction by the monitoring person, and as a result, it is possible to reduce the burden on the monitoring person.

本発明の一実施例である移動物体監視装置の機能構成を示すブロック図。The block diagram which shows the function structure of the moving object monitoring apparatus which is one Example of this invention. 複数映像監視画面の例。An example of a multiple video surveillance screen. 追跡監視画面の例。Example of a tracking monitoring screen. 移動物体追跡の基本原理の説明図。Explanatory drawing of the basic principle of moving object tracking. 実施例の監視装置における監視方法の処理流れ。The processing flow of the monitoring method in the monitoring apparatus of an Example. 入力処理の詳細。Details of input processing. 人物追跡の処理の詳細。Details of the person tracking process. 追跡人物の検索処理の詳細。Details of the tracking person search process. 特徴量データの構造の例。An example of the structure of feature data. 逆追跡機能を持った移動物体監視装置の機能構成を示すブロック図。The block diagram which shows the function structure of the moving object monitoring apparatus with a reverse tracking function. 逆追跡機能を持つ移動物体監視装置の追跡画面の例。The example of the tracking screen of the moving object monitoring apparatus with a reverse tracking function. 逆追跡機能を持つ監視装置における監視方法の処理の流れ。The flow of processing of a monitoring method in a monitoring device having a reverse tracking function. 逆追跡機能を持った移動物体監視装置の入力処理の処理の詳細。Details of processing of input processing of a moving object monitoring apparatus having a reverse tracking function. 正逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図。The block diagram which shows the function structure of the moving object monitoring apparatus with a normal / reverse tracking function. 正逆追跡機能を持つ移動物体監視装置の監視画面の例。An example of a monitoring screen of a moving object monitoring device having a forward / reverse tracking function. 正逆追跡機能を持つ監視装置における監視方法の処理の流れ。The flow of processing of a monitoring method in a monitoring device having a forward / reverse tracking function. 図1の実施例の監視装置をネットワーク環境下でシステム構築する際の機能配置の一例。FIG. 2 is an example of a functional layout when the monitoring apparatus of the embodiment of FIG. 1 is built in a network environment. 複数追跡時の追跡監視画面の例。An example of a tracking monitor screen for multiple tracking. 異常行動検知機能を持った移動物体監視装置の機能構成を表すブロック図。The block diagram showing the function structure of the moving object monitoring apparatus with an abnormal action detection function.

符号の説明Explanation of symbols

100…カメラ、102…映像取得部、104…映像DB、106…特徴量算出部、
108…特徴量DB、110…移動物体追跡部、112…映像選択部、114…軌跡生成部、116…サムネイル生成部、118…監視画面生成部、120…入力手段、122…出力手段。
DESCRIPTION OF SYMBOLS 100 ... Camera, 102 ... Image | video acquisition part, 104 ... Image | video DB, 106 ... Feature-value calculation part,
DESCRIPTION OF SYMBOLS 108 ... Feature-value DB, 110 ... Moving object tracking part, 112 ... Image | video selection part, 114 ... Trajectory generation part, 116 ... Thumbnail generation part, 118 ... Monitoring screen generation part, 120 ... Input means, 122 ... Output means.

Claims (7)

複数のカメラを用いて移動物体を監視する移動物体監視装置において、
複数のカメラで撮影した映像から移動物体の特徴量を算出する特徴量算出部と、
前記特徴量から前記移動物体を追跡する移動物体追跡部と、
前記移動物体追跡部の追跡結果を用いて前記移動物体が映っているカメラ映像を選択する映像選択部と、
前記追跡結果を用いて、前記移動物体の移動軌跡を生成する軌跡生成部と、
前記映像選択部が選択した前記カメラ映像と前記軌跡生成部が生成した前記移動軌跡とから監視画面を生成する監視画面生成部と、
を備えることを特徴とする移動物体監視装置。
In a moving object monitoring apparatus that monitors a moving object using a plurality of cameras,
A feature amount calculation unit for calculating a feature amount of a moving object from images captured by a plurality of cameras;
A moving object tracking unit that tracks the moving object from the feature amount;
A video selection unit that selects a camera video in which the moving object is shown using the tracking result of the moving object tracking unit;
Using the tracking result, a trajectory generating unit that generates a moving trajectory of the moving object;
A monitoring screen generation unit that generates a monitoring screen from the camera image selected by the video selection unit and the movement locus generated by the locus generation unit;
A moving object monitoring apparatus comprising:
請求項1において、さらに前記複数のカメラで撮影した映像からサムネイルを生成するサムネイル生成部を備え、前記監視画面生成部は、前記移動軌跡上に前記サムネイルを重ねるように前記監視画面を生成することを特徴とする移動物体監視装置。   2. The apparatus according to claim 1, further comprising a thumbnail generation unit that generates thumbnails from videos captured by the plurality of cameras, wherein the monitoring screen generation unit generates the monitoring screen so that the thumbnails are superimposed on the movement locus. A moving object monitoring device. 請求項1または請求項2において、前記移動物体追跡部は、前記移動物体を、過去に遡って追跡することを特徴とする移動物体監視装置。   3. The moving object monitoring apparatus according to claim 1, wherein the moving object tracking unit tracks the moving object retroactively. 請求項1または請求項2において、前記移動物体追跡部は、前記移動物体を、時間軸の正方向と逆方向の両方に向かって追跡することを特徴とする移動物体監視装置。   3. The moving object monitoring device according to claim 1, wherein the moving object tracking unit tracks the moving object in both a forward direction and a reverse direction of a time axis. 請求項1ないし4のいずれか1項において、さらに、前記複数のカメラで撮影した映像から異常行動の発生を検知して、前記移動物体追跡部に追跡開始を指示する異常行動検知部を備えることを特徴とする移動物体監視装置。   5. The apparatus according to claim 1, further comprising: an abnormal behavior detection unit that detects the occurrence of abnormal behavior from the images captured by the plurality of cameras and instructs the moving object tracking unit to start tracking. A moving object monitoring device. 請求項1ないし5のいずれか1項において、前記監視画面生成部は、監視領域を表すマップを表示する監視画面を生成することを特徴とする移動物体監視装置。   The moving object monitoring apparatus according to claim 1, wherein the monitoring screen generation unit generates a monitoring screen that displays a map representing a monitoring area. 請求項1ないし6のいずれか1項において、前記移動物体追跡部は、重心間のユークリッド距離,重心間のマハラノビス距離,ウイルクスのΛ統計のいずれかを用いて前記特徴量を算出することを特徴とする移動物体監視装置。

7. The moving object tracking unit according to claim 1, wherein the moving object tracking unit calculates the feature amount using any one of Euclidean distance between centroids, Mahalanobis distance between centroids, and Wiltz Λ statistics. A moving object monitoring device.

JP2006092746A 2006-03-30 2006-03-30 Moving object monitoring device using multiple cameras Expired - Fee Related JP4706535B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006092746A JP4706535B2 (en) 2006-03-30 2006-03-30 Moving object monitoring device using multiple cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006092746A JP4706535B2 (en) 2006-03-30 2006-03-30 Moving object monitoring device using multiple cameras

Publications (2)

Publication Number Publication Date
JP2007267294A true JP2007267294A (en) 2007-10-11
JP4706535B2 JP4706535B2 (en) 2011-06-22

Family

ID=38639797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006092746A Expired - Fee Related JP4706535B2 (en) 2006-03-30 2006-03-30 Moving object monitoring device using multiple cameras

Country Status (1)

Country Link
JP (1) JP4706535B2 (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140425A (en) * 2008-12-15 2010-06-24 Hitachi Kokusai Electric Inc Image processing system
JP2010205276A (en) * 2010-04-09 2010-09-16 Toshiba Tec Corp Traffic line editing device, and traffic line editing program
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program
JP2012134638A (en) * 2010-12-20 2012-07-12 Hitachi Building Systems Co Ltd Elevator monitoring image recording device
JP2013081039A (en) * 2011-10-03 2013-05-02 Hitachi Kokusai Electric Inc Image display device
CN104679864A (en) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 Intelligent tracking method and intelligent tracking device for suspected target based on GIS (Geographic Information System)
CN105677922A (en) * 2016-03-23 2016-06-15 苏州数字地图信息科技股份有限公司 Method and device for positioning target by videos
JP2016129306A (en) * 2015-01-09 2016-07-14 キヤノン株式会社 Information processing system, information processing method, and program
KR20170009300A (en) * 2015-07-16 2017-01-25 한화테크윈 주식회사 Advanced wander alarm system and method thereof
US9697420B2 (en) 2013-02-15 2017-07-04 Nec Corporation Information processing system, information processing method, and computer-readable recording medium
JP6206857B1 (en) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 Tracking support device, tracking support system, and tracking support method
KR20180000205A (en) * 2016-06-22 2018-01-02 한국전자통신연구원 Apparatus and method for intelligently analyzing video
JP2018032950A (en) * 2016-08-23 2018-03-01 キヤノン株式会社 Information processing unit and information processing method, and computer program
JP2018147478A (en) * 2017-03-02 2018-09-20 株式会社リコー Decomposition of video stream into salient fragments
JP6400260B1 (en) * 2017-10-20 2018-10-03 三菱電機株式会社 Data processing apparatus, programmable display and data processing method
CN109657703A (en) * 2018-11-26 2019-04-19 浙江大学城市学院 Listener clustering method based on space-time data track characteristic
CN111277745A (en) * 2018-12-04 2020-06-12 北京奇虎科技有限公司 Target person tracking method and device, electronic equipment and readable storage medium
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
WO2022009944A1 (en) * 2020-07-10 2022-01-13 株式会社日立産業制御ソリューションズ Video analysis device, wide-area monitoring system, and method for selecting camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6659524B2 (en) 2016-11-18 2020-03-04 株式会社東芝 Moving object tracking device, display device, and moving object tracking method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (en) * 1991-02-28 1992-09-29 Hitachi Ltd Monitoring device
JPH07288802A (en) * 1994-04-18 1995-10-31 Nippon Telegr & Teleph Corp <Ntt> Intruded object supervisory equipment
JPH09130783A (en) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd Distributed video monitoring system
JPH10150657A (en) * 1996-09-20 1998-06-02 Hitachi Ltd Mobile object displaying method, display system using it and program recording medium for it
JP2004058737A (en) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology Safety monitoring device in station platform
JP2005086626A (en) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd Wide area monitoring device
JP2006031678A (en) * 2004-05-28 2006-02-02 Sony United Kingdom Ltd Image processing
JP2006081053A (en) * 2004-09-13 2006-03-23 Mitsubishi Electric Corp System for supporting trace of mobile body

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (en) * 1991-02-28 1992-09-29 Hitachi Ltd Monitoring device
JPH07288802A (en) * 1994-04-18 1995-10-31 Nippon Telegr & Teleph Corp <Ntt> Intruded object supervisory equipment
JPH09130783A (en) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd Distributed video monitoring system
JPH10150657A (en) * 1996-09-20 1998-06-02 Hitachi Ltd Mobile object displaying method, display system using it and program recording medium for it
JP2004058737A (en) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology Safety monitoring device in station platform
JP2005086626A (en) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd Wide area monitoring device
JP2006031678A (en) * 2004-05-28 2006-02-02 Sony United Kingdom Ltd Image processing
JP2006081053A (en) * 2004-09-13 2006-03-23 Mitsubishi Electric Corp System for supporting trace of mobile body

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140425A (en) * 2008-12-15 2010-06-24 Hitachi Kokusai Electric Inc Image processing system
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program
JP2010205276A (en) * 2010-04-09 2010-09-16 Toshiba Tec Corp Traffic line editing device, and traffic line editing program
JP2012134638A (en) * 2010-12-20 2012-07-12 Hitachi Building Systems Co Ltd Elevator monitoring image recording device
JP2013081039A (en) * 2011-10-03 2013-05-02 Hitachi Kokusai Electric Inc Image display device
US9697420B2 (en) 2013-02-15 2017-07-04 Nec Corporation Information processing system, information processing method, and computer-readable recording medium
JP2016129306A (en) * 2015-01-09 2016-07-14 キヤノン株式会社 Information processing system, information processing method, and program
CN104679864A (en) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 Intelligent tracking method and intelligent tracking device for suspected target based on GIS (Geographic Information System)
KR20170009300A (en) * 2015-07-16 2017-01-25 한화테크윈 주식회사 Advanced wander alarm system and method thereof
KR102015588B1 (en) * 2015-07-16 2019-08-28 한화테크윈 주식회사 Advanced wander alarm system and method thereof
CN105677922A (en) * 2016-03-23 2016-06-15 苏州数字地图信息科技股份有限公司 Method and device for positioning target by videos
KR20180000205A (en) * 2016-06-22 2018-01-02 한국전자통신연구원 Apparatus and method for intelligently analyzing video
KR102407202B1 (en) * 2016-06-22 2022-06-10 한국전자통신연구원 Apparatus and method for intelligently analyzing video
JP2018032950A (en) * 2016-08-23 2018-03-01 キヤノン株式会社 Information processing unit and information processing method, and computer program
US10719946B2 (en) 2016-08-23 2020-07-21 Canon Kabushiki Kaisha Information processing apparatus, method thereof, and computer-readable storage medium
JP6206857B1 (en) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 Tracking support device, tracking support system, and tracking support method
JP2018032994A (en) * 2016-08-24 2018-03-01 パナソニックIpマネジメント株式会社 Device, system and method for trace support
WO2018037631A1 (en) * 2016-08-24 2018-03-01 パナソニックIpマネジメント株式会社 Tracking assistance device, tracking assistance system and tracking assistance method
GB2566912A (en) * 2016-08-24 2019-03-27 Panasonic Ip Man Co Ltd Tracking assistance device, tracking assistance system and tracking assitance method
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US11398253B2 (en) 2017-03-02 2022-07-26 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
JP2018147478A (en) * 2017-03-02 2018-09-20 株式会社リコー Decomposition of video stream into salient fragments
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10720182B2 (en) 2017-03-02 2020-07-21 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
JP6400260B1 (en) * 2017-10-20 2018-10-03 三菱電機株式会社 Data processing apparatus, programmable display and data processing method
CN110140152B (en) * 2017-10-20 2020-10-30 三菱电机株式会社 Data processing device, programmable display and data processing method
CN110140152A (en) * 2017-10-20 2019-08-16 三菱电机株式会社 Data processing equipment, programable display and data processing method
WO2019077750A1 (en) * 2017-10-20 2019-04-25 三菱電機株式会社 Data processing device, programmable display, and data processing method
CN109657703A (en) * 2018-11-26 2019-04-19 浙江大学城市学院 Listener clustering method based on space-time data track characteristic
CN109657703B (en) * 2018-11-26 2023-04-07 浙江大学城市学院 Crowd classification method based on space-time data trajectory characteristics
CN111277745A (en) * 2018-12-04 2020-06-12 北京奇虎科技有限公司 Target person tracking method and device, electronic equipment and readable storage medium
CN111277745B (en) * 2018-12-04 2023-12-05 北京奇虎科技有限公司 Target person tracking method and device, electronic equipment and readable storage medium
WO2022009944A1 (en) * 2020-07-10 2022-01-13 株式会社日立産業制御ソリューションズ Video analysis device, wide-area monitoring system, and method for selecting camera
JP2022015864A (en) * 2020-07-10 2022-01-21 株式会社 日立産業制御ソリューションズ Video analysis device, wide area monitoring system, and selection method of camera

Also Published As

Publication number Publication date
JP4706535B2 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4706535B2 (en) Moving object monitoring device using multiple cameras
JP7282851B2 (en) Apparatus, method and program
JP4613230B2 (en) Moving object monitoring device
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
JP6213843B2 (en) Image processing system, image processing method, and program
JP5001260B2 (en) Object tracking method and object tracking apparatus
JP6362674B2 (en) Video surveillance support apparatus, video surveillance support method, and program
JP4542207B1 (en) Moving object detection method and moving object detection apparatus
JP6159179B2 (en) Image processing apparatus and image processing method
JP5743849B2 (en) Video analysis apparatus and system
EP1873732A2 (en) Image processing apparatus, image processing system and filter setting method
JP6210234B2 (en) Image processing system, image processing method, and program
US9589192B2 (en) Information processing system, information processing method, and program
JP2014153813A5 (en) Image processing apparatus, image processing method, and program
US20160084932A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP6841608B2 (en) Behavior detection system
JP6575845B2 (en) Image processing system, image processing method, and program
JP2011133984A (en) Motion feature extraction device and motion feature extraction method
JP2010140425A (en) Image processing system
JP2008278128A (en) Monitoring system, monitoring method, and program
JP4993678B2 (en) Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program
JP6618349B2 (en) Video search system
Salisbury et al. Crowdar: augmenting live video with a real-time crowd
JP6478643B2 (en) Information processing apparatus, information processing method, and program
JP2019020820A (en) Video recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110228

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees