JP4996404B2 - Human behavior search device - Google Patents
Human behavior search device Download PDFInfo
- Publication number
- JP4996404B2 JP4996404B2 JP2007243307A JP2007243307A JP4996404B2 JP 4996404 B2 JP4996404 B2 JP 4996404B2 JP 2007243307 A JP2007243307 A JP 2007243307A JP 2007243307 A JP2007243307 A JP 2007243307A JP 4996404 B2 JP4996404 B2 JP 4996404B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- behavior
- recording
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 claims description 51
- 238000012545 processing Methods 0.000 claims description 50
- 238000012544 monitoring process Methods 0.000 claims description 30
- 230000005484 gravity Effects 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 8
- 210000000744 eyelid Anatomy 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 90
- 238000000034 method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 230000037303 wrinkles Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 3
- 230000001747 exhibiting effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 208000008918 voyeurism Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、人物行動検索装置に関し、詳しくは、所定の監視場所を録画した動画データから人の行動を分析するに際して、人の挙動を示す人物キーを検索キーとして検索し、当該人が録画されている録画位置から素早く上記動画データを再生できるようにした人物行動検索装置に関するものである。 The present invention relates to a person behavior search device, and more specifically, when analyzing a person's behavior from moving image data recording a predetermined monitoring place, a person key indicating a person's behavior is searched as a search key, and the person is recorded. The present invention relates to a human behavior search apparatus that can quickly reproduce the moving image data from a recording position.
従来、現金自動預払機(ATM )、コンビニエンスストア、デパート、マンション、住宅等の監視場所には、監視カメラが設置されて撮像画像を録画装置によって記憶部に動画記録して、上記監視場所での人の行動を記録することが行われている。そして、録画装置によって録画した動画データは、再生装置によってモニター上に再生して監視場所での特定の人の行動を分析すること等に利用されている。
ところが、上記動画データは、漫然と長時間に記録されているため、人が映し出されるまで再生装置を早送りする等の作業が必要となる。その際、特定の挙動を示す人を見つけ出すためには、巻き戻し、早送り等して人の行動が判断しやすい場面を探し、時には一時停止やコマ送り等して確認することとなる。しかも、複数の人が同時に画面に現れる場合は、巻き戻して個々の人を個別に確認する必要がある。 However, since the moving image data is recorded for a long time, it is necessary to perform operations such as fast-forwarding the playback device until a person is projected. At that time, in order to find a person who shows a specific behavior, a scene where the person's action can be easily judged is searched by rewinding or fast-forwarding, and sometimes it is confirmed by pausing or frame-by-frame. Moreover, when a plurality of people appear on the screen at the same time, it is necessary to rewind and confirm each individual person.
このように録画された動画データから人を見つけ出しその人の行動を分析するのは、非常に手間がかかる。本来、監視場所を常時動画記録するのは、人を対象とし、その行動を把握することにあり、そのため、長時間記録された動画データから人の行動を容易に且つ短時間で目視確認できるようにすることが望まれる。 It is very troublesome to find a person from the video data recorded in this way and analyze the action of the person. Originally, the video recording of the monitoring location is always for the purpose of grasping the behavior of the person, so that the behavior of the person can be easily and visually confirmed from the video data recorded for a long time. It is desirable to make it.
本発明は、上記事情に鑑みてなされたものであり、長時間記録された動画データから人の行動を分析するのに要する作業負担を軽減すべく、動画データから特定の挙動を示す人が録画された位置を容易に検索しその位置から素早い再生を可能とする人物行動検索装置を提供することを課題とする。 The present invention has been made in view of the above circumstances, and a person who shows a specific behavior is recorded from moving image data in order to reduce the work burden required to analyze human behavior from moving image data recorded for a long time. It is an object of the present invention to provide a human behavior search apparatus that easily searches for a position and makes it possible to quickly reproduce the position.
上記課題を解決するための本発明は、人の行動を監視し録画した動画データを、所定の挙動を示した人を検索し当該人が現われる場面から再生可能とするための人物行動検索装置を提供するものである。その手段は、以下のとおりである。
撮像装置により撮像される監視領域の撮像画像を動画データとして画像記録部に録画させる録画装置と、
上記撮像装置又は上記画像記録部から連続的に送られる撮像画像上で個々の人を認識して当該人の仮想重心点の移動を追跡し、上記監視領域の特定場所での人の行動を把握するために撮像画像上の一定範囲内に予め設定された計測領域において撮像画像上に現われた人の仮想重心点が撮像画像上に予め設定された計測領域内に進入してから計測領域外へ退出するまでの当該人の行動情報を取得する画像処理装置と、
上記画像処理装置で取得した当該人の行動情報より、所定の挙動判定基準に基づいて当該人の挙動を判定する挙動判定装置と、
上記挙動判定装置で挙動判定された結果から当該人の挙動を示す栞データを作成する栞データ作成部と、
上記画像処理装置で追跡した当該人の仮想重心点の移動軌跡を示す追跡線を記録する移動軌跡記録部と、
上記撮像画像上において監視領域内の人が通過する位置に代表画像抽出ラインを予め設定し、上記画像処理装置での撮像画像の中から撮像画像上に現われた人の仮想重心点が上記代表画像抽出ラインを最初に通過したときの撮像画像を当該人の顔が明瞭に写った代表画像として抽出し、当該代表画像に上記移動軌跡記録部に記録された追跡線を合成した当該人の栞画像を作成する栞画像作成部と、
当該人が認識されている動画データの録画位置を記録する録画位置記録部と、
上記の当該人による栞画像と栞データと録画位置とを関連付ける人物キーを作成し、これを栞記憶部に記憶させる人物キー作成部と、
上記人物キーの栞データを検索させて上記栞記憶部から当該栞データと関連付けられた栞画像を呼び出し、当該栞画像を表示装置に一覧表示させる検索部と、
上記一覧表示された栞画像の選択により上記録画装置によって記録された動画データを当該栞画像と関連付けられた録画位置から上記表示装置に再生させる表示編集部とを備え、
上記栞データは、
(1)当該人の複数の異なる計測領域間の移動があるかを示す移動順序、
(2)当該人の計測領域内での平均速度を示す移動速度、
(3)当該人が計測領域内で停止していた時間を示す停止時間、及び
(4)当該人が計測領域内に滞在していた時間を示す滞在時間
の各項目(1)(2)(3)(4)のすべての組み合わせによって構成される。
In order to solve the above problems, the present invention provides a human behavior search apparatus for searching for a person who shows a predetermined behavior and reproducing the video data recorded by monitoring and monitoring the behavior of the person from a scene where the person appears. It is to provide. The means is as follows.
A recording device that causes the image recording unit to record the captured image of the monitoring area captured by the imaging device as moving image data;
Recognize each person on the captured images continuously sent from the imaging device or the image recording unit, track the movement of the virtual center of gravity of the person, and grasp the behavior of the person at a specific location in the monitoring area. In order to do so, the virtual center of gravity of the person appearing on the captured image in the measurement area preset within a certain range on the captured image enters the measurement area preset on the captured image and then moves outside the measurement area. An image processing device for acquiring the behavior information of the person until leaving,
From the behavior information of the person acquired by the image processing device, a behavior determination device that determines the behavior of the person based on a predetermined behavior determination criterion;
栞 data creation unit for creating 栞 data indicating the behavior of the person from the result of behavior determination by the behavior determination device,
A movement trajectory recording unit that records a tracking line indicating the movement trajectory of the virtual center of gravity of the person tracked by the image processing device;
Preset representative image extraction line at a position passing through the person in the monitoring area on the captured image, the virtual center of gravity is the representative image of the person appearing on the captured image from the captured image by the image processing apparatus The captured image when passing through the extraction line for the first time is extracted as a representative image in which the person's face is clearly shown, and the person's eyelid image obtained by combining the representative image with the tracking line recorded in the moving locus recording unit.栞 Image creation part to create
A recording position recording unit for recording the recording position of the moving image data in which the person is recognized;
A person key creating unit for associating the above-mentioned 栞 image, 栞 data and recording position by the person, and storing the person key in the 栞 storage unit;
A search unit for searching for the heel data of the person key, calling the heel image associated with the heel data from the heel storage unit, and displaying the list of the heel images on a display device;
A display editing section for causing the display device to reproduce the moving image data recorded by the recording device by selecting the thumbnail image displayed in the list from the recording position associated with the thumbnail image;
The above data is
(1) movement order indicating whether there is movement between the different measurement areas of the person,
(2) Movement speed indicating the average speed of the person in the measurement area,
(3) Stop time indicating the time the person was stopped in the measurement area, and
(4) Consists of all combinations of items (1), (2), (3), and (4) of the staying time indicating the time during which the person stayed in the measurement area.
上記栞データは、さらに、
(5)当該人が計測領域内を2人で並行して移動していたかを示す共連れ、及び
(6)当該人を含めて計測領域内に同時に存在していた人数を示す滞在人数
の各項目(5)(6)のうちの1つ又はこれら項目(5)(6)のすべてを備えることができる。
上記栞画像作成部は、撮像画像上において監視領域内の人が通過する位置に代表画像抽出ラインを予め設定することにより、当該人の顔が明瞭に写る位置で撮像された撮像画像から代表画像を抽出し栞画像を作成するようにしてもよい。
上記画像処理装置は、上記撮像画像において等間隔に配置する処理点ごとにその処理点を中心点とする円の円周上での各画素のピクセル値に対し基本波フーリエ変換を実行し、得られた位相より処理点ごとに人物画像の概略的な輪郭を法線ベクトルで認識し、当該法線ベクトルを基にその人物画像を上記仮想重心点として捉えるとともに、当該仮想重心点を経時的に追跡する人認識手段を含むことでもよい。
The above heel data
(5) A companion showing whether the person was moving in parallel within the measurement area, and
(6) One of the items (5) and (6) of the number of staying persons indicating the number of people who were present in the measurement area at the same time including the person or all of these items (5) and (6) Can do.
The saddle image creation unit sets a representative image extraction line in advance in a position where a person in the monitoring area passes on the captured image, thereby representing the representative image from the captured image captured at a position where the person's face is clearly visible. May be extracted to create a bag image.
The image processing apparatus performs a fundamental wave Fourier transform on pixel values of each pixel on the circumference of a circle having the processing point as a center point for each processing point arranged at equal intervals in the captured image. The outline of the person image is recognized by a normal vector for each processing point from the obtained phase, and the person image is recognized as the virtual centroid point based on the normal vector, and the virtual centroid point is determined over time. A person recognition means for tracking may be included.
以上の構成によれば、監視カメラ等の撮像装置から送られてくる撮像画像は、録画装置によって所定の記憶部に動画データとして録画される一方、画像処理装置によって常時処理し、撮像画像内の個々の人を個別に仮想重心点として捉えて追跡し、計測領域内における当該人の位置、速度、時間などの行動情報が取得される。そして、代表画像抽出ラインを最初に通過したときの撮像画像を当該人の代表画像として抽出すると共に追跡線を記録してその人の栞画像を作成し、当該人の行動情報を挙動判定して栞データを作成し、当該人が認識されている動画データの録画位置が記録される。これら当該人の栞画像と栞データと録画位置とは、互いに関連付けられた人物キーとして記憶手段に記憶される。 According to the above configuration, a captured image sent from an imaging device such as a monitoring camera is recorded as moving image data in a predetermined storage unit by the recording device, while being always processed by the image processing device, Individual persons are individually captured as virtual centroid points and tracked, and behavior information such as the position, speed, and time of the person in the measurement region is acquired. Then, the captured image when passing through the representative image extraction line for the first time is extracted as the representative image of the person, and the tracking line is recorded to create a habit image of the person.栞 Data is created, and the recording position of the moving image data in which the person is recognized is recorded. The person's wrinkle image, wrinkle data, and recording position are stored in the storage unit as person keys associated with each other.
そして、録画装置によって録画された動画データを再生するに際して、まず、検索部によって上記人物キーの上記栞データを検索キーとして検索させることで該当する人の栞画像が表示装置に一覧表示される。次いで、所望の栞画像を選択すると、表示編集部によって選択された栞画像の人が現われる場面から上記動画データの再生が表示装置において行われる。
このように、特定の挙動を示す人が録画されている動画データの位置を容易に検索し、その人が現われる場面からの再生を簡易に且つ素早く行うことができる。
When the moving image data recorded by the recording device is played back, first, the search unit causes the search data to be searched using the font data of the person key as a search key . Next, when a desired haze image is selected, the moving image data is reproduced on the display device from a scene where a person of the haze image selected by the display editing unit appears.
In this way, it is possible to easily search for the position of moving image data where a person exhibiting a specific behavior is recorded, and to easily and quickly reproduce the scene from which the person appears.
以上のように、本発明によれば、人物キーを作成しておくことで、長時間記録された動画データから特定の挙動を示した人が現われる場面を簡単に再生させることができ、その結果、録画装置によって録画された動画データに基づいて人の行動を分析するのに要する作業負担を大幅に軽減することができる。 As described above, according to the present invention, by creating a person key, it is possible to easily reproduce a scene in which a person showing a specific behavior appears from moving image data recorded for a long time. The work burden required for analyzing human behavior based on the moving image data recorded by the recording device can be greatly reduced.
以下に、本発明の実施の形態について図面を参照しながら説明する。
本実施の形態は、人物行動検索装置の一適用例として、銀行等の店舗内に設置したATM機(現金自動預払機)の利用者である人の行動を監視し録画した動画データから所定の挙動を示した人を検索し素早く再生表示可能としたものである。図1は、ATM機100を3台(M1〜M3)並べて設置したATM室S内(監視領域)を、1台のカメラ9によって上方から常時撮影している様子を模式的に示している。
Embodiments of the present invention will be described below with reference to the drawings.
In this embodiment, as an application example of the human behavior search apparatus, predetermined behavior is obtained from video data obtained by monitoring and recording the behavior of a person who is a user of an ATM machine (automated teller machine) installed in a store such as a bank. The person who showed the behavior is searched and can be quickly displayed. FIG. 1 schematically shows a state in which an ATM room S (monitoring area) in which three ATM machines 100 (M1 to M3) are installed side by side is always photographed from above by a
なお、図1中、Tは、ATM室Sの出入口の扉であり、A1〜A3は、撮像画像1内に設定される計測領域であり、hは、ATM機100の利用者の人物画像hであり、Gは、人物画像hの仮想重心点であり、R1は、図1中の右側のATM機100の利用者による人物画像hの挙動を示す移動軌跡であって不正常な挙動を示していた場合であり、R2は、図1中の中央のATM機100の利用者による人物画像hの挙動を示す移動軌跡であって正常な挙動を示していた場合である。また、Lは、この撮像画像1上に設定された代表画像抽出ラインである。
In FIG. 1, T is the door of the ATM room S, A1 to A3 are measurement areas set in the captured
図2は、人物行動検索装置Xの構成図を示し、この人物行動検索装置Xは、カメラ(撮像装置)9、録画装置2、操作手段7、画像処理装置3、挙動判定装置4、栞生成装置5、栞記憶部50、再生制御装置6、表示装置8を備える。
FIG. 2 shows a configuration diagram of the human behavior search device X. The human behavior search device X includes a camera (imaging device) 9, a
カメラ9は、例えば、1台のCCDカメラ等で構成され、上方からATM機100と床面が見える角度で天井や壁面に設置されて監視領域SであるATM室S内を上方から常時撮像し、その撮像画像1を連続的に画像処理装置3に送る。カメラ9を床面が写る角度に設置することで、人物画像hの移動軌跡を表示したときにその進路を把握しやすい情報が得られる。天井が低い場合などは、人物画像hの移動軌跡の範囲が狭まるため、広角レンズを装着したカメラ9を使用し、その撮影範囲を広げるようにしてもよい。
The
録画装置2は、カメラ9により撮像されるATM室S内の撮像画像1を動画データとして所定の画像記録部21に録画させるものである。この録画装置2は、既知のレコーダやコンピュータのドライブ装置等が使用され、動画データを記憶させる画像記録部21としては、内蔵のハードディスクや、着脱可能なDVD、DVテープ等の各種の記憶媒体が使用される。
The
操作手段7は、例えば、キーボード、マウス等の入力装置で構成され、画像処理装置3に対してカメラ9で撮像する撮像画像1上に計測領域Aの設定を行ったり、挙動判定装置4に対して人の行動を分析するための挙動判定基準41を設定したり、再生制御装置6を操作して録画装置2によって録画された動画データを表示装置8に再生させる指示を行ったりする。また、この操作手段7は、撮像画像1上において当該撮像画像1に写される人物の代表画像を抽出する位置を示す代表画像抽出ラインLの設定も行う。
For example, the
計測領域Aは、撮像画像1上に現われた人がこの計測領域A内に存在しているときに当該人の行動情報を取得するために設定される。例えば、無人のATM室Sを監視する場合、計測領域Aは、撮像画像1上でATM機100の前面位置の一定範囲内に設定される。これにより、ATM機100を操作する利用者の行動を把握することができ、ATM機100の利用者を装ってATM機100をいたずらしたり、他の利用者の操作を覗き見する等の不審な行動の有無が把握される。図1に示すATM室Sでは、計測領域Aは、3台のATM機100の各々の前面位置に四角形状に設定されているが、この計測領域Aは、監視目的に応じて位置、大きさ、形状等を適宜に設定することができる。
The measurement area A is set in order to acquire action information of the person when the person who appears on the captured
画像処理装置3は、上記カメラ9から連続的に送られる撮像画像1上で個々の人を認識して当該人の仮想重心点Gの移動を追跡し、上記計測領域A内での当該人の仮想重心点Gの行動情報を取得するものである。この画像処理装置3は、人認識手段31、行動計測手段32により構成される。
The
人認識手段31は、上記撮像画像1において等間隔に配置する処理点ごとにその処理点を中心点とする円の円周上での各ピクセル値に対し基本波フーリエ変換を実行し、得られた位相より処理点ごとに人物画像hの概略的な輪郭を法線ベクトルで認識し、当該法線ベクトルを基にその人物画像hの仮想重心点Gを捉えるとともに、当該仮想重心点Gを経時的に追跡するいわゆるベクトル焦点法による画像処理技術(特許第3406577号、特許第3406587号、特許第3390426号)を備える手段である。
The human recognition means 31 executes fundamental wave Fourier transform on each pixel value on the circumference of a circle having the processing point as the center point for each processing point arranged at equal intervals in the captured
上記ベクトル焦点法の画像処理としては、まず、図3に示すように、撮像画像1内の物体像Bと背景像Wとの濃度差を利用して、撮像画像1上で等間隔に配置した各処理点Pについてその処理点Pを中心点とする円11の円周上での各画素d1〜d12のピクセル値に対し、下記式(1)に示す基本波フーリエ変換を実行していく(円形フーリエ法)。なお、基本波とは、上記処理点Pを中心点とする円周の1周期分の長さとなる正弦波および余弦波を意味する。
As the image processing of the vector focus method, first, as shown in FIG. 3, the density difference between the object image B and the background image W in the captured
は画素のピクセル値にフーリエ変換の余弦波を積和した積和値、ATANはアークタンジェント、sitaはフーリエ変換で得られる位相値を示す。)
Denotes a product-sum value obtained by multiplying the pixel value of a pixel by a cosine wave of Fourier transform, ATRAN is an arctangent, and sita is a phase value obtained by Fourier transform. )
このフーリエ変換で得られる位相が、円周内に存在する画像の濃淡方向を示し、その中心点の処理点Pの画素における画像の濃淡方向となる。すなわち、この濃淡方向は、2次元の撮像画像1での物体Bとその周囲の背景Wとの境界、すなわち物体Bの輪郭部に対する法線ベクトルとして認識される。
The phase obtained by the Fourier transform indicates the light and shade direction of the image existing in the circumference, and becomes the light and shade direction of the image at the pixel at the processing point P at the center point. That is, this grayscale direction is recognized as a normal vector with respect to the boundary between the object B and the surrounding background W in the two-dimensional captured
例えば、図4(a)に示すように円11が物体Bにかかった状態のとき、所定の基準位置から反時計方向に回転させて円形にフーリエ変換を実行し、正弦波および余弦波に円周上の各画素のピクセル値を積算すると、図4(b)に示すように、90度付近で波形のピークが現れる。その結果、上記の円形フーリエ法で得られた位相がちょうど物体Bの輪郭部に対する法線方向を示すものとなる。なお、図4(b)において、sinは正弦波、cosは余弦波、s・pは正弦波とピクセル値とを積算した波形、c・pは余弦波とピクセル値とを積算した波形を示している。
For example, when the
但し、上記の円周内には物体像Bの輪郭部が入っておらず、円周内の画像がほとんど均一な濃度分布のところを除くため、下記式(2)に示す、上記SVおよび上記CVの二乗和の平方根の値(pow)が一定値以下のときはこの処理点Pには濃淡が無いとして扱う。 However, since the contour portion of the object image B is not included in the circumference and the image in the circumference has almost uniform density distribution, the above SV and the above formula (2) are excluded. When the square root value (pow) of the square sum of CVs is less than a certain value, the processing point P is treated as having no shading.
そして、人物画像hの抽出を行うには、図5(a)に示すように、まず、撮像画像1上の任意の配置点Qを基準に標準人型像oを配置し、上記円形フーリエ法により標準人型像oの輪郭部における法線ベクトル群bを求め、配置点Qから法線ベクトル群bまでの位置情報と法線ベクトル群bの角度情報を、当該配置点Qの標準データとして記憶する。
In order to extract the person image h, as shown in FIG. 5A, first, the standard human figure image o is arranged with reference to an arbitrary arrangement point Q on the captured
次に、図5(b)に示すように、監視時に移動する人物画像hが写された撮像画像1に対して上記円形フーリエ法により人物画像hの輪郭部における法線ベクトル群b’を求め、上記標準データに基づいてこれら法線ベクトル群b’から上記配置点Qに相当する複数の正解点を求め、これら正解点が集まった所謂ベクトル焦点Gが一定値以上であれば、その人物画像hは人であると認識する。このベクトル焦点Gが、上記人の仮想重心点Gとなり、この重心点Gをカメラ9から送られてくる撮像画像1毎に追跡して行く。
Next, as shown in FIG. 5B, a normal vector group b ′ at the contour portion of the person image h is obtained by the circular Fourier method for the captured
なお、上記仮想重心点Gの位置は、監視目的に応じて人物画像h上の適宜位置に設定することができるが、本実施の形態では、例えば、人物画像hの頭部に配置される。すなわち、ATM機100の利用者を装ってATM機100をいたずらしたり、他の利用者の操作を覗き見する等の場合、周りを見渡したりするのに頭部の移動が顕著となるからであり、そのため、本実施の形態では、人の行動を捉えるための仮想重心点Gを人物画像hの頭部に配置するのが好ましい。これにより、ATM室S内の人の行動を監視する場合、頭部の動きを観察することで、当該人の不審な挙動の有無を確実に把握することができ、人の行動分析の信頼性を向上することができる。 Note that the position of the virtual center of gravity G can be set to an appropriate position on the person image h in accordance with the monitoring purpose, but in the present embodiment, for example, it is arranged at the head of the person image h. That is, when the ATM machine 100 is disguised as a user of the ATM machine 100, or when looking at other user's operations, the head movement becomes noticeable to look around. For this reason, in the present embodiment, it is preferable to arrange a virtual center of gravity G for capturing human behavior on the head of the person image h. Thereby, when monitoring the behavior of a person in the ATM room S, by observing the movement of the head, it is possible to reliably grasp the presence or absence of the suspicious behavior of the person, and the reliability of the human behavior analysis Can be improved.
以上のベクトル焦点法による画像処理技術によれば、カメラ9から送られてくる撮像画像1を連続的に処理し、処理毎に人物画像hをベクトル焦点という仮想重心点Gで規定することができ、この仮想重心点Gの移動を追跡することができ、さらに、この追跡により仮想重心点Gの瞬間移動速度(停止を含む。)を計測することができるという特性を備えている。例えば、人認識において前後フレームの撮像画像1より差分画像を把握する方法では、人物画像hが停止すると差分がとれず人を見失うおそれがあるが、上記ベクトル焦点法による画像処理技術ではそのような不都合も無い。
According to the image processing technique based on the vector focus method described above, the captured
従って、上記人認識手段31によれば、撮像画像1に現われる個々の人物を一人ひとり認識することができ、例えば、肩を組んでいる2人について、その個々人をそれぞれ一人ひとりに区別して認識し、それぞれの仮想重心点Gを認識することができる。従って、2人が並走するような共連れも把握することができる。そして、人認識手段31は、当該人物画像hの仮想重心点Gの移動を、人物画像hの仮想重心点Gが撮像画像1内に現われてから撮像画像1外に消えるまで追跡する。
Therefore, according to the person recognition means 31, each person appearing in the captured
行動計測手段32は、人認識手段31で特定する人物画像hの仮想重心点Gが計測領域A内に進入してから計測領域A外へ退出するまでの行動情報を計測し、記録する。この行動情報としては、例えば、計測領域A内での人の位置、速度、時間などである。
The
挙動判定装置4は、上記画像処理装置3で取得した当該人の行動情報より、所定の挙動判定基準41に基づいて当該人の挙動を判定するものである。挙動判定装置4には、挙動判定基準41が登録されている(図2参照)。この挙動判定基準41は、監視領域S内で人がどうような行動をとっていたかを判定するための基準であり、例えば、(1)移動順序、(2)共連れ、(3)移動速度、(4)停止時間、(5)滞在時間、及び(6)滞在人数、等の各挙動が設定される(図7参照)。
The
ここで、上記(1)の移動順序は、当該人の複数の異なる計測領域A間の移動があったかを判定する。すなわち、正常なATM機100の利用者は、通常、ATM機100の操作中に横側へ移動することもない(図1中、R2を参照)。一方、隣のATM機100を覗き見するような不審な行動を示すと、隣接するATM機100に対して設定された計測領域Aへの移動が発生することとなる(図1中、R1を参照)。従って、複数の異なる計測領域A間の行動を行った人の中には、不審人物が含まれ得ると判断できるからである。 Here, the movement order of the above (1) determines whether or not the person has moved between a plurality of different measurement areas A. That is, a normal user of the ATM machine 100 does not normally move to the side during the operation of the ATM machine 100 (see R2 in FIG. 1). On the other hand, when a suspicious action such as peeking at the adjacent ATM machine 100 is shown, movement to the measurement area A set for the adjacent ATM machine 100 occurs (in FIG. 1, R1 is set to R1). reference). Therefore, it can be determined that a person who performs an action between a plurality of different measurement areas A can include a suspicious person.
上記(2)の共連れは、当該人が計測領域A内を2人で並行して移動していたかを判定する。この場合、ATM機100の利用者を装ってATM機100をいたずら等した者が含まれ得ると判断できるからである。 In the above (2), it is determined whether or not the person has moved in the measurement area A in parallel. In this case, it can be determined that a person who pretend to be a user of the ATM machine 100 and mischief the ATM machine 100 can be included.
上記(3)の移動速度は、当該人の計測領域A内での平均速度を判定する。この場合、平均速度が異常に速いと、周辺をきょろきょろ見渡していたとも捉えることができ、その者の中には、ATM機100の利用者を装ってATM機100をいたずら等した者が含まれ得ると判断できるからである。 The moving speed of the above (3) determines the average speed in the measurement area A of the person. In this case, if the average speed is abnormally high, it can be understood that the surrounding area has been overlooked, and some of them include those who pretend to be a user of the ATM machine 100 and mischief the ATM machine 100. It is because it can be judged that it obtains.
上記(4)の停止時間は、当該人が計測領域A内で停止していた時間を判定する。この場合、停止時間が異常に長いと、ATM機100の利用者を装ってATM機100をいたずら等した者が含まれ得ると判断できるからである。 The stop time of the above (4) determines the time during which the person has stopped in the measurement area A. In this case, if the stop time is abnormally long, it can be determined that a person who pretend to be a user of the ATM machine 100 and mischief the ATM machine 100 can be included.
上記(5)の滞在時間は、当該人が計測領域A内に滞在していた時間を判定する。この場合も、滞在時間が異常に長いと、ATM機100の利用者を装ってATM機100をいたずら等した者が含まれ得ると判断できるからである。 The staying time of (5) above determines the time during which the person has stayed in the measurement area A. Also in this case, if the staying time is abnormally long, it can be determined that a person who pretends to be a user of the ATM machine 100 and mischief the ATM machine 100 can be included.
上記(6)の滞在人数は、当該人を含めて計測領域A内に同時に存在していた人数を判定する。この場合、例えば、3人以上の多数であると、ATM機100の利用者を装ってATM機100をいたずら等した者が含まれ得ると判断できるからである。
なお、この挙動判定基準41は、上記の各挙動に限らず、監視目的に応じてその挙動内容を適宜に決定することができる。
The number of stays in (6) above determines the number of people who were present in the measurement area A at the same time including the person. In this case, for example, if there are a large number of three or more, it can be determined that a person who pretends to be a user of the ATM machine 100 and mischief the ATM machine 100 can be included.
In addition, this behavior determination reference | standard 41 can determine the content of the behavior suitably not only according to each said behavior but according to the monitoring objective.
栞生成装置5は、上記録画装置2に長時間記録された動画データから特定の挙動を示した人が現われる場面を簡単に呼び出せるようにするための人物キーを生成するものである。この栞生成装置5は、録画位置記録部51と、移動軌跡記録部52、栞画像作成部53と、栞データ作成部54と、人物キー作成部55とを有する(図2参照)。
The
録画位置記録部51は、撮像画像1上で認識される個々の人が写されている動画データの録画位置を記録する。録画位置は、例えば、撮像画像1中にある人が初めて現われた時点の画像フレーム番号(開始フレーム)と、当該人物が撮像画像1外に出て消失した時点の1つ前の画像フレーム番号(終了フレーム)とで構成される(図11参照)。なお、この録画位置は、上記の画像フレーム番号に限らず、録画時間で構成することもできる。また、録画位置は、開始フレームだけで構成してもよい。
The recording
移動軌跡記録部52は、上記画像処理装置3で追跡した当該人の仮想重心点Gの移動軌跡を示す追跡線を記録する。すなわち、この移動軌跡記録部52は、撮像画像1において一人ひとり個別に、人物画像hの仮想重心点Gが撮像画像1内に現われてから撮像画像1外に消えるまでの移動軌跡を当該人物画像hの追跡線として記録する。
The movement
栞画像作成部53は、上記画像処理装置3で撮像画像1上に人が認識されると当該人の代表画像を抽出し、当該代表画像に上記移動軌跡記録部52に記録された追跡線を合成した当該人の栞画像を作成する。この栞画像作成部53は、当該人の顔が明瞭に写る位置で撮像された撮像画像1から代表画像を抽出し栞画像を作成するが、このとき、代表画像抽出位置は、撮像画像1上に任意に設定することができる。例えば、図1のATM室S内を監視する場合、ATM室Sの出入口の扉Tから少し入ったところの位置が当該人の顔が比較的明瞭に写される。従って、この場合、ATM室Sの出入口から少し入ったところに代表画像抽出ラインLを設定し、このラインLを最初に通過した瞬間の画像フレーム(撮像画像1)を代表画像として抽出し、当該人の栞画像を作成する(図1、図11参照)。
When a person is recognized on the captured
栞データ作成部54は、上記挙動判定装置4で挙動判定された結果から当該人の挙動を示す栞データを作成する。この栞データは、特定の挙動を示した人を検索するための人の挙動別に分類された項目であり、各項目は、上記挙動判定基準41に設定される人の挙動の各項目と対応している。従って、この栞データの項目としては、例えば、(1)移動順序(当該人の複数の異なる計測領域A間の移動があったか)、(2)共連れ(当該人が計測領域A内を2人で並行して移動していたか)、(3)移動速度(当該人の計測領域A内での平均速度)、(4)停止時間(当該人が計測領域A内で停止していた時間)、(5)滞在時間(当該人が計測領域A内に滞在していた時間)、及び(6)滞在人数(当該人を含めて計測領域A内に同時に存在していた人数)等である(図7参照)。
The heel
人物キー作成部55は、上記の当該人による栞画像と栞データと録画位置とを関連付ける人物キーを作成し、この人物キーを栞記憶部50に記憶させるものである。この人物キーとしては、例えば、図8に示すような表形式のデータとすることができ、個人毎に人物ナンバー(図8中の「人物NO.」)が設定されて、この人物ナンバーによって当該人の栞画像、栞データ、録画位置が関連付けられている。
The person
栞記憶部50は、上述のとおり、栞生成装置5で作成された人物キーを記憶するものである。この栞記憶部50に記憶された人物キーは、この人物キーを作成する基となった動画データとの関連付けがなされている。
As described above, the
再生制御装置6は、上記録画装置2に長時間記録された動画データを、上記人物キーを参照して特定の挙動を示した人が現われる場面からジャンプ再生させるようにするものである。この再生制御装置6は、検索部61と、表示編集部62とを有する(図2参照)。
検索部61は、上記人物キーの栞データを検索キーとして検索させて上記栞記憶部50から当該人物キーと関連付けられた栞画像を呼び出し、当該栞画像を表示装置8に一覧表示させる。
表示編集部62は、上記一覧表示された栞画像の選択により上記録画装置2によって記録された動画データを当該栞画像と関連付けられた録画位置から上記表示装置8に再生させる。すなわち、栞画像が選択されると、この栞画像と関連付けられた動画位置が示す開始フレームから動画データがジャンプ再生され、そして、この動画位置が示す終了フレームで上記再生が停止される。これにより、選択された栞画像の人が現われる場面に対して、上記動画データの再生が表示装置8において行われる。
The
The
The
表示装置8は、既知のモニター装置が使用され、カメラ9で撮像されている撮像画像1を表示させたり、上記栞画像を一覧表示させたり、上記動画データを再生表示させたりするものである。
The
次に、上記人物行動検索装置Xの動作を説明する。
まず、操作手段7によって、画像処理装置3に対してカメラ9で撮像する撮像画像1上に計測領域Aを設定すると共に、挙動判定装置4に対して挙動判定基準41を設定する。計測領域Aとしては、図1に示すように、ATM機100を操作している利用者が完全に包囲されるように、ATM機100の前面位置の一定範囲を四角形状に囲むように設定される。挙動判定基準41としては、上述した(1)移動順序、(2)共連れ、(3)移動速度、(4)停止時間、(5)滞在時間、及び(6)滞在人数の各項目が設定される。また、操作手段7によって、撮像画像1上の所定位置に代表画像抽出ラインLを引いて、カメラ9で撮像される一人ひとりの代表画像を抽出する位置を設定する。以上の設定が完了すると、ATM機100の利用者の行動分析のために、撮像画像1の録画とともに個人毎に人物キーが作成される。
Next, the operation of the person behavior search device X will be described.
First, the measurement unit A is set on the captured
人物キーを作成するときの動作は、図6に示した手順によって行われる。
すなわち、図6を参照して、カメラ9から撮像画像1が画像処理装置3に連続的に入力されると(S1)、録画装置2によって画像記録部21に動画データとして録画される一方、画像処理装置3では、撮像画像1内に人が存在するか人認識を行う。人の存在が認識されると、その画像フレーム番号を当該人が初めて撮像画像1中に現われた時点を示す開始フレームとして記録される(S2)。すなわち、図11に示すように、撮像画像1上に初めて人が認識されると、そのときの画像フレーム番号が録画されている動画データにおいて当該人が現われる録画位置を示す開始フレームとなる。
The operation for creating the person key is performed according to the procedure shown in FIG.
That is, referring to FIG. 6, when the captured
引き続き、撮像画像1中に認識された当該人を仮想重心点Gとして捉え、連続的に入力される撮像画像1上で当該仮想重心点Gが経時的に追跡される(S3)。なお、上記人認識や仮想重心点Gの追跡は、上述したベクトル焦点法による画像処理技術が用いられる(図3〜図5を参照)。そして、追跡した当該人の仮想重心点Gが代表画像抽出ラインLを通過すると、そのときの撮像画像1(画像フレーム)が当該人の代表画像として抽出される(S4)。すなわち、出入口の扉TからATM室S内に少し入ったところで写された撮像画像1が当該人物の代表画像となる。
Subsequently, the person recognized in the captured
そして、追跡した当該人の仮想重心点Gが計測領域Aに進入すると、その仮想重心点Gが計測領域Aに進入してから計測領域A外へ退出するまでの間の当該人の行動情報が上記画像処理装置3の行動計測手段32によって取得される(S5)。すなわち、実空間の人がATM機100を操作している間の位置、速度、時間が取得される。 When the tracked virtual centroid G of the person enters the measurement area A, the behavior information of the person from when the virtual centroid G enters the measurement area A and exits the measurement area A is obtained. Acquired by the behavior measuring means 32 of the image processing apparatus 3 (S5). That is, the position, speed, and time while a person in real space is operating the ATM machine 100 are acquired.
ここで取得された人の行動情報は、挙動判別基準に基づいて挙動判定され(S6)、その挙動判定結果から栞データが作成される(S7)(図11をも参照)。すなわち、上述したとおり、(1)移動順序、(2)共連れ、(3)移動速度、(4)停止時間、(5)滞在時間、及び(6)滞在人数の各挙動が判定され、その結果を栞データとして作成する(図7をも参照)。 The behavior information of the person acquired here is determined based on behavior determination criteria (S6), and wrinkle data is created from the behavior determination result (S7) (see also FIG. 11). That is, as described above, the behaviors of (1) movement order, (2) companion, (3) movement speed, (4) stop time, (5) stay time, and (6) number of staying people are determined, The result is created as bag data (see also FIG. 7).
次いで、仮想重心点Gが撮像画像1から消失した時点で、その画像フレームの1つ前の画像フレーム番号を当該人が監視領域SであるATM室Sから退室した時点を示す終了フレームとして記録される(S8)。すなわち、図11に示すように、撮像画像1上から当該人が消失すると、そのときの画像フレーム番号の1つ前の画像フレーム番号を録画されている動画データにおいて当該人が消失する直前の録画位置を示す終了フレームとする。この終了フレームと上記開始フレームとをペアにして当該人が撮像画像1中に写されている録画位置として記録される。
Next, when the virtual barycentric point G disappears from the captured
移動軌跡記録部52は、撮像画像1において一人ひとり個別に、人物画像hの仮想重心点Gが撮像画像1内に現われてから撮像画像1外に消えるまでの移動軌跡を当該人物画像hの追跡線として記録する。栞画像作成部53は、上記代表画像抽出ラインLの通過時に抽出した当該人の代表画像に上記移動軌跡記録部52に記録された追跡線を合成した当該人の栞画像を作成する(S9)。
The movement
そして、人物キー作成部55によって、図8に示すような上記の当該人による栞画像と栞データと録画位置とを互いに関連付けた人物キーが作成され、この人物キーが栞記憶部50に記憶される(S10)。
Then, the person key creating
以上の動作によってカメラ9から順次送られてくる撮像画像1を連続的に処理して動画データとして記録する一方、その撮像画像1中に写されている当該人の画像(栞画像)や行動(栞データ)を示すとともに当該人が現われる動画データの位置(録画位置)を示す人物キーが作成され、記録される。
The captured
次に、上記人物キーを用いて動画データを再生するときの動作は、図9に示した手順によって行われる。
すなわち、図9を参照して、上記人物キーの栞データを検索キーとして検索すると(S20)、当該人物キーと関連付けられた全ての栞画像が上記栞記憶部50から呼び出され表示装置8に一覧表示される(S21)。この一覧表示は、例えば、図10に示すように、栞画像(追跡線付きの人物代表画像)をサムネイル表示することができる。
Next, the operation for reproducing moving image data using the person key is performed according to the procedure shown in FIG.
That is, referring to FIG. 9, when the heel data of the person key is searched as a search key (S 20), all the heel images associated with the person key are called from the
そして、上記一覧表示された栞画像のうち所望の栞画像を選択すると(S22)、上記録画装置2によって記録された動画データが当該栞画像と関連付けられた録画位置から上記表示装置8に再生される(S23)。すなわち栞画像が選択されると、この栞画像と関連付けられた動画位置が示す開始フレームから動画データがジャンプ再生され、そして、この動画位置が示す終了フレームで上記再生が停止される(図11参照)。これにより、選択された栞画像の人が現われる場面に対して、上記動画データの再生が表示装置8において行われる。
When a desired cocoon image is selected from the list-displayed cocoon images (S22), the moving image data recorded by the
以上のように、本実施の形態による人物行動検索装置Xによれば、特定の挙動を示す人が録画されている動画データの位置を容易に検索し、その人が現われる場面からの再生を簡易に且つ素早く行うことができる。このように、人物キーを作成しておくことで、長時間記録された動画データから特定の挙動を示した人が現われる場面を簡単に再生させることができ、その結果、録画装置2に録画された動画データに基づいて人の行動を分析するのに要する作業負担を大幅に軽減することができる。 As described above, according to the human behavior search apparatus X according to the present embodiment, the position of moving image data in which a person exhibiting a specific behavior is recorded can be easily searched, and playback from a scene where the person appears can be easily performed. And can be done quickly. In this way, by creating a person key, it is possible to easily reproduce a scene in which a person who shows a specific behavior appears from moving image data recorded for a long time. Therefore, it is possible to greatly reduce the work load required to analyze human behavior based on the moving image data.
なお、本発明は、上記実施の形態のみに限定されず、各種の設計変更を施すことが可能である。
例えば、上記実施の形態では、カメラ9からの撮像画像1を画像処理装置3に入力し栞生成装置5によって人物キーを作成するようにしたが、録画装置2によって既に録画された動画データ(撮像画像1)を画像処理装置3に入力して、上記同様に、栞生成装置5によって人物キーを作成するようにしてもよい。
The present invention is not limited to the above embodiment, and various design changes can be made.
For example, in the above-described embodiment, the captured
また、上記録画装置2は、上記画像処理装置3の指令に基づいて、撮像画像1中に人が現われた時点から録画を開始し、当該人が撮像画像1外に出た時点で録画を停止させる構成としてもよい。この場合、動画データを記録する画像記録部21の記憶容量を低減することができる。
The
また、上記栞画像は、1つ画像フレームから抽出した静止画であるが、連続した複数枚の画像フレームを抽出しこれを動画表示可能な栞画像としてもよい。この場合、例えば、上記した代表画像抽出ラインLを通過したときから所定フレーム数の撮像画像1を抽出して動画を作成するようにしてもよい。
In addition, although the above-described haze image is a still image extracted from one image frame, a plurality of continuous image frames may be extracted and used as a haze image that can be displayed as a moving image. In this case, for example, a moving image may be created by extracting a predetermined number of captured
また、録画位置は、開始フレームだけを記録し、栞画像を選択することでの動画データの再生をこの開始フレームからのジャンプ再生のみ行い停止は行わないようにし、操作者の意思で再生停止させるようにしてもよい。 In addition, only the start frame is recorded at the recording position, and the playback of the video data by selecting the 栞 image is performed only by jump playback from this start frame, and is not stopped, and the playback is stopped by the operator's intention. You may do it.
また、本発明に係る人物行動検索装置Xは、ATM室Sに限らず、コンビニエンスストア、デパート、マンション、住宅等のあらゆる監視場所における人の行動観察に適用することができる。 Moreover, the human behavior search device X according to the present invention is not limited to the ATM room S, but can be applied to human behavior observation in any monitoring place such as a convenience store, a department store, a condominium, and a house.
また、録画装置2、操作手段7、画像処理装置3、挙動判定装置4、栞生成装置5、栞記憶部50、再生制御装置6、表示装置8は、それぞれ独立の専用ユニットで構成されてもよいし、また、これらの全部又は一部が一台のパーソナルコンピュータ等の汎用コンピュータによって構成されてもよい。
In addition, the
1 撮像画像
2 録画装置
3 画像処理装置
4 挙動判定装置
5 栞生成装置
6 再生制御装置
7 操作手段
8 表示装置
9 カメラ(撮像装置)
21 画像記録部
31 人認識手段
32 行動計測手段
41 挙動判定基準
50 栞記憶部
51 録画位置記録部
52 移動軌跡記録部
53 栞画像作成部
55 人物キー作成部
54 栞データ作成部
61 検索部
62 表示編集部
100 ATM機
A 計測領域
G 仮想重心点
h 人物画像
L 代表画像抽出ライン
S ATM室(監視領域)
DESCRIPTION OF
21
Claims (3)
撮像装置により撮像される監視領域の撮像画像を動画データとして画像記録部に録画させる録画装置と、
上記撮像装置又は上記画像記録部から連続的に送られる撮像画像上で個々の人を認識して当該人の仮想重心点の移動を追跡し、上記監視領域の特定場所での人の行動を把握するために撮像画像上の一定範囲内に予め設定された計測領域において撮像画像上に現われた人の仮想重心点が撮像画像上に予め設定された計測領域内に進入してから計測領域外へ退出するまでの当該人の行動情報を取得する画像処理装置と、
上記画像処理装置で取得した当該人の行動情報より、所定の挙動判定基準に基づいて当該人の挙動を判定する挙動判定装置と、
上記挙動判定装置で挙動判定された結果から当該人の挙動を示す栞データを作成する栞データ作成部と、
上記画像処理装置で追跡した当該人の仮想重心点の移動軌跡を示す追跡線を記録する移動軌跡記録部と、
上記撮像画像上において監視領域内の人が通過する位置に代表画像抽出ラインを予め設定し、上記画像処理装置での撮像画像の中から撮像画像上に現われた人の仮想重心点が上記代表画像抽出ラインを最初に通過したときの撮像画像を当該人の顔が明瞭に写った代表画像として抽出し、当該代表画像に上記移動軌跡記録部に記録された追跡線を合成した当該人の栞画像を作成する栞画像作成部と、
当該人が認識されている動画データの録画位置を記録する録画位置記録部と、
上記の当該人による栞画像と栞データと録画位置とを関連付ける人物キーを作成し、これを栞記憶部に記憶させる人物キー作成部と、
上記人物キーの栞データを検索させて上記栞記憶部から当該栞データと関連付けられた栞画像を呼び出し、当該栞画像を表示装置に一覧表示させる検索部と、
上記一覧表示された栞画像の選択により上記録画装置によって記録された動画データを当該栞画像と関連付けられた録画位置から上記表示装置に再生させる表示編集部とを備え、
上記栞データは、
(1)当該人の複数の異なる計測領域間の移動があるかを示す移動順序、
(2)当該人の計測領域内での平均速度を示す移動速度、
(3)当該人が計測領域内で停止していた時間を示す停止時間、及び
(4)当該人が計測領域内に滞在していた時間を示す滞在時間
の各項目(1)(2)(3)(4)のすべての組み合わせによって構成される人物行動検索装置。 A human behavior search apparatus for monitoring and recording video data of a person to search for a person who exhibits a predetermined behavior and to reproduce it from a scene where the person appears,
A recording device that causes the image recording unit to record the captured image of the monitoring area captured by the imaging device as moving image data;
Recognize each person on the captured images continuously sent from the imaging device or the image recording unit, track the movement of the virtual center of gravity of the person, and grasp the behavior of the person at a specific location in the monitoring area. In order to do so, the virtual center of gravity of the person appearing on the captured image in the measurement area preset within a certain range on the captured image enters the measurement area preset on the captured image and then moves outside the measurement area. An image processing device for acquiring the behavior information of the person until leaving,
From the behavior information of the person acquired by the image processing device, a behavior determination device that determines the behavior of the person based on a predetermined behavior determination criterion;
栞 data creation unit for creating 栞 data indicating the behavior of the person from the result of behavior determination by the behavior determination device,
A movement trajectory recording unit that records a tracking line indicating the movement trajectory of the virtual center of gravity of the person tracked by the image processing device;
Preset representative image extraction line at a position passing through the person in the monitoring area on the captured image, the virtual center of gravity is the representative image of the person appearing on the captured image from the captured image by the image processing apparatus The captured image when passing through the extraction line for the first time is extracted as a representative image in which the person's face is clearly shown, and the person's eyelid image obtained by combining the representative image with the tracking line recorded in the moving locus recording unit.栞 Image creation part to create
A recording position recording unit for recording the recording position of the moving image data in which the person is recognized;
A person key creating unit for associating the above-mentioned 栞 image, 栞 data and recording position by the person, and storing the person key in the 栞 storage unit;
A search unit for searching for the heel data of the person key, calling the heel image associated with the heel data from the heel storage unit, and displaying the list of the heel images on a display device;
A display editing section for causing the display device to reproduce the moving image data recorded by the recording device by selecting the thumbnail image displayed in the list from the recording position associated with the thumbnail image;
The above data is
(1) movement order indicating whether there is movement between the different measurement areas of the person,
(2) Movement speed indicating the average speed of the person in the measurement area,
(3) Stop time indicating the time the person was stopped in the measurement area, and
(4) A person behavior search device configured by all combinations of the items (1), (2), (3), and (4) of the stay time indicating the time during which the person stayed in the measurement area.
上記栞データは、さらに、
(5)当該人が計測領域内を2人で並行して移動していたかを示す共連れ、及び
(6)当該人を含めて計測領域内に同時に存在していた人数を示す滞在人数
の各項目(5)(6)のうちの1つ又はこれら項目(5)(6)のすべてを備える人物行動検索装置。 In the human action search device according to claim 1,
The above heel data
(5) A companion showing whether the person was moving in parallel within the measurement area, and
(6) A person who has one of the items (5) and (6) or all of these items (5) and (6) indicating the number of people who were present in the measurement area at the same time, including that person. Behavior search device.
上記画像処理装置は、上記撮像画像において等間隔に配置する処理点ごとにその処理点を中心点とする円の円周上での各画素のピクセル値に対し基本波フーリエ変換を実行し、得られた位相より処理点ごとに人物画像の概略的な輪郭を法線ベクトルで認識し、当該法線ベクトルを基にその人物画像を上記仮想重心点として捉えるとともに、当該仮想重心点を経時的に追跡する人認識手段を含む人物行動検索装置。 In the human action search device according to claim 1 or 2,
The image processing apparatus performs a fundamental wave Fourier transform on pixel values of each pixel on the circumference of a circle having the processing point as a center point for each processing point arranged at equal intervals in the captured image. The outline of the person image is recognized by a normal vector for each processing point from the obtained phase, and the person image is recognized as the virtual centroid point based on the normal vector, and the virtual centroid point is determined over time. A human behavior search device including a human recognition means for tracking.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007243307A JP4996404B2 (en) | 2007-09-20 | 2007-09-20 | Human behavior search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007243307A JP4996404B2 (en) | 2007-09-20 | 2007-09-20 | Human behavior search device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009075802A JP2009075802A (en) | 2009-04-09 |
JP4996404B2 true JP4996404B2 (en) | 2012-08-08 |
Family
ID=40610714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007243307A Active JP4996404B2 (en) | 2007-09-20 | 2007-09-20 | Human behavior search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4996404B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966090A (en) * | 2015-07-21 | 2015-10-07 | 公安部第三研究所 | Visual word generation and evaluation system and method for realizing image comprehension |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4944818B2 (en) * | 2008-02-28 | 2012-06-06 | 綜合警備保障株式会社 | Search device and search method |
US9293060B2 (en) | 2010-05-06 | 2016-03-22 | Ai Cure Technologies Llc | Apparatus and method for recognition of patient activities when obtaining protocol adherence data |
US9875666B2 (en) | 2010-05-06 | 2018-01-23 | Aic Innovations Group, Inc. | Apparatus and method for recognition of patient activities |
US9883786B2 (en) | 2010-05-06 | 2018-02-06 | Aic Innovations Group, Inc. | Method and apparatus for recognition of inhaler actuation |
MY167470A (en) * | 2011-03-28 | 2018-08-29 | Nec Corp | Person Tracking Device, Person Tracking Method, and Non-Transitory Computer Readable Medium Storing Person Tracking Program |
JP5354401B2 (en) * | 2011-09-06 | 2013-11-27 | カシオ計算機株式会社 | Movie playback device, movie playback method and program |
JP6286020B2 (en) * | 2013-03-14 | 2018-02-28 | エイ・アイ・キュア・テクノロジーズ・インコーポレイテッドAi Cure Technologies, Inc. | Apparatus and method for recognition of suspicious behavior |
JP6027070B2 (en) | 2014-09-24 | 2016-11-16 | 富士フイルム株式会社 | Area detection apparatus, area detection method, image processing apparatus, image processing method, program, and recording medium |
CN104881651B (en) * | 2015-05-29 | 2017-12-15 | 南京信息工程大学 | A kind of personage's Activity recognition method based on accidental projection and Fisher vector |
JP6772609B2 (en) * | 2015-09-25 | 2020-10-21 | ソニー株式会社 | Representative image generator, representative image generation method and program |
JP6548306B2 (en) * | 2016-02-23 | 2019-07-24 | Kddi株式会社 | Image analysis apparatus, program and method for tracking a person appearing in a captured image of a camera |
CN115331174B (en) * | 2022-08-19 | 2023-06-13 | 中国安全生产科学研究院 | Enterprise safety production standardized intelligent supervision system and method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04340178A (en) * | 1991-03-11 | 1992-11-26 | Mitsubishi Electric Corp | Intrusion monitoring device |
JP3489491B2 (en) * | 1999-06-24 | 2004-01-19 | 日本電気株式会社 | PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM |
JP3406587B2 (en) * | 2000-08-30 | 2003-05-12 | 技研トラステム株式会社 | Object image identification method |
JP2002344946A (en) * | 2001-05-16 | 2002-11-29 | Oki Electric Ind Co Ltd | Monitoring system |
JP2003022309A (en) * | 2001-07-06 | 2003-01-24 | Hitachi Ltd | Device for managing facility on basis of flow line |
JP2005148863A (en) * | 2003-11-11 | 2005-06-09 | Konica Minolta Holdings Inc | Number of person counting system |
JP4168940B2 (en) * | 2004-01-26 | 2008-10-22 | 三菱電機株式会社 | Video display system |
JP2007087150A (en) * | 2005-09-22 | 2007-04-05 | Matsushita Electric Ind Co Ltd | Image reproduction method, machine, and program |
-
2007
- 2007-09-20 JP JP2007243307A patent/JP4996404B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966090A (en) * | 2015-07-21 | 2015-10-07 | 公安部第三研究所 | Visual word generation and evaluation system and method for realizing image comprehension |
CN104966090B (en) * | 2015-07-21 | 2018-08-14 | 公安部第三研究所 | Realize the system and method that the vision word towards image understanding is generated and evaluated |
Also Published As
Publication number | Publication date |
---|---|
JP2009075802A (en) | 2009-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4996404B2 (en) | Human behavior search device | |
CN108292364B (en) | Tracking objects of interest in omnidirectional video | |
JP4939968B2 (en) | Surveillance image processing method, surveillance system, and surveillance image processing program | |
JP4760892B2 (en) | Display control apparatus, display control method, and program | |
JP4168940B2 (en) | Video display system | |
US7881505B2 (en) | Video retrieval system for human face content | |
JP6148480B2 (en) | Image processing apparatus and image processing method | |
JP5106271B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP4797761B2 (en) | Movie display device | |
US20020175997A1 (en) | Surveillance recording device and method | |
US10037467B2 (en) | Information processing system | |
KR101484844B1 (en) | Apparatus and method for privacy masking tool that provides real-time video | |
KR101960667B1 (en) | Suspect Tracking Apparatus and Method In Stored Images | |
WO2013069605A1 (en) | Similar image search system | |
JP2003046911A (en) | Monitoring recording system and method therefor | |
KR20180022568A (en) | Information processing apparatus, method thereof, and computer readable storage medium | |
JP6292540B2 (en) | Information processing system, information processing method, and program | |
US10146870B2 (en) | Video playback method and surveillance system using the same | |
JPH07200632A (en) | Information processor | |
JP6214762B2 (en) | Image search system, search screen display method | |
US9767564B2 (en) | Monitoring of object impressions and viewing patterns | |
JP5826513B2 (en) | Similar image search system | |
JP2006163527A (en) | Image retrieval device and method | |
JP4492124B2 (en) | Writing analysis apparatus, method, and program | |
JP4334898B2 (en) | Database construction device, database construction program, image retrieval device, image retrieval program, and image recording / reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120406 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120511 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4996404 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |