JP2012235300A - Leaving or carrying-away detection system and method for generating leaving or carrying-away detection record - Google Patents

Leaving or carrying-away detection system and method for generating leaving or carrying-away detection record Download PDF

Info

Publication number
JP2012235300A
JP2012235300A JP2011102218A JP2011102218A JP2012235300A JP 2012235300 A JP2012235300 A JP 2012235300A JP 2011102218 A JP2011102218 A JP 2011102218A JP 2011102218 A JP2011102218 A JP 2011102218A JP 2012235300 A JP2012235300 A JP 2012235300A
Authority
JP
Japan
Prior art keywords
leaving
image
log data
person
away
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011102218A
Other languages
Japanese (ja)
Other versions
JP5691807B2 (en
Inventor
靖正 ▲高▼橋
Yasumasa Takahashi
Kei Kokuzen
慶 谷全
Noriyuki Mochizuki
規之 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saxa Inc
Original Assignee
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saxa Inc filed Critical Saxa Inc
Priority to JP2011102218A priority Critical patent/JP5691807B2/en
Publication of JP2012235300A publication Critical patent/JP2012235300A/en
Application granted granted Critical
Publication of JP5691807B2 publication Critical patent/JP5691807B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To speedily provide reference information for specifying a person performing leaving or carrying-away in a leaving or carrying-away detection system.SOLUTION: The leaving or carrying-away detection system includes: a camera 20 imaging a monitoring area; a data storage medium 34 storing an imaged image; a leaving/carrying-away determining section 52; an occurrence time operating section 54 operating occurrence time of leaving or carrying-away; an image acquirement processing section 42 acquiring the imaged image of the monitored area imaged at occurrence time from the data storage medium 34; a peripheral person extracting section 43 extracting an image of a peripheral person within a prescribed distance range from a foreign matter being an object of leaving or carrying-away from the acquired imaged image; and a log data creating section 45 creating leaving log data or carrying-away log data, which include the image of the foreign matter being the object of leaving or carrying-away and the image of the peripheral person.

Description

本発明は、置き去り又は持ち去り検知システム及び置き去り又は持ち去り検知記録の生成方法に関し、特に、監視エリア内で発生する置き去り又は持ち去りを検知すると共に、その行為者を特定するための参考情報を提供する置き去り又は持ち去り検知システム及び置き去り又は持ち去り検知記録の生成方法に関する。   The present invention relates to a leaving or removal detection system and a method of generating a leaving or removal detection record, in particular, to detect a leaving or removal occurring in a monitoring area and to provide reference information for identifying the actor. The present invention relates to a leaving / taking-off detection system and a method for generating a leaving / taking-off detection record.

従来より、置き去り物等のない監視エリアの画像(背景画像)を撮像装置により予め取得しておき、現在の監視エリアの画像(監視画像)と上記背景画像との輝度の差分画像から、監視エリア内における物体の置き去りや持ち去りを検知する置き去り又は持ち去り検知システムが知られている。   Conventionally, an image (background image) of a monitoring area without a leftover or the like is acquired in advance by an imaging device, and the monitoring area is calculated from a difference image of luminance between the current monitoring area image (monitoring image) and the background image. A leaving or removal detecting system for detecting the leaving or removal of an object in the inside is known.

上記従来の置き去り又は持ち去り検知システムの一例として、監視画像において放置物体の一部が他の物体により見えなくなった場合にも、監視画像に写っている当該放置物体の部分画像からその放置物体の存在を検知し、所定時間経過後に、その放置物体を置き去り物として表示画面上に強調表示する映像監視装置が知られている(特許文献1参照)。   As an example of the above-mentioned conventional leaving or taking away detection system, even when a part of an object left in the monitoring image becomes invisible by another object, the image of the object left from the partial image of the object left in the monitoring image is displayed. There is known a video monitoring device that detects the presence and highlights a left object on a display screen as a leftover object after a predetermined time has elapsed (see Patent Document 1).

また、上記従来の置き去り又は持ち去り検知システムの他の例として、監視エリア内に異物が出現してから、当該異物を置き去り物として検知するまでの所定時間が経過するまでに撮影された各監視画像に基づき、当該置き去り物と重なったすべての人物の画像を当該置き去りの行為者候補として表示すると共に、各行為者候補が当該置き去り物を所持していた可能性を、置き去り物の画像と各行為者候補の画像との一致度(部分一致の程度)により表示する置き去り監視装置も知られている(特許文献2参照)。   In addition, as another example of the above-mentioned conventional leaving or taking away detection system, each monitoring imaged until a predetermined time elapses after a foreign object appears in the monitoring area until the foreign object is detected as a leaving object. Based on the image, the images of all the persons who overlap the left-behind are displayed as candidate actors for the left-off, and the possibility that each candidate for the actor has the left-behind will be displayed. A leave monitoring apparatus that displays the degree of coincidence (partial coincidence) with an actor candidate image is also known (see Patent Document 2).

しかしながら、特許文献1に記載された映像監視装置にあっては、置き去さられ又は持ち去られた物体の画像やその位置は特定できるが、当該置き去り又は持ち去りの行為者の特定につながる情報を得ることはできない。また、特許文献2に記載された置き去り監視装置にあっては、置き去り行為者についての情報を得ることはできるものの、異物の出現から当該異物を置き去り物として検知するまでの間に撮影された、全ての監視画像を対象として画像処理を行わなければならず、画像処理量が膨大となる。このため、画像処理量を低減し、行為者候補等についての情報をユーザに対しより迅速に提供することが課題となっている。   However, in the video surveillance device described in Patent Document 1, the image of an object that has been left or taken away and the position thereof can be specified, but information that leads to the identification of the actor who has left or taken away is included. I can't get it. Moreover, in the leaving monitoring device described in Patent Document 2, although it is possible to obtain information about the leaving agent, was taken from the appearance of the foreign object until the foreign object is detected as a left object, Image processing must be performed for all monitoring images, and the amount of image processing is enormous. For this reason, it is a problem to reduce the amount of image processing and to provide information about a candidate for an actor etc. to a user more quickly.

特開2008−104130号公報JP 2008-104130 A 特開2011−49646号公報JP 2011-49646 A

本発明は、上記従来の問題に鑑みなされたものであって、その目的は、置き去り又は持ち去り検知を行う際の画像処理量を低減し、行為者特定のための参考情報を迅速に提供することである。   The present invention has been made in view of the above-described conventional problems, and its object is to reduce the amount of image processing when performing leaving or removal detection, and to quickly provide reference information for identifying an actor. That is.

本発明は、監視エリアを撮影する撮影手段と、撮影した画像を保存する保存手段と、置き去り又は持ち去り判断部と、置き去り又は持ち去りの発生時刻を演算する発生時刻演算部と、を有し、監視エリアの撮影画像に基づき置き去り又は持ち去りに係る人物を特定するための処理を行う置き去り又は持ち去り検知システムであって、前記保存手段から、前記発生時刻に撮影された監視エリアの撮影画像を取得する画像取得処理部と、前記発生時刻に撮影された監視エリアの撮影画像から、置き去り又は持ち去りの対象である異物から所定の距離範囲内にいる周辺人物の画像を抽出する周辺人物抽出部と、置き去り又は持ち去りの対象である前記異物の画像と前記周辺人物の画像とをそれぞれ含む、置き去りログデータ又は持ち去りログデータを生成するログデータ生成部と、を有する置き去り又は持ち去り検知システムである。
また、本発明は、監視エリアを撮影する撮影手段と、撮影した画像を保存する保存手段と、置き去り又は持ち去り判断部と、置き去り又は持ち去りの発生時刻を演算する発生時刻演算部と、を有し、監視エリアの撮影画像に基づき置き去り又は持ち去りに係る人物を特定するための処理を行う置き去り又は持ち去り検知システムにおける置き去り又は持ち去り検知記録の生成方法であって、前記保存手段から、前記発生時刻に撮影された監視エリアの撮影画像を取得する工程と、前記取得する工程において取得された撮影画像から、置き去り又は持ち去りの対象である異物から所定の距離範囲内にいる周辺人物の画像を抽出する工程と、置き去り又は持ち去りの対象である前記異物の画像と、前記抽出する工程において抽出された前記周辺人物の画像とをそれぞれ含む、置き去りログデータ又は持ち去りログデータを生成する工程と、を有する置き去り又は持ち去り検知記録の生成方法である。
The present invention has a photographing means for photographing the monitoring area, a storage means for saving the photographed image, a leaving or taking away judging section, and a generation time calculating section for calculating the leaving or taking out occurrence time. A leaving or removal detection system that performs processing for identifying a person who is left or removed based on a captured image of the monitoring area, and is a captured image of the monitoring area that is captured from the storage unit at the time of occurrence And an image acquisition processing unit that acquires the image of a surrounding person that is within a predetermined distance range from a foreign object that is a target to be left behind or taken away from the captured image of the monitoring area that was captured at the time of occurrence Leaving log data or leaving log data each including a part, an image of the foreign object to be left or removed, and an image of the surrounding person A log data generation unit to be generated, a desertion or taking away sensing system having a.
In addition, the present invention provides a photographing means for photographing the monitoring area, a storage means for saving the photographed image, a leaving or taking away determination section, and a generation time calculating section for calculating the occurrence time of leaving or taking away. A method for generating a leaving or removal detection record in a removal or removal detection system that performs processing for specifying a person who is left or removed based on a captured image of a monitoring area, from the storage unit, A step of acquiring a photographed image of the monitoring area photographed at the time of occurrence, and from a photographed image obtained in the obtaining step, a surrounding person who is within a predetermined distance range from a foreign object to be left or removed An image extracting step, an image of the foreign object to be left or removed, and the surrounding person extracted in the extracting step Including image and respectively, and generating the left-behind log data or taking away the log data, a desertion or taking away detecting recording method of generating with a.

本発明によれば、置き去り又は持ち去り検知を行う際の画像処理量を低減でき、かつ、当該置き去り又は持ち去りの行為者を特定するための参考情報を、迅速に提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the amount of image processing at the time of performing leaving or a removal detection can be reduced, and the reference information for specifying the actor of the leaving or the removal can be provided quickly.

本発明の一実施形態に係る置き去り又は持ち去り検知システムの構成を示すブロック図である。It is a block diagram which shows the structure of the leaving or taking away detection system which concerns on one Embodiment of this invention. 本実施形態に係る置き去り又は持ち去り検知システムにおける、置き去りログデータ又は持ち去りログデータを生成する処理手順を示すフロー図である。It is a flowchart which shows the process sequence which produces | generates the leaving log data or the take away log data in the leaving or the take away detection system which concerns on this embodiment. 本実施形態に係る置き去り又は持ち去り検知システムにおける、置き去り又は持ち去り発生時刻の監視画像の一例を示す図である。It is a figure which shows an example of the monitoring image of the leaving or carrying out occurrence time in the leaving or taking away detection system which concerns on this embodiment. 本実施形態に係る置き去り又は持ち去り検知システムにおける、置き去りログデータ又は持ち去りログデータの一例を示す図である。It is a figure which shows an example of the leaving log data or the leaving log data in the leaving or taking away detection system which concerns on this embodiment. 本実施形態に係る置き去り又は持ち去り検知システムにおける、置き去りログデータ又は持ち去りログデータを表示する処理手順を示すフロー図である。It is a flowchart which shows the process sequence which displays the leaving log data or the leaving log data in the leaving or the taking away detection system which concerns on this embodiment. 本実施形態に係る置き去り又は持ち去り検知システムにおける、置き去りログデータ又は持ち去りログデータの表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the leaving log data or the leaving log data in the leaving or taking away detection system which concerns on this embodiment.

本発明の置き去り又は持ち去り検知システム(以下、単に本検知システムという)の実施形態について図面を参照して説明する。
図1は、本発明の一実施形態に係る本検知システムの構成を示すブロック図である。
An embodiment of a leaving or leaving detection system (hereinafter simply referred to as the present detection system) of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of the present detection system according to an embodiment of the present invention.

本検知システムは、制御部100と、制御部100の入力側インターフェース(I/F)である入力部16に接続された外部装置である監視エリアを撮影するカメラ20と、制御部100への指示等を入力するためのキーボード等の入力装置22と、制御部100の出力側インターフェース(I/F)である出力部15に接続された外部装置である静止画や動画を表示する表示装置(モニタ)30を有している。   This detection system includes a control unit 100, a camera 20 that captures a monitoring area that is an external device connected to an input unit 16 that is an input side interface (I / F) of the control unit 100, and an instruction to the control unit 100. A display device (monitor) for displaying still images and moving images, which are external devices connected to the input device 22 such as a keyboard for inputting the image and the like, and the output unit 15 that is an output side interface (I / F) of the control unit 100 ) 30.

また、本検知システムは、入力部16を介してカメラ20から取り込んだ監視エリアの映像を、映像フレーム毎に撮影時間を付して保存する、例えばハードディスク(HDD:Hard Disk Drive)などの保存手段を備えたデータ記憶媒体34を有している。ここで、データ記憶媒体34が記憶する監視エリアの映像は、その映像フレームの1枚1枚が、それぞれ、一定時間間隔で撮影された監視エリアの静止画像であり、本実施形態では、これら各映像フレームの画像を監視画像として、画像処理を行う。以下、本実施形態において監視画像というときは、監視エリアを撮影した映像を構成する各映像フレームを言うものとする。   Further, the present detection system stores the video of the monitoring area captured from the camera 20 via the input unit 16 with a shooting time for each video frame, for example, storage means such as a hard disk (HDD: Hard Disk Drive). The data storage medium 34 provided with. Here, the video of the monitoring area stored in the data storage medium 34 is a still image of the monitoring area in which each one of the video frames is taken at regular time intervals. Image processing is performed using the image of the video frame as a monitoring image. Hereinafter, in the present embodiment, the term “monitoring image” refers to each video frame that constitutes a video image of a monitoring area.

制御部100は、CPU(Central Processing Unit)10と、プログラム等が書き込まれたROM(Read Only Memory)(不図示)と、RAM14a、14bとで構成されるコンピュータと、既に述べた入力部16と出力部15と、上記各部を接続するデータバス26と、を備えている。   The control unit 100 includes a CPU (Central Processing Unit) 10, a ROM (Read Only Memory) (not shown) in which programs and the like are written, RAMs 14a and 14b, and the input unit 16 described above. An output unit 15 and a data bus 26 for connecting the above-described units are provided.

RAM14aは、プログラムの実行に必要な各種設定として、周辺人物抽出部43(後述)が、監視画像上において置き去り物又は持ち去り物の周辺人物の画像を抽出する際の、抽出対象範囲(周辺エリア)に関する情報や、関係度合い算出部44(後述)が、各周辺人物と置き去り物又は持ち去り物との係わり合いの程度を示す数値(関係度合い)を算出する際に用いる距離比重、重なり比重、及び人の向き比重等の情報を記憶する。   The RAM 14a has an extraction target range (peripheral area) when the surrounding person extraction unit 43 (described later) extracts an image of a left-behind or left-behind person on the monitoring image as various settings necessary for program execution. ) And the relationship degree calculation unit 44 (described later) uses a distance specific gravity, an overlap specific gravity, and the like to calculate a numerical value (degree of relation) indicating the degree of engagement between each neighboring person and a left-behind object or a left-behind object. And information such as the specific gravity of the person.

RAM14bは、画像を記憶する記憶手段であり、記憶する画像の種類により、入力用エリア、表示用エリア、及び保持用エリアの、3つの記憶領域を持つ。この入力用エリアは、入力部16を介してカメラ20にから取得した監視エリアの画像(監視画像)の一時記憶等を行なう領域である。また、保持用エリアは、背景画像を記憶したり、画像処理の際に、監視画像をデータ記憶媒体34から読み込んで記憶する領域であり、表示用エリアは、モニタ30に表示する表示画像の画像データを記憶する領域である。   The RAM 14b is a storage unit that stores images, and has three storage areas, an input area, a display area, and a holding area, depending on the type of image to be stored. This input area is an area for temporarily storing an image (monitoring image) of the monitoring area acquired from the camera 20 via the input unit 16. The holding area is an area for storing a background image or reading and storing a monitoring image from the data storage medium 34 during image processing. The display area is an image of a display image to be displayed on the monitor 30. An area for storing data.

制御部100は、本検知システム全体を制御すると共に、CPU10がプログラムを実行することによって実現する機能実現手段として、置き去り持ち去り検知部50と、画像取得処理部42と、周辺人物抽出部43と、関係度合い算出部44と、ログデータ作成部45と、ログデータ照合部46を備えている。なお、コンピュータ・プログラムは、コンピュータ読み取り可能な任意の記憶媒体に記憶させておくことができる。   The control unit 100 controls the entire detection system, and as a function realizing unit realized by the CPU 10 executing a program, a left-behind / removal detection unit 50, an image acquisition processing unit 42, a surrounding person extraction unit 43, , A relationship degree calculating unit 44, a log data creating unit 45, and a log data collating unit 46. The computer program can be stored in any computer-readable storage medium.

置き去り持ち去り検知部50は、置き去り持ち去り判断部52と発生時刻演算部54とを備える。
置き去り持ち去り判断部52は、カメラ20から入力された現在の監視画像と背景画像との輝度の差分画像を生成し、生成した差分画像に基づいて監視エリア内における異物の出現又は消失を検知したときに、タイマー(不図示)により時間の計測を開始し、その検知状態が所定時間継続したか否かにより、物体の置き去り又は持ち去りがあったか否かを判断する。
The abandoned / taken away detection unit 50 includes a leftover / takeaway determination unit 52 and an occurrence time calculation unit 54.
The abandonment / removal determination unit 52 generates a luminance difference image between the current monitoring image and the background image input from the camera 20 and detects the appearance or disappearance of a foreign object in the monitoring area based on the generated difference image. Sometimes, time measurement is started by a timer (not shown), and it is determined whether or not an object has been left or removed depending on whether or not the detection state has continued for a predetermined time.

また、発生時刻演算部54は、置き去り持ち去り判断部52が、置き去り又は持ち去りが発生したものと判断したときに、その判断を行った時刻から、上記所定時間を減算して、当該置き去り又は持ち去りの発生時刻(異物の出現又は消失の時刻)を算出する。   The occurrence time calculating unit 54 subtracts the predetermined time from the time when the leaving or taking away determination unit 52 determines that the leaving or taking away has occurred, and the leaving or The time of occurrence of take-away (the time of appearance or disappearance of a foreign object) is calculated.

画像取得処理部42は、発生時刻演算部54が算出した置き去り又は持ち去りの発生時刻における監視画像、又は、当該発生時刻に算出誤差を含むときは当該発生時刻を挟む一定時間内(例えば、上記算出誤差内)に連続して撮影された所定数の監視画像を、データ記憶媒体34から読み出して、RAM14bの保持用エリアに記憶する。ここで、上記所定数は、発生時刻演算部54が算出する置き去り又は持ち去りの発生時刻の算出誤差に応じて、数枚程度とすることができる。   The image acquisition processing unit 42 is a monitoring image at the occurrence time of leaving or taking away calculated by the occurrence time calculation unit 54, or within a certain time between the occurrence times when the occurrence time includes a calculation error (for example, A predetermined number of monitoring images taken continuously (within the calculation error) are read from the data storage medium 34 and stored in the holding area of the RAM 14b. Here, the predetermined number can be about several sheets according to the calculation error of the generation time of the leaving or taking away calculated by the generation time calculation unit 54.

なお、上記所定数の監視画像は、例えば、データ記憶媒体34として所定時間分の映像を連続して録画する映像録画サーバを用い、録画された映像の中から指定した時刻以降の映像を指定した時間分だけ抽出する、いわゆる「さかのぼり録画機能」を利用して取得することもできる。
また、本実施形態のように、データ記憶媒体34に記憶された監視画像をRAM14bの保持用エリアに読み出すのではなく、置き去り持ち去り判断部52が異物を検知して上記タイマーの時間計測を開始した時に、カメラ20が撮影した映像の保存先を、データ記憶媒体34からRAM14bに切り換え、RAM14bの保持用エリアに直接記憶させることもできる。
For the predetermined number of monitoring images, for example, a video recording server that continuously records video for a predetermined time is used as the data storage medium 34, and video after a specified time is specified from the recorded video. It can also be obtained by using a so-called “retro recording function” that extracts only the time.
Also, instead of reading the monitoring image stored in the data storage medium 34 to the holding area of the RAM 14b as in the present embodiment, the leaving / determining determination unit 52 detects a foreign object and starts measuring the time of the timer. In this case, the storage destination of the video imaged by the camera 20 can be switched from the data storage medium 34 to the RAM 14b and directly stored in the holding area of the RAM 14b.

周辺人物抽出部43は、RAM14bの保持用エリアに記憶した置き去り又は持ち去りの発生時刻における監視画像、又は、当該発生時刻を挟む一定時間内に撮影された所定数の監視画像から、置き去り物又は持ち去り物の周辺人物の画像を抽出する。   The surrounding person extraction unit 43 uses a monitoring object stored at the holding area of the RAM 14b or a monitoring image at the time of occurrence of removal or a predetermined number of monitoring images taken within a certain time with the generation time interposed, Extract images of people around your belongings.

ここで、上記発生時刻における監視画像から上記周辺人物の画像を抽出する場合、当該監視画像に置き去り物又は持ち去り物の画像が写っていないときは、当該監視画像の撮影時刻に最も近い時刻の監視画像であって当該置き去り物又は持ち去り物が写っている監視画像を、データ記憶媒体34から読み込んで、上記周辺人物の画像を抽出するものとする。
また、上記所定数の監視画像から周辺人物の画像を抽出するときは、当該フレームのうち、置き去り物が写っている最も過去のフレーム、又は、持ち去り物が写っている最も新しいフレームの映像から、当該置き去り物又は持ち去り物の周辺人物の画像を抽出するものとする。
Here, in the case where the image of the surrounding person is extracted from the monitoring image at the time of occurrence, when the image of the left object or the left object is not reflected in the monitoring image, the time closest to the shooting time of the monitoring image is displayed. It is assumed that a monitoring image which is a monitoring image and shows the left behind or left behind is read from the data storage medium 34 and images of the surrounding persons are extracted.
In addition, when extracting images of surrounding people from the predetermined number of monitoring images, from the frame of the past, the oldest frame in which a leftover is shown, or the video of the newest frame in which a leftover is shown. In addition, an image of a person around the left or left item is extracted.

ところで、周辺人物抽出部43が周辺人物を抽出する範囲(周辺エリア)は、置き去り物又は持ち去り物を中心とした一定の範囲であることが望ましい。
しかしながら、監視画像上では、カメラ20から遠い物体は小さく、近い物体は大きく写ることから、監視画像上における周辺人物の抽出範囲、例えば画素の範囲(画素エリア)を一定とすると、カメラ20から遠い位置の画像(例えば監視画像の上端に近い画像)に対しては周辺エリアが大きく、カメラ20に近い位置の画像(例えば監視画像の下端に近い画像)に対しては周辺エリアが小さくなる。
By the way, it is desirable that the range (peripheral area) in which the peripheral person extraction unit 43 extracts the peripheral person is a certain range centered on the left behind or the left behind.
However, on the monitoring image, an object far from the camera 20 is small and a close object is large, so if the surrounding person extraction range on the monitoring image, for example, a pixel range (pixel area) is constant, the object is far from the camera 20. The peripheral area is large for a position image (for example, an image near the upper end of the monitoring image), and the peripheral area is small for an image near the camera 20 (for example, an image near the lower end of the monitoring image).

このため、本実施形態では、カメラ20から対象物までの距離に応じて、周辺人物を抽出する画素エリアの大きさを定めた周辺エリア情報を作成し、予めRAM14aに記憶させている。
この周辺エリア情報は、例えば、画面下端から置き去り物画像又は持ち去り物画像の中心画素までの画素数に応じ、画面上部へ行くに従って徐々に画素エリアが小さくなるように、当該中心画素を中心とする円形エリアの半径を画素数で表した情報とすることができる。
For this reason, in the present embodiment, peripheral area information in which the size of the pixel area from which the peripheral person is extracted is determined according to the distance from the camera 20 to the object is stored in the RAM 14a in advance.
For example, the peripheral area information is centered on the center pixel so that the pixel area gradually decreases as it goes to the top of the screen according to the number of pixels from the lower end of the screen to the center pixel of the left behind image or the left behind image. The radius of the circular area to be used can be information represented by the number of pixels.

関係度合い算出部44は、周辺人物と置き去り物又は持ち去り物との関わり合いの程度を示す関連度情報を生成する情報生成手段であり、周辺人物抽出部43が抽出した各周辺人物について、上記関連度情報である数値(関係度合い)を、後述する所定の方法により決定する。この関係度合いは、例えば、上記発生時刻における監視画像から、周辺人物と置き去り物又は持ち去り物までの距離L、周辺人物と置き去り物又は持ち去り物との重なり面積S、所定の方向を基準とする周辺人物の向きθを算出し、これらの距離L、面積S、又は向きθから、後記する所定の方法により決定する。   The degree-of-relation calculation unit 44 is an information generation unit that generates relevance information indicating the degree of association between a nearby person and a left-behind object or a left-behind object. A numerical value (relationship degree) as relevance information is determined by a predetermined method described later. The degree of this relationship is based on, for example, the distance L from the monitoring image at the time of occurrence to the surrounding person and the left or left thing, the overlapping area S of the surrounding person and the left or left thing, or a predetermined direction. The direction θ of the surrounding person to be calculated is calculated and determined from the distance L, area S, or direction θ by a predetermined method described later.

なお、本実施形態では、関連度情報を数値(関係度合い)として算出するものとしたが、これに限らず、例えば、上記の距離L、面積S、又は向きθの値に応じて決定されるランク(Aランク、Bランク等)を関連度情報とすることもできる。   In the present embodiment, the relevance information is calculated as a numerical value (relationship degree). However, the present invention is not limited to this. For example, the relevance information is determined according to the distance L, the area S, or the direction θ. The rank (A rank, B rank, etc.) can also be used as the relevance information.

ログデータ作成部45は、置き去り物の画像、置き去り物の周辺人物の画像、及び周辺人物毎の関係度合いを、置き去り物毎に記録した置き去りログデータ、及び、持ち去り物の画像、持ち去り物の周辺人物の画像、及び周辺人物毎の関係度合いを、持ち去り物毎に記録した持ち去りログデータを生成して、データ記憶媒体34に記憶する。   The log data creation unit 45 is a leftover log data in which an image of a leftover object, an image of a person in the vicinity of the leftover object, and a degree of relationship for each of the surrounding persons are recorded for each leftover object, and an image of the leftover object. Taking away log data in which the images of the surrounding persons and the degree of relationship between the surrounding persons are recorded for each thing to be taken is generated and stored in the data storage medium 34.

ログデータ照合部46は、データ記憶媒体34が記憶する置き去りログデータ及び持ち去りログデータに含まれた置き去り物の画像と持ち去り物の画像とを照合し、同一物をそれぞれ置き去り物及び持ち去り物とする置き去りログデータ及び持ち去りログデータを特定する。また、上記特定した置き去りログデータ及び持ち去りログデータにそれぞれ記録されている周辺人物同士を照合し、当該置き去りログデータ及び持ち去りログデータの両方に周辺人物として記録されている同一人物を特定する。   The log data collating unit 46 collates the left log data stored in the data storage medium 34 and the image of the left object included in the removed log data with the image of the left object, and the same object is left behind and removed. The left log data and the left log data are specified. In addition, the neighboring persons recorded in the specified leaving log data and the leaving log data are compared with each other, and the same person recorded as the surrounding person in both the leaving log data and the leaving log data is specified. .

本検知システムは上記の構成を備え、ユーザによる電源投入の後、カメラ20が撮影した監視エリアの映像を、入力部16を介してデータ記憶媒体34に記憶する。
このとき、置き去り持ち去り判断部52は、監視画像毎に背景画像との輝度の差分画像を生成し、当該差分画像に基づいて異物の出現又は消失を検知する。そして、当該検知から所定時間経過後に、当該異物について置き去り又は持ち去りが発生したものと判断する。
This detection system has the above-described configuration, and stores the video of the monitoring area captured by the camera 20 in the data storage medium 34 via the input unit 16 after the user turns on the power.
At this time, the abandonment / removal determination unit 52 generates a luminance difference image with respect to the background image for each monitoring image, and detects the appearance or disappearance of a foreign object based on the difference image. Then, after a predetermined time has elapsed from the detection, it is determined that the foreign object has been left or taken away.

次に、発生時刻演算部54は、その置き去り又は持ち去りの発生時刻(異物の出現又は消失を検知した時刻をいう)を算出し、画像取得処理部42は、当該発生時刻における監視画像又は当該発生時刻を挟む一定時間内(例えば、発生時刻の算出誤差内)に連続して撮影された数枚の監視画像を、データ記憶媒体34から読み出して、RAM14bの保持用エリアに記憶する。   Next, the occurrence time calculation unit 54 calculates the occurrence time of the leaving or taking away (refers to the time when the appearance or disappearance of a foreign object is detected), and the image acquisition processing unit 42 Several monitoring images taken continuously within a certain time (for example, within the generation time calculation error) sandwiching the occurrence time are read from the data storage medium 34 and stored in the holding area of the RAM 14b.

続いて、周辺人物抽出部43は、RAM14bの保持用エリアに記憶された上記監視画像から、置き去り物又は持ち去り物(置き去り又は持ち去りの対象である異物をいう)の周辺人物の画像を抽出する。また、関係度合い算出部44が、周辺人物毎に、置き去り物又は持ち去り物との関わり合いの程度を示す数値(関係度合い)を、後述の方法により決定する。   Subsequently, the peripheral person extraction unit 43 extracts an image of a peripheral person of a left-off object or a left-off object (referred to as a foreign object to be left or removed) from the monitoring image stored in the holding area of the RAM 14b. To do. In addition, the relationship degree calculation unit 44 determines a numerical value (degree of relationship) indicating the degree of the relationship between the left object or the left object for each neighboring person by a method described later.

そして、その置き去り物又は持ち去り物の画像、上記抽出された周辺人物の画像、及び、当該周辺人物毎の関係度合いをそれぞれ含む、置き去りログデータ又は持ち去りログデータを生成し、データ記憶媒体34に記憶する。   Then, the left log data or the left log data including the image of the left object or the left object, the extracted image of the surrounding person, and the degree of relationship for each surrounding person are generated, and the data storage medium 34 is generated. To remember.

すなわち、本検知システムでは、置き去り又は持ち去りの発生時刻における監視画像又は当該発生時刻前後における数枚の監視画像のみから、置き去りログデータ又は持ち去りログデータを生成することができるため、従来の置き去り監視装置のように膨大な量の画像処理を要しない。その結果、本検知システムは、置き去り物又は持ち去り物の周辺人物の画像と関係度合いとを、置き去り又は持ち去りの行為者特定のための参考情報として、ユーザに対し迅速に提供することができる。   In other words, in the present detection system, the leaving log data or the leaving log data can be generated only from the monitoring image at the time of occurrence of the leaving or taking away or a few monitoring images before and after the occurrence time. Unlike a monitoring device, an enormous amount of image processing is not required. As a result, this detection system can promptly provide the user with the image of the object left behind or the object around the object and the degree of relationship as reference information for identifying the person who has left or removed. .

生成された置き去りログデータ及び持ち去りログデータは、入力装置22等によるユーザからの指示により、データ記憶媒体34から読み出され、モニタ30に表示される。その際、ログデータ照合部46は、置き去りログデータ及び持ち去りログデータに記録されている置き去り物と持ち去り物との照合や、周辺人物同士の照合を行う。そして、同一物についての置き去りログデータと持ち去りログデータとが関連付けられて、モニタ30に表示される。   The generated leave log data and take away log data are read from the data storage medium 34 and displayed on the monitor 30 in accordance with an instruction from the user via the input device 22 or the like. At that time, the log data collating unit 46 performs collation between the left-out log data and the left-behind thing recorded in the left-out log data, and collation between neighboring persons. Then, the leaving log data and the leaving log data for the same object are associated with each other and displayed on the monitor 30.

次に、本検知システムにおける、置き去りログデータ又は持ち去りログデータを生成する処理手順を、図2のフロー図にしたがって説明する。ここで、監視エリアの背景画像は、予めカメラ20により撮影されて、RAM14bの保持用エリアに記憶されているものとする。   Next, a processing procedure for generating left log data or take away log data in the detection system will be described with reference to the flowchart of FIG. Here, it is assumed that the background image of the monitoring area is previously captured by the camera 20 and stored in the holding area of the RAM 14b.

まず、制御部100のCPU10は、カメラ20が撮影した監視エリアの映像(すなわち、監視画像)を、入力部16を介して入力する(S101)。ここで、CPU10は、入力した映像を、各映像フレーム毎に撮影時刻を付してデータ記憶媒体34に記憶する。   First, the CPU 10 of the control unit 100 inputs a video of a monitoring area (that is, a monitoring image) captured by the camera 20 via the input unit 16 (S101). Here, the CPU 10 stores the input video in the data storage medium 34 with a shooting time for each video frame.

また、置き去り持ち去り判断部52は、入力された各監視画像について、RAM14bの保持用エリアに記憶された背景画像との輝度の差分画像を生成し、生成した差分画像に基づいて、異物の出現又は消失を検知する(S102)。このとき、置き去り持ち去り判断部52は、タイマー(不図示)を起動し、当該異物の検知状態の継続時間を計測する。   In addition, the abandonment / removal determination unit 52 generates a difference image of luminance with respect to the background image stored in the holding area of the RAM 14b for each input monitoring image, and appearance of a foreign object based on the generated difference image. Alternatively, disappearance is detected (S102). At this time, the abandoned / removal determination unit 52 starts a timer (not shown) and measures the duration of the detection state of the foreign object.

次に、置き去り持ち去り判断部52は、当該検知状態の継続時間が所定時間を経過したか否かにより、置き去り又は持ち去りが発生していたのか否かを判断する(S103)。
そして、置き去り又は持ち去りが発生していたと判断したときは(S103、Yes)、発生時刻演算部54は、置き去り又は持ち去りが発生していたと判断した時刻から上記所定時間を減算して、当該置き去り又は持ち去りの発生時刻(すなわち、異物の出現又は消失を検知した時刻)を算出する(S104)。
一方、置き去り又は持ち去りが発生していないときは(S103、No)、ステップS101の画像入力に戻る。
Next, the abandonment / removal determination unit 52 determines whether the abandonment / removal has occurred or not, depending on whether a predetermined time has elapsed for the detection state (S103).
When it is determined that the leaving or taking away has occurred (S103, Yes), the occurrence time calculating unit 54 subtracts the predetermined time from the time at which it has been determined that leaving or taking away has occurred. The occurrence time of leaving or taking away (that is, the time when the appearance or disappearance of a foreign object is detected) is calculated (S104).
On the other hand, when leaving or taking away has not occurred (No in S103), the process returns to the image input in step S101.

次に、画像取得処理部42は、データ記憶媒体34から、上記発生時刻における監視画像、又は、上記発生時刻を挟む一定時間内に連続して撮影された所定数の監視画像を読み出し(S105)、周辺人物抽出部43は、読み出された監視画像から、置き去り物又は持ち去り物の周辺の人物(周辺人物)の画像を抽出する(S106)。なお、周辺人物の抽出に際し、周辺人物抽出部43は、上記監視画像において周辺人物を抽出する範囲を、RAM14aが記憶する周辺エリア情報に基づいて決定する。   Next, the image acquisition processing unit 42 reads out from the data storage medium 34 a monitoring image at the time of occurrence or a predetermined number of monitoring images taken continuously within a certain time with the time of occurrence (S105). The surrounding person extraction unit 43 extracts an image of a person who is left behind or left behind (a surrounding person) from the read monitoring image (S106). Note that when extracting the surrounding person, the surrounding person extracting unit 43 determines a range in which the surrounding person is extracted from the monitoring image based on the surrounding area information stored in the RAM 14a.

続いて、関係度合い算出部44は、各周辺人物の、置き去り物又は持ち去り物との関係度合いを算出し(S107)、ログデータ作成部45は、上記読み出した監視画像から置き去り物又は持ち去り物の画像を抽出して、置き去り物の画像と、置き去り物の周辺人物の画像と、各周辺人物の関係度合いとを含む置き去りログデータ、又は、持ち去り物の画像と、持ち去り物の周辺人物の画像と、各周辺人物の関係度合いとを含む持ち去りログデータを生成して、データ記憶媒体34に記憶した後(S108)、ステップS101の画像入力に戻る。   Subsequently, the relationship degree calculation unit 44 calculates the degree of relationship between each of the neighboring persons with the left-behind object or the left-behind object (S107). Extract the image of the object, and leave log data including the image of the object left, the image of the person around the object, and the degree of relationship between each person, or the image of the object and the area around the object After taking away log data including the image of the person and the degree of relationship between the surrounding persons is generated and stored in the data storage medium 34 (S108), the process returns to the image input in step S101.

ここで、ステップS107において算出する関係度合いrは、各周辺人物の、置き去り物又は持ち去り物との距離L、置き去り物又は持ち去り物との重なり面積S(例えば、当該人物と置き去り物又は持ち去り物との、重なりの画素数)、及び、当該人物の向きθ(例えば、当該発生時刻を挟む一定時間の監視画像を記憶しているので、記憶されている数枚の監視画像から推定される当該人物の進行方向に対する当該人物から見た置き去り物又は持ち去り物の方向の角度、若しくは、当該人物の顔又は視線の方向に対する当該人物から見た置き去り物又は持ち去り物の方向の角度)から、次のように決定することができる。   Here, the degree of relationship r calculated in step S107 is the distance L between each of the neighboring persons and the left object or left object, and the overlapping area S of the left object or left object (for example, the person and the left object or left object) The number of pixels that overlap with the leftovers and the orientation θ of the person (for example, since a monitoring image of a certain time sandwiching the occurrence time is stored, it is estimated from several stored monitoring images. The angle of the direction of the left-behind or left-behind object seen from the person with respect to the direction of movement of the person, or the angle of the direction of the left-behind or left-behind object seen from the person with respect to the direction of the person's face or line of sight) From this, it can be determined as follows.

すなわち、置き去り物又は持ち去り物の周辺エリアに存在する周辺人物をn(1〜N)とし、各周辺人物nの関係度hを、置き去り物又は持ち去り物までの距離L、置き去り物又は持ち去り物との重なり面積S、人物の向きを表す角度θから、次式により算出する。 That is, left behind thereof or carried away was a peripheral person existing in the surrounding area and n (1 to N) of the relationship of h n of each peripheral persons n, the distance L n to the left-behind object or taking away thereof, desertion product Alternatively, it is calculated by the following equation from the overlapping area S n with the carry-away object and the angle θ n representing the direction of the person.

Figure 2012235300
Figure 2012235300

ここで、α、α、αθは、それぞれ、距離L、重なり面積S、人の向きθの重み係数である。次に、全ての周辺人物に対して関係度hを算出した後、各周辺人物nの関係度合いrを、次式により算出する。 Here, α L , α S , and α θ are weighting factors for the distance L, the overlapping area S, and the human orientation θ, respectively. Then, after calculating the degree of relationship h n with respect to all peripheral person, the relationship degree r n of each peripheral persons n, is calculated by the following equation.

Figure 2012235300
Figure 2012235300

なお、上記の重み付け係数は、「距離比重α」、「重なり比重α」、及び「人の向き比重αθ」として、予めその値を、例えば実験により決定し、RAM14aに記憶させておくことができる。例えば、閑散としているエリアでは、当該人物が少ないと考えるため、距離比重を小さくすればよいし、逆に、混雑しているエリアでは、当該人物が多くなると考えるため、距離比重を大きくすればよい。 The above weighting coefficients are determined in advance by, for example, experiments and stored in the RAM 14a as “distance specific gravity α L ”, “overlap specific gravity α S ”, and “human orientation specific gravity α θ ”. be able to. For example, it may be necessary to reduce the distance specific gravity in a quiet area because the number of persons is small, and conversely, in a congested area, the number of persons may be increased, so the distance specific gravity may be increased. .

また、周辺人物の行動パターン、例えば手の動きや身体の向きの移動等を解析し、手や身体の移動方向と、当該周辺人物から見た置き去り物又は持ち去り物の方向との為す角度φを、関係度合いrの算出に反映するものとしてもよい。これにより、関係度合いrの算出精度を高めることができる。   In addition, the behavior pattern of the surrounding person, for example, the movement of the hand and the body direction is analyzed, and the angle φ between the moving direction of the hand and the body and the direction of the left behind or removed thing viewed from the surrounding person. May be reflected in the calculation of the relationship degree r. Thereby, the calculation accuracy of the relationship degree r can be improved.

次に、本検知システムにより作成される置き去りログデータ及び持ち去りログデータの例について説明する。
図3は、本検知システムにおける、置き去り又は持ち去り発生時刻の監視画像の一例を示す図である。
図3中央の右上部分に置き去り物であるカバン60があり、周辺人物を抽出する範囲である周辺エリア62が、当該カバンを中心とする点線の円により示されている。この周辺エリア62内には、3人の人物64a、64b、64cが写り込んでおり、これらの人物64a、64b、64cが周辺人物として特定される。そして、当該監視画像から、人物64a、64b、64cの画像が周辺人物の画像として抽出される。
Next, examples of leave log data and take away log data created by the detection system will be described.
FIG. 3 is a diagram illustrating an example of a monitoring image of the time of leaving or taking away in the detection system.
In FIG. 3, there is a bag 60 that is left behind in the upper right part of the center, and a peripheral area 62 that is a range for extracting a peripheral person is indicated by a dotted circle centered on the bag. Three persons 64a, 64b, and 64c are shown in the peripheral area 62, and these persons 64a, 64b, and 64c are specified as the peripheral persons. Then, the images of the persons 64a, 64b, and 64c are extracted as the images of the surrounding persons from the monitoring image.

図4は、本検知システムにおける置き去りログデータ及び持ち去りログデータの一例を示す図である。なお、図4Aは置き去りログデータの一例を、図4Bは持ち去りログデータの一例を示している。   FIG. 4 is a diagram illustrating an example of the leaving log data and the leaving log data in the detection system. 4A shows an example of left log data, and FIG. 4B shows an example of left log data.

置き去りログデータ(図4A)は、例えば、表形式で構成されており、各置き去り物についての情報が行毎に記録されている。各行の最左列には置き去り物の画像が記録されており、その右側に、周辺人物の画像と関係度合いとが上下に記録されている。
なお、図4Aの置き去りログデータの最上行(タイトル行除く)は、図3に示した監視画像に基づいて作成された置き去りログデータであり、図3の周辺エリアから抽出された3人の人物64a、64b、64cの画像が、周辺人物の画像として記録されている。
The leaving log data (FIG. 4A) is configured in, for example, a table format, and information about each leaving thing is recorded for each line. In the leftmost column of each row, an image of the left behind is recorded, and on the right side, the image of the surrounding person and the degree of relationship are recorded vertically.
4A is the left log data created based on the monitoring image shown in FIG. 3, and the three persons extracted from the peripheral area in FIG. Images 64a, 64b, and 64c are recorded as images of surrounding persons.

また、持ち去りログデータ(図4B)は、図4Aに示す置き去りログデータと同様の構成を有しており、最左列には、置き去り物の画像に代わって持ち去り物の画像が記録されている。   The take away log data (FIG. 4B) has the same configuration as the leave log data shown in FIG. 4A. In the leftmost column, an image of the take away object is recorded instead of the image of the leave article. ing.

次に、置き去りログデータ又は持ち去りログデータをモニタ30に表示する処理手順を、図5に示すフロー図にしたがって説明する。
処理を開始すると、制御部100のCPU10は、データ記憶媒体34が記憶する置き去りログデータ及び持ち去りログデータに記録されている置き去り物画像及び持ち去り物画像を、モニタ30に表示する(S201)。
Next, a processing procedure for displaying the left log data or the left log data on the monitor 30 will be described with reference to the flowchart shown in FIG.
When the process is started, the CPU 10 of the control unit 100 displays on the monitor 30 the leftover log data stored in the data storage medium 34 and the leftover image and the leftover image recorded in the left away log data (S201). .

モニタ30に表示された置き去り物画像及び持ち去り物画像に対し、ユーザは、入力装置22を用いて、詳細情報を表示させたい置き去り物又は持ち去り物を選択することができる。   With respect to the left behind image and the left behind image displayed on the monitor 30, the user can use the input device 22 to select a left behind item or a left behind item whose detailed information is to be displayed.

ユーザが、置き去り物又は持ち去り物を選択すると、ログデータ照合部46は、ユーザが選択した置き去り物又は持ち去り物(ユーザ選択物)の画像と、置き去りログデータに記録されている置き去り物画像及び持ち去りログデータに記録されている持ち去り物画像とを照合し、当該ユーザ選択物についての置き去りログデータ及び/又は持ち去りログデータを特定する(S202)。   When the user selects a leftover item or a leftover item, the log data collating unit 46 displays an image of the leftover item or leftover item (user selected item) selected by the user and a leftover image recorded in the leftover log data. Then, the left-side log data and / or the left-out log data for the user-selected item are specified by collating with the left-behind object image recorded in the removed log data (S202).

次に、上記ユーザ選択物をそれぞれ置き去り物及び持ち去り物とする置き去りログデータ及び持ち去りログデータがあるか否か(ユーザ選択物に係る置き去りログデータ及び持ち去りログデータがあるか否か)を判断し(S203)、そのような置き去りログデータ及び持ち去りログデータがあるときは(S203、Yes)、当該置き去りログデータに記録されている周辺人物と当該置き去りログデータに記録されている周辺人物を照合し(S204)、当該置き去りログデータ及び持ち去りログデータの内容と周辺人物の照合結果とを、モニタ30に表示して(S205)、処理を終了する。   Next, whether there is left log data and left log data that make the user selection a left item and left item, respectively (whether there is left log data and left log data related to the user selection) (S203), and when there is such a leave log data and take away log data (S203, Yes), the peripheral person recorded in the leave log data and the periphery recorded in the leave log data The person is collated (S204), the contents of the leaving log data and the carried away log data and the collation result of the surrounding person are displayed on the monitor 30 (S205), and the process is terminated.

これにより、ユーザは、表示された置き去りログデータ及び持ち去りログデータにそれぞれ含まれた周辺人物の画像から、例えば、手荷物を忘れた人がその手荷物を取りに来た(置き去り行為者と持ち去り行為者が同じ)のか、それとも全く関係のない人物がその手荷物を持っていってしまった(置き去り行為者と持ち去り行為者が異なる)のかを判断して、犯罪検知の参考情報とすることができる。また、この判断には、モニタ30に表示された各周辺人物の関係度合いを利用することができるので、置き去り行為者と持ち去り行為者との一致・不一致を精度良く判断することができる。   As a result, for example, a person who forgot his / her baggage came to pick up his / her baggage from the displayed log data and the image of the surrounding person included in the log data. It may be used as reference information for detecting crimes by determining whether the actor is the same) or a person who has nothing to do with the baggage (the left actor is different from the removed actor) it can. In addition, since the degree of relationship between each peripheral person displayed on the monitor 30 can be used for this determination, it is possible to accurately determine the coincidence / disagreement between the leaving actor and the leaving actor.

一方、ステップS203において、上記ユーザ選択物をそれぞれ置き去り物及び持ち去り物とする置き去りログデータ及び持ち去りログデータがないときは(S203、No)、ステップS202において特定された、ユーザ選択物についての置き去りログデータ又は持ち去りログデータの内容を、モニタ30に表示して(S206)、処理を終了する。   On the other hand, in step S203, when there is no left-out log data and left-out log data for the user-selected items as left-and-left items (S203, No), the user-selected items specified in step S202 are identified. The contents of the leaving log data or the leaving log data are displayed on the monitor 30 (S206), and the process is terminated.

これにより、ユーザは、例えば、落し物をした人がその落し物を引き取りに来た時に、当該落し物についての置き去りログデータを表示し、表示される周辺人物(置き去り行為者の候補)の画像やその関係度合いを、落し物を返却する際の参考情報とすることができる。   Thus, for example, when the person who has lost the item comes to pick up the lost item, the user displays the leaving log data about the lost item, and the image of the displayed peripheral person (candidate for the leaving agent) and the relationship thereof. The degree can be used as reference information when returning a lost item.

図6は、本検知システムにおける、置き去りログデータ又は持ち去りログデータの表示画面の一例を示す図である。
図6Aは、モニタ30に表示される置き去り物画像及び持ち去り物画像の例であり、図6Bは、選択された置き去り物又は持ち去り物についての、置き去りログデータ及び持ち去りログデータの表示例である。
FIG. 6 is a diagram illustrating an example of a display screen of left log data or left log data in the detection system.
FIG. 6A is an example of a leftover image and a leftover image displayed on the monitor 30, and FIG. 6B is a display example of the leftover log data and the left away log data for the selected leftover or leftover item. It is.

上述の表示処理を開始すると、図5のステップS201により、例えば図4A及び図4Bに示した置き去りログデータ及び持ち去りログデータに基づいて、これらのログデータに含まれる置き去り物画像及び持ち去り物画像が、図6Aのように、モニタ30に並べて表示される。   When the above-described display processing is started, a leftover image and a leftover object included in the log data are obtained based on the leftover log data and the left away log data shown in FIGS. 4A and 4B, for example, in step S201 of FIG. The images are displayed side by side on the monitor 30 as shown in FIG. 6A.

この表示画面に対し、例えば、ユーザが入力装置22により図示点線の円で囲んだ置き去り物又は持ち去り物を選択すると、そのユーザ選択物についての置き去りログデータ又は持ち去りログデータがモニタ30に表示される(図6B)。ここで、図6Aにおいて点線の円で囲ったユーザ選択物については、当該ユーザ選択物を置き去り物とする置き去りログデータが図4Aの最下行に記録されており、当該ユーザ選択物を持ち去り物とする持ち去りログデータが図4Bの最上行(タイトル行除く)に記録されている。   For example, when the user selects a left object or a left object surrounded by a dotted circle in the figure on the display screen, the left log data or the left log data for the user selection is displayed on the monitor 30. (FIG. 6B). Here, with respect to the user selection surrounded by a dotted circle in FIG. 6A, leaving log data in which the user selection is left behind is recorded in the bottom line of FIG. 4A, and the user selection is taken away. Taken away log data is recorded in the uppermost line (excluding the title line) in FIG. 4B.

このため、ログデータ照合部46は、図5のステップS203においてユーザ選択物の画像と置き去り物及び持ち去り物の画像とを照合し、ユーザ選択物をそれぞれ置き去り物及び持ち去り物とする置き去りログデータ及び持ち去りログデータとして、上記図4A最下行の置き去りログデータと図4B最上行の持ち去りログデータとを特定する。その結果、これらのログデータが関連付けられ、モニタ30に並べて表示される(図6B)。   Therefore, the log data collating unit 46 collates the image of the user-selected item with the image of the left-behind item and the left-behind item in step S203 of FIG. As the data and the take-away log data, the left-behind log data in the bottom row in FIG. 4A and the take-out log data in the top row in FIG. 4B are specified. As a result, these log data are associated and displayed side by side on the monitor 30 (FIG. 6B).

なお、図5のステップS204における周辺人物の照合結果は、例えば、図6Bに示す表示画面において、置き去りログデータの周辺人物と、当該周辺人物に対応する持ち去りログデータの周辺人物とを線(不図示)で結ぶことにより表示することができる。この場合、図6Bの例では、置き去りログデータにおける関係度合い80%の周辺人物と、持ち去りログデータにおける関係度合い100%の人物とが、線により結ばれて表示されることとなる。   In addition, the collation result of the peripheral person in step S204 in FIG. 5 is obtained by, for example, displaying a line (() on the display screen shown in FIG. 6B. It can be displayed by tying them (not shown). In this case, in the example of FIG. 6B, a person with a degree of relationship of 80% in the leaving log data and a person with a degree of relation of 100% in the leaving log data are connected by a line and displayed.

以上説明したように、本実施形態では、異物の出現又は消失が検知された時刻における監視画像又はその前後に撮影された数枚程度の監視画像のみから、置き去り物又は持ち去り物の周辺人物の画像を抽出して記憶すると共に、各周辺人物の当該置き去り物又は持ち去り物との関わり合いの程度を示す数値(関係度合い)を算出して記憶する。このため、本検知システムは、従来のように膨大な量の画像処理を行うことなく、置き去り行為者又は持ち去り行為者を特定するための参考情報(即ち、周辺人物画像及び関係度合い)を、ユーザに対し迅速に提供することができる。   As described above, in the present embodiment, only the monitoring image at the time when the appearance or disappearance of the foreign object is detected, or only a few monitoring images taken before and after the monitoring image, the left-handed object or the person around the left-handed object is left behind. An image is extracted and stored, and a numerical value (degree of relationship) indicating the degree of the relationship between each neighboring person and the left-behind or left-out thing is calculated and stored. For this reason, this detection system does not perform an enormous amount of image processing as in the prior art, and provides reference information (i.e., a peripheral person image and a degree of relationship) for identifying a leaving person or a leaving person. It can be quickly provided to the user.

10・・・CPU、14a、14b・・・RAM、15・・・出力部、16・・・入力部、20・・・カメラ、22・・・入力装置、26・・・データバス、30・・・モニタ、34・・・データ記憶媒体、42・・・画像取得処理部、43・・・周辺人物抽出部、44・・・関係度合い算出部、45・・・ログデータ作成部、46・・・ログデータ照合部、50・・・置き去り持ち去り検知部、52・・・置き去り持ち去り判断部、54・・・発生時刻演算部、100・・・制御部。
10 ... CPU, 14a, 14b ... RAM, 15 ... output unit, 16 ... input unit, 20 ... camera, 22 ... input device, 26 ... data bus, 30. ... Monitor 34... Data storage medium 42... Image acquisition processing unit 43 .. peripheral person extraction unit 44 .. relationship degree calculation unit 45. ... Log data collating unit, 50... Left and removed detection unit, 52... Left and removed judgment unit, 54.

Claims (5)

監視エリアを撮影する撮影手段と、撮影した画像を保存する保存手段と、置き去り又は持ち去り判断部と、置き去り又は持ち去りの発生時刻を演算する発生時刻演算部と、を有し、監視エリアの撮影画像に基づき置き去り又は持ち去りに係る人物を特定するための処理を行う置き去り又は持ち去り検知システムであって、
前記保存手段から、前記発生時刻に撮影された監視エリアの撮影画像を取得する画像取得処理部と、
前記発生時刻に撮影された監視エリアの撮影画像から、置き去り又は持ち去りの対象である異物から所定の距離範囲内にいる周辺人物の画像を抽出する周辺人物抽出部と、
置き去り又は持ち去りの対象である前記異物の画像と前記周辺人物の画像とをそれぞれ含む、置き去りログデータ又は持ち去りログデータを生成するログデータ生成部と、
を有する置き去り又は持ち去り検知システム。
An image capturing means for capturing the monitoring area; a storage means for storing the captured image; a leaving or leaving determination section; and an occurrence time calculating section for calculating an occurrence time of leaving or taking away. A leave or removal detection system that performs processing for identifying a person who is left or removed based on a captured image,
An image acquisition processing unit for acquiring a captured image of the monitoring area captured at the generation time from the storage unit;
A surrounding person extraction unit that extracts an image of a surrounding person within a predetermined distance range from a foreign object that is a target to be left behind or taken away from a captured image of the monitoring area photographed at the time of occurrence;
A log data generation unit for generating left log data or left log data, each including an image of the foreign object and an image of the surrounding person that is the target of the left or left;
A leave or take away detection system.
請求項1に記載された置き去り又は持ち去り検知システムにおいて、
前記発生時刻に撮影された監視エリアの撮影画像における、前記周辺人物から前記異物までの距離、前記周辺人物と前記異物との重なり面積、又は、前記周辺人物の向きを表す角度を算出し、前記距離、面積、又は角度から、前記周辺人物と前記異物との関わり合いの程度を示す関連度情報を生成する情報生成手段を有し、
前記置き去りログデータ又は持ち去りログデータは、更に、前記周辺人物の前記関連度情報を含む置き去り又は持ち去り検知システム。
In the leaving or taking away detection system according to claim 1,
In the captured image of the monitoring area photographed at the time of occurrence, calculate a distance from the surrounding person to the foreign object, an overlapping area between the surrounding person and the foreign object, or an angle representing the direction of the surrounding person, From the distance, area, or angle, comprising information generation means for generating relevance information indicating the degree of association between the surrounding person and the foreign object,
The leaving log data or the leaving log data further includes a leaving or leaving detection system including the relevance information of the surrounding person.
請求項1又は2に記載された置き去り又は持ち去り検知システムにおいて、
前記置き去りログデータに含まれている前記異物の画像と、前記持ち去りログデータに含まれている前記異物の画像とを照合するログデータ照合部を有し、
前記照合の結果に基づき、同一物の画像をそれぞれ置き去り及び持ち去りに係る異物の画像として含む前記置き去りログデータと持ち去りログデータとを、関連付けて表示手段に表示する置き去り又は持ち去り検知システム。
In the leaving or taking away detection system according to claim 1 or 2,
A log data collation unit that collates the foreign object image included in the leaving log data with the foreign object image included in the removed log data;
A left-off or left-behind detection system that displays the left log data and the left log data in association with each other on the basis of the result of the collation and displays the left log data and the left log data as images of foreign objects related to left and left.
請求項3に記載された置き去り又は持ち去り検知システムにおいて、
前記ログデータ照合部は、同一物の画像をそれぞれ置き去り及び持ち去りに係る異物の画像として含む前記置き去りログデータ及び持ち去りログデータについて、当該置き去りログデータに含まれている周辺人物の画像と当該持ち去りログデータに含まれている周辺人物の画像とを照合し、
当該照合の結果に基づき、同一人物である周辺人物を関連付けて表示手段に表示する置き去り又は持ち去り検知システム。
In the leaving or taking away detection system according to claim 3,
The log data collating unit includes, for the leaving log data and the leaving log data including images of the same object as the images of the leaving and taking away foreign objects, and the surrounding person images included in the leaving log data and the Check the image of the person in the surrounding area included in the log data,
A leave or take-away detection system that displays a display unit in association with neighboring persons who are the same person based on the result of the collation.
監視エリアを撮影する撮影手段と、撮影した画像を保存する保存手段と、置き去り又は持ち去り判断部と、置き去り又は持ち去りの発生時刻を演算する発生時刻演算部と、を有し、監視エリアの撮影画像に基づき置き去り又は持ち去りに係る人物を特定するための処理を行う置き去り又は持ち去り検知システムにおける置き去り又は持ち去り検知記録の生成方法であって、
前記保存手段から、前記発生時刻に撮影された監視エリアの撮影画像を取得する工程と、
前記取得する工程において取得された撮影画像から、置き去り又は持ち去りの対象である異物から所定の距離範囲内にいる周辺人物の画像を抽出する工程と、
置き去り又は持ち去りの対象である前記異物の画像と、前記抽出する工程において抽出された前記周辺人物の画像とをそれぞれ含む、置き去りログデータ又は持ち去りログデータを生成する工程と、
を有する置き去り又は持ち去り検知記録の生成方法。
An image capturing means for capturing the monitoring area; a storage means for storing the captured image; a leaving or leaving determination section; and an occurrence time calculating section for calculating an occurrence time of leaving or taking away. A method for generating a leaving or removal detection record in a leaving or removal detection system that performs processing for identifying a person who is leaving or taking away based on a captured image,
Acquiring from the storage means a captured image of the monitoring area captured at the occurrence time;
A step of extracting, from the captured image acquired in the step of acquiring, an image of a surrounding person who is within a predetermined distance range from a foreign object to be left or removed; and
Generating a leaving log data or a leaving log data, each including an image of the foreign object to be left or taken away and an image of the surrounding person extracted in the extracting step;
A method for generating a leaving or taking away detection record.
JP2011102218A 2011-04-28 2011-04-28 Abandoned or removed detection system Active JP5691807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011102218A JP5691807B2 (en) 2011-04-28 2011-04-28 Abandoned or removed detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011102218A JP5691807B2 (en) 2011-04-28 2011-04-28 Abandoned or removed detection system

Publications (2)

Publication Number Publication Date
JP2012235300A true JP2012235300A (en) 2012-11-29
JP5691807B2 JP5691807B2 (en) 2015-04-01

Family

ID=47435207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011102218A Active JP5691807B2 (en) 2011-04-28 2011-04-28 Abandoned or removed detection system

Country Status (1)

Country Link
JP (1) JP5691807B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017028561A (en) * 2015-07-24 2017-02-02 セコム株式会社 Image monitoring system
WO2018179202A1 (en) * 2017-03-30 2018-10-04 日本電気株式会社 Information processing device, control method, and program
DE112016006300T5 (en) 2016-01-25 2018-10-18 Panasonic Intellectual Property Management Co., Ltd. Unattended object surveillance device, unattended object surveillance system and unattended surveillance system
WO2018198373A1 (en) * 2017-04-28 2018-11-01 株式会社日立国際電気 Video monitoring system
JP2019185435A (en) * 2018-04-11 2019-10-24 パナソニック株式会社 Deserted cart detection system and deserted cart detection method
JPWO2018116488A1 (en) * 2016-12-22 2019-12-12 日本電気株式会社 Analysis server, monitoring system, monitoring method and program
CN110659555A (en) * 2018-06-29 2020-01-07 株式会社东芝 Legacy detection system
WO2020178926A1 (en) * 2019-03-01 2020-09-10 株式会社日立製作所 Unattended object detection device and unattended object detection method
CN111814510A (en) * 2019-04-10 2020-10-23 杭州海康威视数字技术股份有限公司 Detection method and device for remnant body
US10817709B2 (en) 2017-03-10 2020-10-27 Hitachi Kokusai Electric Inc. Similar image search system
JP2020177676A (en) * 2017-03-30 2020-10-29 日本電気株式会社 Information processing device, information processing method, and program
US11120838B2 (en) 2017-07-28 2021-09-14 Nec Corporation Information processing apparatus, control method, and program
JP7411752B1 (en) 2022-09-28 2024-01-11 三菱電機インフォメーションシステムズ株式会社 Abandoned person identification device, abandoned person identification method, and abandoned person identification program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010088072A (en) * 2008-10-03 2010-04-15 Mitsubishi Denki Information Technology Corp Monitor image storage system and monitor image storage method for monitor image storage system
JP2011049646A (en) * 2009-08-25 2011-03-10 Secom Co Ltd Leaving monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010088072A (en) * 2008-10-03 2010-04-15 Mitsubishi Denki Information Technology Corp Monitor image storage system and monitor image storage method for monitor image storage system
JP2011049646A (en) * 2009-08-25 2011-03-10 Secom Co Ltd Leaving monitoring device

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017028561A (en) * 2015-07-24 2017-02-02 セコム株式会社 Image monitoring system
US10740906B2 (en) 2016-01-25 2020-08-11 Panasonic Intellectual Property Management Co., Ltd. Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
DE112016006300T5 (en) 2016-01-25 2018-10-18 Panasonic Intellectual Property Management Co., Ltd. Unattended object surveillance device, unattended object surveillance system and unattended surveillance system
JPWO2018116488A1 (en) * 2016-12-22 2019-12-12 日本電気株式会社 Analysis server, monitoring system, monitoring method and program
JP7040463B2 (en) 2016-12-22 2022-03-23 日本電気株式会社 Analysis server, monitoring system, monitoring method and program
US10817709B2 (en) 2017-03-10 2020-10-27 Hitachi Kokusai Electric Inc. Similar image search system
US11776274B2 (en) 2017-03-30 2023-10-03 Nec Corporation Information processing apparatus, control method, and program
JPWO2018179202A1 (en) * 2017-03-30 2020-01-23 日本電気株式会社 Information processing apparatus, control method, and program
WO2018179202A1 (en) * 2017-03-30 2018-10-04 日本電気株式会社 Information processing device, control method, and program
US11164006B2 (en) 2017-03-30 2021-11-02 Nec Corporation Information processing apparatus, control method, and program
JP2020177676A (en) * 2017-03-30 2020-10-29 日本電気株式会社 Information processing device, information processing method, and program
JPWO2018198373A1 (en) * 2017-04-28 2019-11-14 株式会社日立国際電気 Video surveillance system
WO2018198373A1 (en) * 2017-04-28 2018-11-01 株式会社日立国際電気 Video monitoring system
US11017537B2 (en) 2017-04-28 2021-05-25 Hitachi Kokusai Electric Inc. Image monitoring system
US11120838B2 (en) 2017-07-28 2021-09-14 Nec Corporation Information processing apparatus, control method, and program
JP7131944B2 (en) 2018-04-11 2022-09-06 パナソニックホールディングス株式会社 Abandoned cart detection system and abandoned cart detection method
JP2019185435A (en) * 2018-04-11 2019-10-24 パナソニック株式会社 Deserted cart detection system and deserted cart detection method
CN110659555A (en) * 2018-06-29 2020-01-07 株式会社东芝 Legacy detection system
CN113647097A (en) * 2019-03-01 2021-11-12 株式会社日立制作所 Carry-over detection device and carry-over detection method
JPWO2020178926A1 (en) * 2019-03-01 2021-12-23 株式会社日立製作所 Left-behind object detection device and left-behind object detection method
WO2020178926A1 (en) * 2019-03-01 2020-09-10 株式会社日立製作所 Unattended object detection device and unattended object detection method
JP7230173B2 (en) 2019-03-01 2023-02-28 株式会社日立製作所 Abandoned object detection device and abandoned object detection method
US11900701B2 (en) 2019-03-01 2024-02-13 Hitachi, Ltd. Left object detection device and left object detection method
CN111814510A (en) * 2019-04-10 2020-10-23 杭州海康威视数字技术股份有限公司 Detection method and device for remnant body
CN111814510B (en) * 2019-04-10 2024-04-05 杭州海康威视数字技术股份有限公司 Method and device for detecting legacy host
JP2022009396A (en) * 2020-07-02 2022-01-14 日本電気株式会社 Information processing device, information processing method, and program
JP7347481B2 (en) 2020-07-02 2023-09-20 日本電気株式会社 Information processing device, information processing method, and program
JP7411752B1 (en) 2022-09-28 2024-01-11 三菱電機インフォメーションシステムズ株式会社 Abandoned person identification device, abandoned person identification method, and abandoned person identification program

Also Published As

Publication number Publication date
JP5691807B2 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
JP5691807B2 (en) Abandoned or removed detection system
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
JP6013241B2 (en) Person recognition apparatus and method
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6674584B2 (en) Video surveillance system
JP2013232181A5 (en)
JP6358258B2 (en) Image processing system, image processing method, and program
TWI438702B (en) Method for setting dynamic enviromental image borders and method for instantly determining the content of staff member activities
JP2009089077A5 (en)
JP2017010210A5 (en)
JP2016015579A (en) Information processing apparatus,information processing method and program
KR101648786B1 (en) Method of object recognition
JP5236592B2 (en) Suspicious object detection device
US20210407265A1 (en) Image processing apparatus, image processing method, and storage medium
JP2010233737A (en) Body type determination method, body type determination system, and monitoring system using the same
JP5864231B2 (en) Moving direction identification device
JP2008146132A (en) Image detection device, program, and image detection method
JP2008165705A (en) Image processor and image processing method
JP2010161573A5 (en) Information processing apparatus, control method, computer program, and storage medium
US20210407264A1 (en) Image processing apparatus, image processing method, and storage medium
JP5416421B2 (en) Surveillance video retrieval device, surveillance video retrieval program, and surveillance video retrieval method
US20220230333A1 (en) Information processing system, information processing method, and program
US10593045B2 (en) Information processing apparatus and method of controlling the same
JP2012060292A5 (en)
JP2006268630A (en) Information display device and attention determination method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5691807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150