JPH10285586A - Image processor, monitoring image display system, image processing method and monitoring image display method - Google Patents

Image processor, monitoring image display system, image processing method and monitoring image display method

Info

Publication number
JPH10285586A
JPH10285586A JP9083678A JP8367897A JPH10285586A JP H10285586 A JPH10285586 A JP H10285586A JP 9083678 A JP9083678 A JP 9083678A JP 8367897 A JP8367897 A JP 8367897A JP H10285586 A JPH10285586 A JP H10285586A
Authority
JP
Japan
Prior art keywords
image
area
time
extracted
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9083678A
Other languages
Japanese (ja)
Inventor
Masamichi Sato
正道 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP9083678A priority Critical patent/JPH10285586A/en
Publication of JPH10285586A publication Critical patent/JPH10285586A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor and an image processing method for processing images obtained by picking up the images and automatically detecting the presence/absence of a neglected object and to provide a monitoring image display system and a monitoring image display method capable of easily and surely confirming the presence/absence of the neglected object. SOLUTION: The images photographed in an image input part 1 are time sequentially stored in an image recording part 2. A neglected object detection part 3 prepares comparison images for which a moving object is eliminated from the images by fetching the plural time sequentially continuous recording images and integrating them. Then, by extracting the different area of reference images stored in a reference image management part 3 and the comparison images, the neglected object or a lost object is detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、撮像した画像か
ら放置された物体や紛失した物体を検出する画像処理装
置および画像処理方法に関するとともに、駅や空港等の
公共の場において、この画像処理装置または画像処理方
法を適用して放置物体や紛失物体を監視する監視画像表
示システムおよび監視画像表示方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method for detecting an abandoned object or a lost object from a captured image, and to an image processing apparatus in a public place such as a station or an airport. Also, the present invention relates to a surveillance image display system and a surveillance image display method for monitoring a neglected object or a lost object by applying an image processing method.

【0002】[0002]

【従来の技術】従来より、駅や空港等の多数の人が出入
りする公共の場所では、荷物の置き忘れや、危険物の放
置等の監視を行っている。一般的な監視方法としては、
監視場所に監視カメラを設置するとともに、監視室にこ
の監視カメラで撮像した画像を表示させる表示装置を設
けておき、警備員が表示装置に表示された画像を見なが
ら、放置物体がないかどうかを監視している。
2. Description of the Related Art Conventionally, in public places such as train stations and airports where a large number of people enter and leave, monitoring has been carried out to check for missing luggage or leaving dangerous goods. Common monitoring methods include:
A surveillance camera is installed at the surveillance location, and a display device for displaying images captured by the surveillance camera is provided in the surveillance room. Is monitoring.

【0003】[0003]

【発明が解決しようとする課題】ところで、危険物が放
置された場合も考えて、放置物に対して迅速に対応しな
ければならない。
By the way, in consideration of a case where a dangerous substance is left, it is necessary to respond quickly to the left.

【0004】しかしながら、従来は表示装置に監視カメ
ラで撮像した画像を表示しているだけであっため、警備
員がこの表示された画像から放置物体の有無を簡単に判
断することができなかった。このため、警備員が画面上
で放置物体を確認するまでに要する時間が長くかかり、
放置物体に対して迅速に対応をすることができない場合
もあった。
[0004] However, conventionally, since only the image taken by the surveillance camera is displayed on the display device, the guard cannot easily determine the presence or absence of the neglected object from the displayed image. For this reason, it takes a long time for security guards to check for abandoned objects on the screen,
In some cases, it was not possible to respond quickly to an abandoned object.

【0005】この発明の目的は、時系列に撮像して得ら
れる画像と基準画像とを画像処理して、撮像されている
画像領域内における放置物体や紛失物体を検出する画像
処理装置および画像処理方法を提供することにある。
An object of the present invention is to provide an image processing apparatus and an image processing apparatus for processing an image obtained by imaging in time series and a reference image to detect an abandoned object or a lost object in the imaged image area. It is to provide a method.

【0006】また、この発明は、上記画像処理装置や画
像処理方法を適用することで、簡単且つ確実に放置物体
の有無を確認させ、放置物体等に対する迅速に対応する
ことができる監視画像表示システムおよび監視画像表示
方法を提供することを目的とする。
Further, the present invention is a monitoring image display system which can easily and surely confirm the presence or absence of an abandoned object by applying the image processing apparatus and the image processing method, and can quickly respond to an abandoned object. And a monitoring image display method.

【0007】[0007]

【課題を解決するための手段】この発明の請求項1に記
載した画像処理装置は、所定領域を時系列に撮像して得
られる画像から該所定領域の基準画像と異なる画像領域
で、且つ、その位置が時間的に変化しない画像領域を抽
出する抽出手段を備えたことを特徴とする。
An image processing apparatus according to a first aspect of the present invention is configured such that an image obtained by imaging a predetermined area in time series is an image area different from a reference image of the predetermined area, and It is characterized by comprising extraction means for extracting an image area whose position does not change with time.

【0008】この構成では、撮像された画像において基
準画像上には存在せず、且つ、移動しない物体の撮像さ
れている画像領域を抽出する。すなわち、放置された物
体が撮像されている領域を抽出できる。
[0008] In this configuration, an image area of an object which is not present on the reference image and which is not moving in the captured image is extracted. That is, it is possible to extract a region where the abandoned object is imaged.

【0009】請求項2に記載した発明は、前記抽出手段
は、所定領域を時系列に撮像して得られる複数の画像を
処理し、該所定領域を撮像した画像から移動物体をキャ
ンセルした比較画像を作成し、この比較画像と前記基準
画像とが異なる画像領域を抽出する手段であることを特
徴とする。
According to a second aspect of the present invention, the extraction means processes a plurality of images obtained by imaging a predetermined region in time series, and cancels a moving object from the image obtained by imaging the predetermined region. The comparison image and the reference image are means for extracting different image regions.

【0010】この構成では、例えば所定領域を時系列に
撮像した複数の画像を積分することによって、撮像した
画像中における移動物体をキャンセルした比較画像が生
成される。したがって、この比較画像と基準画像とで異
なる画像領域を抽出することで、放置物体が発生した領
域を抽出できる。
In this configuration, for example, a comparison image in which a moving object in a captured image is canceled is generated by integrating a plurality of images obtained by capturing a predetermined area in time series. Therefore, by extracting different image regions between the comparative image and the reference image, it is possible to extract the region where the neglected object has occurred.

【0011】請求項3に記載した発明は、前記抽出手段
により抽出した画像領域に対して、該画像領域の抽出時
の状況情報を対応させて記憶する記憶手段を備えたこと
を特徴とする。
According to a third aspect of the present invention, there is provided a storage device for storing, in association with the image area extracted by the extracting means, status information at the time of extracting the image area.

【0012】この構成では、放置物体または紛失物体が
発生した領域を抽出したときに、その時の状況情報を対
応させて記憶するようにしたため、この状況情報から放
置物体が発生したときの状況を知ることができる。
In this configuration, when an area where an abandoned object or a lost object has been extracted is extracted, the situation information at that time is stored in association with the area. Therefore, the situation when the abandoned object occurs is known from the situation information. be able to.

【0013】請求項4に記載した発明は、前記状況情報
は、該画像領域を抽出した時刻であることを特徴とす
る。
[0013] The invention described in claim 4 is characterized in that the status information is a time when the image area is extracted.

【0014】この構成では、状況情報として時刻を記憶
するようにしたので、放置物体が発生した時刻を簡単に
知ることができる。
In this configuration, the time is stored as the situation information, so that the time when the abandoned object has occurred can be easily known.

【0015】請求項5に記載した発明は、所定領域を撮
像した画像を録画する録画手段と、前記状況情報をキー
として前記録画手段に録画されている画像から対応する
画像を取り出して出力する出力手段と、を備えたことを
特徴とする。
According to a fifth aspect of the present invention, there is provided a recording means for recording an image of a predetermined area, and an output for extracting and outputting a corresponding image from the image recorded in the recording means using the status information as a key. Means.

【0016】この構成では、録画手段に録画されている
所定領域を撮像した画像から、状況情報をキーとして対
応する画像を取り出して出力する。例えば、状況情報と
してこの画像領域を抽出した時刻を記憶させておけば、
放置物体が発生した時の画像を出力させることができ
る。
In this configuration, a corresponding image is taken out from the image of the predetermined area recorded by the recording means, using the situation information as a key, and output. For example, if the time when this image area was extracted is stored as status information,
It is possible to output an image when an abandoned object occurs.

【0017】請求項6に記載した発明は、前記抽出手段
により抽出された画像領域について、前記基準画像にあ
る物体が撮像された画像上に存在していないのか、前記
基準画像上に存在していない物体が撮像された画像上に
存在しているのか、どちらであるかを判定する判定手段
を備えたことを特徴とする。
According to a sixth aspect of the present invention, in the image area extracted by the extracting means, an object in the reference image does not exist on the captured image or exists on the reference image. A determination unit is provided for determining whether an object is present on a captured image or not.

【0018】この構成では、判定手段によって放置物体
が発生したのか、紛失物体が発生したのかを判定するこ
とができる。
With this configuration, it is possible to determine whether a neglected object or a lost object has occurred by the determining means.

【0019】請求項7に記載した発明は、前記判定手段
による判定が、前記基準画像にある物体が撮像された画
像上に存在していない、とするものであるとき、前記基
準画像におけるこの画像領域を現在の画像の対応する画
像領域に更新する基準画像更新手段を備えたことを特徴
とする。
According to a seventh aspect of the present invention, when the determination by the determination means is that the object in the reference image does not exist on the captured image, the image in the reference image is determined. Reference image updating means for updating an area to an image area corresponding to a current image is provided.

【0020】この構成では、紛失物体が発生したとき
に、基準画像上におけるこの紛失物体の画像領域を、現
在の画像の対応する画像領域に更新する。したがって、
基準画像上に存在する物体が無くなったときには、自動
的に基準画像を更新することができる。なお、ここで言
う現在の画像とは、この時点で撮像されている最新の画
像を言うのではなく、この最新の画像を処理して得られ
た移動物体をキャンセルした画像である。
In this configuration, when a lost object occurs, the image area of the lost object on the reference image is updated to the image area corresponding to the current image. Therefore,
When there are no more objects present on the reference image, the reference image can be automatically updated. Note that the current image referred to here is not the latest image captured at this time, but an image obtained by canceling a moving object obtained by processing the latest image.

【0021】請求項8に記載した発明の監視画像表示シ
ステムは、請求項1〜6、または、7のいずれかに記載
の画像処理装置を備え、さらに、抽出手段で抽出された
画像領域と他の画像領域とを区別して表示する表示装置
を設けたことを特徴とする。
According to an eighth aspect of the present invention, there is provided a surveillance image display system comprising the image processing apparatus according to any one of the first to sixth or seventh aspects, and further comprising an image area extracted by the extraction means and other parts. And a display device for displaying the image area separately from the image area.

【0022】この構成では、放置物体または紛失物体が
発生した画像領域とその他の画像領域とを区別して表示
するため、この表示から放置物体または紛失物体の発生
を簡単に確認することができる。したがって、放置物体
または紛失物体に対す迅速な対応をとることができる。
In this configuration, since the image area in which the abandoned or lost object has occurred is displayed separately from the other image areas, the occurrence of the abandoned or lost object can be easily confirmed from this display. Therefore, it is possible to quickly respond to an abandoned object or a lost object.

【0023】請求項9に記載した発明の監視画像表示シ
ステムは、請求項1〜6、または、7のいすれかに記載
の画像処理装置を備え、さらに、抽出手段で抽出された
画像領域に対応させて、その画像領域が抽出された時刻
またはその画像領域が抽出されてからの経過時間を表示
する表示装置を設けたことを特徴とする。
According to a ninth aspect of the present invention, there is provided a surveillance image display system comprising the image processing apparatus according to any one of the first to sixth or seventh aspects, further comprising: Correspondingly, a display device is provided for displaying the time at which the image region was extracted or the elapsed time since the image region was extracted.

【0024】この構成では、放置物体または紛失物体が
発生した画像領域に対応させて、発生した時刻または発
生してからの経過時間が表示されるため、これを簡単に
知ることができる。
In this configuration, the time of occurrence or the elapsed time since the occurrence is displayed in association with the image area in which the abandoned or lost object has occurred, so that this can be easily known.

【0025】[0025]

【発明の実施の形態】図1は、この発明の実施形態であ
る画像処理装置が適用された監視画像表示システムの構
成を示す図である。図において、1は所定領域の撮像を
行う監視カメラを含む画像入力部である。2は、撮像さ
れた画像を記録する画像記録部である。3は、画像入力
部1で撮像する所定領域の基準画像を記憶させた基準画
像管理部である。基準画像は、画像入力部1で撮像され
る領域と同一の領域を撮像した画像であり、且つ、この
領域に載置されていない物体(人や物)が存在していな
いときの画像である。すなわち、基準画像は、画像入力
部1で撮像される画像の背景画像である。4は、画像入
力部1で撮像された複数の画像(時間的に連続する画
像)を処理して作成した比較画像と基準画像とを比較
し、放置物体が発生した画像領域を抽出する放置物体検
出部である。5は、放置物体検出部4で放置物体を検出
したときの状況情報を管理する放置物体情報管理部であ
る。6は、表示部7の画面を制御する表示制御部であ
る。8は、画像記録部2に記憶されている時系列の画像
情報から指定された時刻の画像を抽出する指定画像抽出
部である。
FIG. 1 is a diagram showing a configuration of a monitoring image display system to which an image processing apparatus according to an embodiment of the present invention is applied. In the figure, reference numeral 1 denotes an image input unit including a surveillance camera for imaging a predetermined area. Reference numeral 2 denotes an image recording unit that records a captured image. Reference numeral 3 denotes a reference image management unit that stores a reference image of a predetermined area captured by the image input unit 1. The reference image is an image obtained by capturing the same area as the area captured by the image input unit 1, and is an image when there is no object (person or object) not placed in this area. . That is, the reference image is a background image of an image captured by the image input unit 1. Reference numeral 4 denotes a neglected object that compares a reference image created by processing a plurality of images (temporally continuous images) captured by the image input unit 1 with a reference image, and extracts an image region where the neglected object has occurred. It is a detection unit. Reference numeral 5 denotes an abandoned object information management unit that manages status information when the abandoned object detection unit 4 detects an abandoned object. Reference numeral 6 denotes a display control unit that controls the screen of the display unit 7. Reference numeral 8 denotes a designated image extracting unit that extracts an image at a designated time from the time-series image information stored in the image recording unit 2.

【0026】次に、この実施形態にかかる監視画像表示
システムの処理について説明する。図2は、この実施形
態にかかる画像記録部の処理を示す図である。画像記録
部2は、画像入力部1で撮像されている所定領域の画像
を所定時間毎に取り込み、この取り込んだ画像を時系列
に蓄積記録していく(n1、n2)。例えば、画像記録
部2は、5秒毎に撮像されている画像を取り込んで、こ
れを時系列に蓄積記録する。このようにして、画像記録
部2は画像入力部1で撮像した所定時間おきの画像を時
系列に記憶していく。
Next, the processing of the monitoring image display system according to this embodiment will be described. FIG. 2 is a diagram illustrating a process of the image recording unit according to the embodiment. The image recording unit 2 captures an image of a predetermined area captured by the image input unit 1 at predetermined time intervals, and accumulates and records the captured image in time series (n1, n2). For example, the image recording unit 2 captures an image captured every 5 seconds and accumulates and records the image in chronological order. In this way, the image recording unit 2 stores the images captured by the image input unit 1 at predetermined time intervals in chronological order.

【0027】図3は、この実施形態にかかる放置物体検
出部の処理を示すフローチャートである。放置物体検出
部4は、画像記録部2に記録されている最新の画像から
時間的に連続する所定数の画像を取り込み(n11)、
この所定数の画像を積分してこれらの画像内から移動物
体をキャンセルした比較画像を生成する(n12)。す
なわち、n12で作成された比較画像は画像入力部1で
撮像されている画像から、移動する人や物体を除去した
画像である。したがって、この比較画像と上記した基準
画像とが一致すれば、画像入力部1で撮像された画像領
域中に放置物体が存在していない。
FIG. 3 is a flowchart showing the processing of the abandoned object detection unit according to this embodiment. The neglected object detection unit 4 captures a predetermined number of images that are temporally continuous from the latest image recorded in the image recording unit 2 (n11).
The predetermined number of images are integrated to generate a comparison image in which the moving object is canceled from these images (n12). That is, the comparison image created in n12 is an image obtained by removing a moving person or object from the image captured by the image input unit 1. Therefore, if the comparison image matches the above-described reference image, no neglected object exists in the image area captured by the image input unit 1.

【0028】そこで、n12で作成した比較画像と基準
画像管理部3に記憶されている基準画像を画素毎に比較
し、一致している画素を白抜きにする(n13、n1
4)。n13では、RGBの比率、色合い、明るさ、お
よび鮮やかさの各値について基準画像と比較画像の差を
取り、各値においてこの差が予め設定されている基準値
以下であれば一致、前記基準値を越えると不一致と判定
する。そして、n14で作成された画像を予め設定され
ている大きさの矩形で分割し(n15)、各矩形毎に白
抜きの画素の密度を算出し、この密度が設定された値を
越える矩形内の全ての画素を全て白抜きにする(n1
6)。なお、密度が設定された値以下である矩形内の画
素に対しては、何ら処理を行わない。次に、白抜きにし
なかった矩形の集まり具合から放置物体の発生の有無を
判定する(n17)。n17では、所定の範囲内に白抜
きにしなかった矩形が所定個数以上ある領域を放置物体
の存在している領域として判定する。ここで、放置物体
の存在していると判定した領域がなければ、この処理を
終了する。一方、放置物体の存在している領域があれ
ば、白抜きにしていない矩形の集まり具合から該放置物
体の輪郭線を求める(n18)。そして、放置物体が存
在している領域、現在時刻、比較画像等を放置物体情報
として出力する(n19)。なお、放置物体が存在して
いる領域が複数個あれば、それぞれの領域に対して上記
したn18、n19の処理を行う。
Therefore, the comparison image created in n12 is compared with the reference image stored in the reference image management unit 3 for each pixel, and the coincident pixels are outlined (n13, n1).
4). In n13, the difference between the reference image and the comparison image is calculated for each of the RGB ratio, hue, brightness, and vividness. If the difference is equal to or smaller than a preset reference value, the values match. If it exceeds the value, it is determined that they do not match. Then, the image created in n14 is divided into rectangles of a preset size (n15), the density of white pixels is calculated for each rectangle, and the density of the rectangle exceeding this set value is calculated. Are all white (n1
6). No processing is performed on pixels within a rectangle whose density is equal to or less than the set value. Next, the presence or absence of a neglected object is determined based on the degree of collection of rectangles that are not outlined (n17). In n17, an area in which a predetermined number of rectangles not blanked out in a predetermined range is determined as an area where a neglected object exists. Here, if there is no area where it is determined that an abandoned object is present, the process ends. On the other hand, if there is an area where the abandoned object exists, the outline of the abandoned object is determined from the collection of rectangles that are not outlined (n18). Then, the area where the abandoned object exists, the current time, the comparison image, and the like are output as the abandoned object information (n19). If there are a plurality of areas where abandoned objects are present, the processing of n18 and n19 described above is performed for each area.

【0029】このように、放置物体検出部4は、画像入
力部1で撮像された時間的に連続する所定数の画像か
ら、移動物体をキャンセルした比較画像を生成し、基準
画像と比較画像とで異なる画像領域を抽出し、この画像
領域に放置物体が存在していると判定する。このため、
移動している人等が放置物体として検出されることはな
い。
As described above, the abandoned object detection unit 4 generates a comparison image in which a moving object is canceled from a predetermined number of temporally consecutive images captured by the image input unit 1, and generates a reference image and a comparison image. , A different image area is extracted, and it is determined that an abandoned object exists in this image area. For this reason,
A moving person or the like is not detected as an abandoned object.

【0030】なお、n14で作成された画像に対して放
置物体の輪郭線を求めるようにしてもよいが、点(画
素)の集まり具合から放置物体の輪郭線を求めることに
なるため、その輪郭線を精度良く求めることができな
い。そこで、本実施形態では上述したn15、およびn
16の処理を設け、適当な大きさの矩形の集まり具合か
ら放置物体の輪郭線を求めるようにした。
The outline of the neglected object may be obtained from the image created in n14. However, since the outline of the neglected object is obtained from the collection of points (pixels), the outline of the neglected object is obtained. Lines cannot be determined with high accuracy. Therefore, in the present embodiment, n15 and n
Sixteen processes are provided, and the outline of the neglected object is determined from the degree of collection of rectangles of an appropriate size.

【0031】図4は、この実施形態にかかる放置物体情
報管理部の処理を示すフローチャートである。放置物体
情報管理部5は、放置物体検出部4から放置物体情報が
入力されると(n21)、新たに検出された放置物体で
あるかどうかを判定する(n22)。放置物体情報管理
部5は、この放置物体情報に含まれる放置物体毎に存在
している領域、検出時刻等を対応させて記憶する状況情
報記憶エリアを備えている。図5は、状況情報記憶エリ
アの構成を示す図である。状況情報記憶エリアでは、そ
の放置物体の輪郭線の座標データによって該放置物体の
存在領域を記憶している。n22では、この判定の対象
である放置物体の存在領域が状況情報記憶エリア内にす
でに記憶されているかどうかによって新たに検出された
放置物体であるかどうかを判定する。ここで、状況情報
記憶エリア内に略一致する領域の放置物体があれば、す
でに検出されている放置物体である。一方、状況情報記
憶エリア内に略一致する領域の放置物体がなければ、新
たに検出された放置物体である。新たに検出された放置
物体があると、入力された放置物体情報に基づいて、状
況情報記憶エリアにその領域や現在時刻(検出時刻)等
を状況情報として記憶する(n23)。放置物体情報管
理部5は、n21で入力された放置物体情報に含まれる
放置物体の状況情報を出力する(n24)。n24で
は、新たに検出された放置物体だけでなく、すでに検出
されていた放置物体の状況情報も出力する。n24で出
力された状況情報は、表示制御部6に入力される。
FIG. 4 is a flowchart showing the processing of the neglected object information management unit according to this embodiment. When the abandoned object information is input from the abandoned object detection unit 4 (n21), the abandoned object information management unit 5 determines whether or not the abandoned object is a newly detected abandoned object (n22). The abandoned object information management unit 5 includes a status information storage area that stores an area that exists for each abandoned object included in the abandoned object information, a detection time, and the like in association with each other. FIG. 5 is a diagram showing a configuration of the status information storage area. In the situation information storage area, the existence area of the neglected object is stored based on the coordinate data of the outline of the neglected object. In n22, it is determined whether or not the existence area of the neglected object to be determined is already stored in the situation information storage area to determine whether it is a newly detected neglected object. Here, if there is an abandoned object in a substantially matching area in the situation information storage area, it is a previously detected abandoned object. On the other hand, if there is no abandoned object in a substantially matching area in the situation information storage area, it is a newly detected abandoned object. If there is a newly detected abandoned object, the area, the current time (detection time), and the like are stored as status information in the status information storage area based on the input abandoned object information (n23). The neglected object information management unit 5 outputs the status information of the neglected object included in the neglected object information input in n21 (n24). In n24, not only the newly detected neglected object but also the status information of the previously detected neglected object is output. The status information output in n24 is input to the display control unit 6.

【0032】図6は、この実施形態にかかる表示制御部
の処理を示すフローチャートである。表示制御部6は、
検出されてから所定の時間経過していない放置物体情報
の有無を判定する(n31)。これは、各放置物体の検
出時間から判定する。ここで、検出されてから所定の時
間経過していない放置物体がなければ、画像記録部2に
記録されている最新の画像を取り込み、これを表示デー
タとして表示部7に入力する(n36、n37)。一
方、検出されてから所定時間経過していない放置物体が
あれば、比較画像から放置物体の存在している領域の画
像を抽出する(n32)。そして、画像記録部2に記録
されている最新の画像を取り込み(n33)、ここで取
り込んだ最新の画像の上にn32で抽出した画像を重ね
合わせる(n34)。さらに、この抽出した画像を重ね
合わせた部分の近傍に、対応する放置物体の検出された
時刻を表示させるデータ(状況情報表示データ)を付加
する(n35)。n33で取り込んだ最新の画像に対し
て、上記したn34およびn35の処理を行った画像情
報を、表示データとして表示部7に入力する(n3
6)。表示部8では表示制御部7から入力された表示デ
ータに基づく表示を行う。
FIG. 6 is a flowchart showing the processing of the display control unit according to this embodiment. The display control unit 6
It is determined whether or not there is information on abandoned objects for which a predetermined time has not elapsed since the detection (n31). This is determined from the detection time of each abandoned object. Here, if there is no abandoned object for which a predetermined time has not elapsed since the detection, the latest image recorded in the image recording unit 2 is taken and input to the display unit 7 as display data (n36, n37). ). On the other hand, if there is an abandoned object for which a predetermined time has not elapsed since the detection, an image of an area where the abandoned object exists is extracted from the comparison image (n32). Then, the latest image recorded in the image recording unit 2 is fetched (n33), and the image extracted in n32 is superimposed on the latest image fetched here (n34). Further, data (situation information display data) for displaying the time when the corresponding abandoned object is detected is added near the portion where the extracted images are superimposed (n35). Image information obtained by performing the above-described processing of n34 and n35 on the latest image captured in n33 is input to the display unit 7 as display data (n3
6). The display unit 8 performs display based on the display data input from the display control unit 7.

【0033】図7は表示部8における表示画面の例を示
す図である。図7(A)は放置物体が検出されていない
ときの表示画像である。この図において、右下に示した
物体Aがこの時に放置されたとする。一定時間経過後、
図7(A)の右下に示した物体Aが放置物体として検出
される。このとき、表示部7に、図7(B)に示すよう
に、画像入力部1で撮像された最新の画像の上に検出さ
れた放置物体(物体A)の画像を重ね合わせた画像を表
示する。また、表示した放置物体の近傍に検出時刻も合
わせて表示する。このように、検出された放置物体を最
新の画像の上に重ね合わせて表示するので、人込み等に
よって放置物体が画面上で見えないという問題が生じる
ことはない。また、放置物体の画像領域に対応させて検
出時刻を表示しているため、この物体Aが放置された時
刻もすぐに確認できる。さらに、検出されてから所定時
間経過した放置物体を表示しないようにしているので、
画面上に多数の放置物体が表示され、画面がわかりづら
くなるという問題も生じない。また、放置物体の周辺で
は点滅表示を行っており、この表示を見た警備員が容易
に放置物体の発生を確認できるようにしている。このよ
うに、検出した放置物体の領域とその他の領域との表示
形態を異ならせることで、警備員に検出した放置物体へ
の注意を促すこともできる。したがって、警備員は放置
物体に対して迅速な対応を取ることができる。
FIG. 7 is a diagram showing an example of a display screen on the display unit 8. FIG. 7A is a display image when no abandoned object is detected. In this figure, it is assumed that the object A shown at the lower right is left at this time. After a certain time,
The object A shown in the lower right of FIG. 7A is detected as a neglected object. At this time, as shown in FIG. 7B, an image obtained by superimposing the image of the abandoned object (object A) on the latest image captured by the image input unit 1 is displayed on the display unit 7 as shown in FIG. I do. In addition, the detection time is also displayed near the displayed neglected object. As described above, since the detected neglected object is superimposed and displayed on the latest image, there is no problem that the neglected object cannot be seen on the screen due to crowding or the like. Further, since the detection time is displayed in correspondence with the image area of the abandoned object, the time at which the object A was abandoned can be immediately confirmed. In addition, since the abandoned object that has passed a predetermined time after detection is not displayed,
A large number of neglected objects are displayed on the screen, and there is no problem that the screen is difficult to understand. In addition, a blinking display is performed around the abandoned object, so that a security guard who sees this display can easily confirm the occurrence of the abandoned object. In this way, by making the display form of the detected area of the neglected object different from that of the other areas, it is possible to alert the security guard to the detected neglected object. Therefore, the security guard can take a quick response to the abandoned object.

【0034】なお、検出されてから所定時間経過してい
ない放置物体であっても、特定の操作が行われたときに
は画面上に表示させなくする機能を設けてもよい。ま
た、放置物体を検出した時間を表示するとしたが、検出
してからの経過時間を表示するようにしてもよい。
It is to be noted that a function may be provided to prevent a displayed object from being displayed on the screen when a specific operation is performed, even for an abandoned object for which a predetermined time has not elapsed since the detection. Further, although the time at which the abandoned object is detected is displayed, the elapsed time from the detection may be displayed.

【0035】図8は、この実施形態にかかる指定画像抽
出部8の処理を示す図である。表示画面上には、カーソ
ルが表示されており、警備員がこのカーソルを移動させ
て任意の位置を指定することができる。指定画像抽出部
8は、表示画面上の任意の位置が指定されると、その位
置に放置物体が存在しているかどうか(放置物体が指定
されたかどうか)を判定する(n41)。放置物体が指
定されたと判定すると、放置物体情報管理部5から指定
された放置物体の状況情報を取り込む(n42)。この
状況情報からこの放置物体が検出された時刻を読み出す
(n43)。指定画像抽出部8は、画像記録部2に時系
列に記録されている画像からn43で獲得した時刻の画
像(検出時画像)を取り出し(n44)、この検出時画
像を表示制御部6に入力する(n45)。表示制御部6
では、検出時画像が入力されると、上記した図5に示し
た処理を中断し、この検出時画像を表示部7に表示させ
る。
FIG. 8 is a diagram showing the processing of the designated image extracting unit 8 according to this embodiment. A cursor is displayed on the display screen, and the guard can move the cursor to specify an arbitrary position. When an arbitrary position on the display screen is designated, the designated image extracting unit 8 determines whether an abandoned object exists at that position (whether an abandoned object is designated) (n41). When it is determined that the abandoned object is specified, the status information of the specified abandoned object is fetched from the abandoned object information management unit 5 (n42). The time at which the abandoned object is detected is read from the status information (n43). The designated image extracting unit 8 extracts the image (image at the time of detection) obtained at n43 from the images recorded in time series in the image recording unit 2 (n44), and inputs the image at the time of detection to the display control unit 6. (N45). Display control unit 6
When the image at the time of detection is input, the processing shown in FIG. 5 is interrupted, and the image at the time of detection is displayed on the display unit 7.

【0036】このように、指定画像抽出部8では、画面
上に表示されている放置物体が指定されたときに、その
放置物体を検出したときの画像を取り出し、表示部7に
表示するようにしたため、この放置物体が放置されたと
きの状況や放置者の確認を簡単に行える。したがって、
放置物体が忘れ物や落とし物であれば、この放置物体の
所有者の確認が容易に行える。また、放置された状況か
ら放置物体が危険物であるかどうかという確認もでき、
危険物に対して迅速に対応することができる。
As described above, the designated image extracting section 8 takes out the image when the abandoned object is detected when the abandoned object displayed on the screen is designated, and displays the image on the display section 7. Therefore, it is possible to easily confirm the situation when the abandoned object is abandoned and the abandoned person. Therefore,
If the abandoned object is a lost or lost item, the owner of the abandoned object can be easily confirmed. In addition, we can confirm whether abandoned object is dangerous substance from situation that was left alone,
Respond quickly to dangerous goods.

【0037】なお、放置物体検出部4において、新たな
放置物体を検出したときに警報を出力させるようにして
もよい。警報の出力としては、ブザーを鳴らす等して音
や音声で警備員に放置物体が検出されたことを通知する
ようにしてもよいし、パトランプ等を駆動させて光によ
り警備員に放置物体が検出されたことを通知するように
してもよい。このようにすれば、警備員が放置物体に対
してより迅速に対応することができるようになる。ま
た、検出した放置物体以外の画像はモノクロ表示し、放
置物体の画像はカラー表示することにより、表示部7の
画面上において放置物体の表示を強調するようにしても
よい。また、放置物体の画像を表示部7の画面上におい
て拡大表示させる機能を設けてもよい。このようにすれ
ば、小さなものが放置された場合であっても、容易にそ
の放置物体を表示部7の画面上で確認することができ
る。
It should be noted that the abandoned object detection unit 4 may output an alarm when a new abandoned object is detected. The alarm may be output by sounding or sounding a buzzer to notify the guard that the neglected object has been detected, or by driving a patrol lamp or the like to notify the guard by light. You may make it notify that it was detected. In this way, the guard can respond more quickly to the abandoned object. In addition, the image other than the detected abandoned object may be displayed in monochrome, and the image of the abandoned object may be displayed in color to emphasize the display of the abandoned object on the screen of the display unit 7. Further, a function of enlarging and displaying the image of the neglected object on the screen of the display unit 7 may be provided. In this way, even if a small object is left, the left object can be easily confirmed on the screen of the display unit 7.

【0038】次に、この発明にかかる監視画像表示シス
テムの別の実施形態について説明する。図9はこの実施
形態にかかる監視画像表示システムの構成を示す図であ
る。この図において、図1に記載した構成と同じ処理を
行う構成については同一の符号を付している。この実施
形態にかかる監視画像表示システムは、図1に記載した
監視画像表示システムの構成に、紛失した物体を検出す
る紛失物体検出部11と、基準画像管理部3で管理され
ている基準画像の更新を行う基準画像更新部12を加え
た構成である。この実施形態の監視画像表示システム
は、上記した実施形態と同様の処理によって、放置物体
を検出する。また、画像入力部1の撮像領域中から移動
させられた物体(紛失物体)も検出することができる。
この実施形態にかかる監視画像表示システムにおいて、
放置物体を検出する処理は上記した実施形態と同様であ
る。ここでは、放置物体を検出する処理については説明
を省略し、紛失した物体を検出する処理について説明す
る。
Next, another embodiment of the monitoring image display system according to the present invention will be described. FIG. 9 is a diagram showing the configuration of the monitoring image display system according to this embodiment. In this figure, components that perform the same processing as the components described in FIG. 1 are denoted by the same reference numerals. The surveillance image display system according to this embodiment has the same configuration as the surveillance image display system shown in FIG. 1 except that a lost object detection unit 11 for detecting a lost object and a reference image managed by the reference image management unit 3 are added. This is a configuration in which a reference image updating unit 12 for updating is added. The surveillance image display system of this embodiment detects an abandoned object by the same processing as in the above-described embodiment. Further, an object (lost object) that has been moved from within the imaging area of the image input unit 1 can also be detected.
In the monitoring image display system according to this embodiment,
The process of detecting an abandoned object is the same as in the above embodiment. Here, the description of the process of detecting an abandoned object will be omitted, and the process of detecting a lost object will be described.

【0039】紛失物体検出部11は、図10に示す載置
物体情報記憶エリアを有している。この載置物体情報記
憶エリアは、基準画像にある移動可能な物体(例えば、
植木や椅子等の載置物体)毎に、基準画像上における領
域が記憶されている。また、物体毎に紛失した時刻(紛
失時刻)を対応させて記憶するための記憶エリアを有し
ている。
The lost object detector 11 has a mounted object information storage area shown in FIG. The mounted object information storage area stores a movable object (for example,
An area on the reference image is stored for each mounted object such as a flowering plant or a chair. In addition, it has a storage area for storing the lost time (lost time) in association with each object.

【0040】図11は、この実施形態にかかる紛失物体
検出部の処理を示すフローチャートである。紛失物体検
出部11は、放置物体情報管理部5に新たに検出された
放置物体の状況情報が記憶されると、その放置物体の存
在している領域を取り込む(n51)。そして、載置物
体情報記憶エリアに記憶されている載置物体の中にn5
1で取り込んだ領域と略一致する領域のものがあるかど
うかを判定する(n52)。n52で同じ領域のものが
あると、これは何らかの物体が放置されたのではなく、
その場所に元々存在していた載置物体が移動させられた
のである。すなわち、元々あった載置物体が紛失したの
である。紛失物体検出部11は、n52で同じ領域のも
のがあると判定すると、放置物体情報管理部5において
記憶されている、この物体に関する状況情報を取り込む
とともに、これを削除する(n53)。そして、載置物
体情報記憶エリアにおける該物体に対して紛失時刻等を
記憶する(n54)。なお、紛失時刻等の記憶は、n5
3で取り込んだ状況情報に基づいて行う。
FIG. 11 is a flowchart showing the processing of the lost object detection unit according to this embodiment. When the status information of the newly detected abandoned object is stored in the abandoned object information management unit 5, the lost object detection unit 11 takes in the area where the abandoned object exists (n51). Then, n5 is included in the mounted object stored in the mounted object information storage area.
It is determined whether or not there is an area that substantially matches the area captured in step 1 (n52). If there is a thing in the same area at n52, this means that some object has not been abandoned,
The mounted object that originally existed at that location was moved. That is, the originally placed object has been lost. If the lost object detection unit 11 determines that there is an object in the same area in n52, the lost object detection unit 11 takes in the situation information on this object stored in the neglected object information management unit 5 and deletes it (n53). Then, the lost time and the like are stored for the object in the mounted object information storage area (n54). The lost time and the like are stored in n5
This is performed based on the status information captured in step 3.

【0041】以上のように、紛失物体検出部11を設け
たことで、物体が放置されたことだけでなく、元々あっ
た物体が紛失したことも検出できる。なお、n52で同
じ領域のものがなければ、検出された物体は放置物体で
ある。放置物体に対しては、上記した実施形態と同様の
処理を行う。
As described above, the provision of the lost object detection unit 11 can detect not only that the object has been abandoned, but also that the originally existing object has been lost. If there is no object in the same area in n52, the detected object is a neglected object. The same processing as in the above-described embodiment is performed on an abandoned object.

【0042】図12は、この実施形態にかかる基準画像
更新部の処理を示すフローチャートである。基準画像更
新部12は、紛失物体検出部11において、紛失物体を
検出すると(n61)、基準画像管理部3から基準画像
を取り込むとともに、この紛失物体の検出に使用された
比較画像を取り込む(n62、n63)。そして、基準
画像上において、検出された紛失物体の存在していた領
域の画像をこの比較画像の対応する領域の画像に置き換
える(n64)。例えば、基準画像が図13(A)に示
すものであったときに、図中に示す物体Bを紛失物体と
して検出した場合、基準画像はこの処理によって図13
(B)に示す画像に更新される。
FIG. 12 is a flowchart showing the processing of the reference image updating unit according to this embodiment. When the lost object detection unit 11 detects a lost object (n61), the reference image update unit 12 captures the reference image from the reference image management unit 3 and captures the comparison image used for detecting the lost object (n62). , N63). Then, on the reference image, the image of the area where the detected lost object was present is replaced with the image of the area corresponding to this comparison image (n64). For example, when the reference image is the one shown in FIG. 13A, and the object B shown in the figure is detected as a lost object, the reference image is converted into the one shown in FIG.
The image is updated to the image shown in (B).

【0043】このように、元々存在していた載置物体が
紛失したときには、基準画像更新部12において基準画
像を更新する。したがって、載置物体が紛失した後に、
その場所に新たな物体が放置された場合にも、それを放
置物体として検出することができる。なお、表示制御部
6は、表示装置7にこの紛失物体を一定時間だけ強調し
て表示させる。このとき、紛失物体の画像は基準画像の
対応する領域から取り出す。
As described above, when the originally placed object is lost, the reference image updating unit 12 updates the reference image. Therefore, after the mounted object is lost,
Even when a new object is left at that location, it can be detected as a left object. Note that the display control unit 6 causes the display device 7 to display the lost object in a highlighted manner for a certain period of time. At this time, the image of the lost object is extracted from the corresponding area of the reference image.

【0044】また、上記した2つの実施形態において、
基準画像管理部3の構成を図14に示す構成に変更して
もよい。この実施形態にかかる基準画像管理部3は、基
準画像記憶エリア21と基準画像選択部22を備えてい
る。ここで、画像入力部1で撮像される画像は、朝、
昼、夕方、夜等では、外乱光により撮像された画像の明
るさ等が変化する。したがって、基準画像が常に同じで
あるとこれらの外乱光の明るさの変化によって、放置物
体または紛失物体を誤検出する可能性が高くなる。そこ
で、この実施形態では、基準画像記憶エリア21に時刻
の違いによる基準画像を複数記憶させている。また、基
準画像選択部22がそのときの時刻により、基準画像記
憶エリア21に記憶されている複数の基準画像から適当
な基準画像を1つ選択する。これにより、外乱光による
明るさの変化によって、放置物体または紛失物体を誤検
出する可能性が高くなることもなく、放置物体や紛失物
体を正確に検出することができる。なお、天候の違いや
ドアの開閉状態やシャッタの開閉状態等が違う基準画像
を記憶させておき、基準画像選択部22をその時の状態
に応じて適当に選択するようにしてもよい。
In the above two embodiments,
The configuration of the reference image management unit 3 may be changed to the configuration shown in FIG. The reference image management unit 3 according to this embodiment includes a reference image storage area 21 and a reference image selection unit 22. Here, the image captured by the image input unit 1 is in the morning,
In daytime, evening, night, and the like, the brightness and the like of an image captured by disturbance light change. Therefore, if the reference image is always the same, there is a high possibility that an abandoned object or a lost object is erroneously detected due to a change in the brightness of the disturbance light. Therefore, in this embodiment, a plurality of reference images based on the difference in time are stored in the reference image storage area 21. Further, the reference image selecting unit 22 selects one appropriate reference image from the plurality of reference images stored in the reference image storage area 21 according to the time at that time. This makes it possible to accurately detect an abandoned object or a lost object without increasing the possibility of erroneously detecting an abandoned object or a lost object due to a change in brightness due to disturbance light. It is also possible to store a reference image having a different weather, an open / closed state of the door, an open / closed state of the shutter, and the like, and appropriately select the reference image selecting unit 22 according to the state at that time.

【0045】さらに、画像入力部1に撮像範囲を切り換
える機能を設け、基準画像記憶エリア21に撮像範囲毎
の基準画像を記憶させておいてもよい。このようにすれ
ば、画像入力部1の撮像範囲を切り換えて、放置物体の
検出を行うことができるようになるので、広い範囲の監
視を行うことができる。
Further, the image input unit 1 may be provided with a function of switching the imaging range, and the reference image for each imaging range may be stored in the reference image storage area 21. This makes it possible to detect an abandoned object by switching the imaging range of the image input unit 1, so that a wide range of monitoring can be performed.

【0046】次に、本実施形にかかる装置の応用例につ
いて説明する。 (1)画像入力部1を路上に設置して駐車された車を撮
像させれば、違法駐車の検知を行うことができ、違法駐
車の取締りにかかる手間を削減できる。 (2)画像入力部1の撮像領域を踏切内とすれば、踏切
内で立ち往生している車や人を検知することができ、踏
切内での事故を防止することができる。
Next, an application example of the device according to the present embodiment will be described. (1) If the image input unit 1 is installed on a road and an image of a parked car is taken, illegal parking can be detected, and the time and effort required to control illegal parking can be reduced. (2) If the image capturing area of the image input unit 1 is within a railroad crossing, a car or a person stuck in the railroad crossing can be detected, and an accident at the railroad crossing can be prevented.

【0047】(3)画像入力部1の撮像領域を動物園の
檻の中とすれば、病気や怪我で動かなくなった動物を検
知することができ、このような動物に対する処置を迅速
に行うことができるようになる。
(3) If the imaging area of the image input unit 1 is set in a cage of a zoo, an animal that cannot move due to illness or injury can be detected, and treatment for such an animal can be performed quickly. become able to.

【0048】[0048]

【発明の効果】以上のように、請求項1および10に記
載した発明は、所定領域を時系列に撮像して得られた画
像と該所定領域の画像とが異なる画像領域の中から時間
的に変化していない画像領域を抽出することにより、放
置物体の発生した領域を正確に検出できる。
As described above, according to the first and tenth aspects of the present invention, an image obtained by imaging a predetermined area in time series and an image of the predetermined area are different from each other in time. By extracting the image area that has not changed to the above, the area where the neglected object has occurred can be accurately detected.

【0049】また、請求項2および11に記載した発明
は、撮像した画像中における移動物体をキャンセルした
比較画像を作成することで、人等の移動している物体を
放置物体として誤検出することがない。
According to the second and eleventh aspects of the present invention, a moving object such as a person is erroneously detected as an abandoned object by creating a comparison image in which a moving object in a captured image is canceled. There is no.

【0050】請求項3および12に記載した発明は、放
置物体または紛失物体が発生した領域を抽出したとき
に、その時の状況情報を対応させて記憶するようにした
ため、放置物体または紛失物体が発生したときの状況を
簡単に知ることができる。
According to the third and twelfth aspects of the present invention, when an area in which an abandoned object or a lost object has been extracted is extracted, the situation information at that time is stored in association with the extracted area. You can easily know the situation when you did.

【0051】請求項4および13に記載した発明は、状
況情報として時刻を記憶するようにしたので、放置物体
または紛失物体が発生した時刻を簡単に知ることができ
る。
According to the fourth and thirteenth aspects of the present invention, the time is stored as the situation information, so that the time at which an abandoned object or a lost object has occurred can be easily known.

【0052】請求項5および14に記載した発明は、状
況情報を基に放置物体または紛失物体が発生した時の画
像を画像記録部から出力させることにより簡単に確認す
ることができる。
According to the fifth and fourteenth aspects of the present invention, it is possible to easily confirm an image when an abandoned object or a lost object is generated from the image recording unit based on the situation information.

【0053】請求項6および15に記載した発明は、判
定手段によって放置物体が発生したのか、紛失物体が発
生したのかを判定することができる。
According to the sixth and fifteenth aspects of the present invention, it is possible to determine whether an abandoned object or a lost object has occurred by the determining means.

【0054】請求項7および16に記載した発明は、基
準画像上に存在する物体が無くなったとき(紛失物体が
発生したとき)には、自動的に基準画像を更新すること
ができる。
According to the inventions described in claims 7 and 16, when the object existing on the reference image is lost (when a lost object is generated), the reference image can be automatically updated.

【0055】請求項8および17に記載した発明は、放
置物体または紛失物体が発生した画像領域とその他の画
像領域とを区別して表示するため、この表示から放置物
体または紛失物体の発生を簡単に確認することができ
る。したがって、放置物体または紛失物体に対して迅速
な対応をとることができる。
According to the inventions described in claims 8 and 17, since the image area in which the neglected object or the lost object has occurred and the other image area are displayed separately, the occurrence of the neglected object or the lost object can be easily determined from this display. You can check. Therefore, it is possible to quickly respond to an abandoned object or a lost object.

【0056】請求項9および18に記載した発明は、放
置物体または紛失物体が発生した画像領域に対応させ
て、発生した時刻または発生してからの経過時間が表示
されるため、これを簡単に知ることができる。
According to the ninth and eighteenth aspects of the present invention, the time of occurrence or the elapsed time since the occurrence is displayed in association with the image area in which an abandoned object or a lost object has occurred. You can know.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態にかかる監視画像表示シス
テムの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a monitoring image display system according to an embodiment of the present invention.

【図2】この実施形態にかかる画像記録部の処理を示す
フローチャートである。
FIG. 2 is a flowchart illustrating a process of an image recording unit according to the embodiment;

【図3】この実施形態にかかる放置物体検出部の処理を
示すフローチャートである。
FIG. 3 is a flowchart illustrating processing of a neglected object detection unit according to the embodiment;

【図4】この実施形態にかかる基準画像管理部の処理を
示すフローチャートである。
FIG. 4 is a flowchart illustrating processing of a reference image management unit according to the embodiment.

【図5】状況商法記憶エリアの構成を示す図である。FIG. 5 is a diagram showing a configuration of a situation commercial law storage area.

【図6】この実施形態にかかる表示制御部の処理を示す
フローチャートである。
FIG. 6 is a flowchart illustrating a process of a display control unit according to the embodiment;

【図7】表示装置での表示例を示す図である。FIG. 7 is a diagram illustrating a display example on a display device.

【図8】この実施形態にかかる指定画像抽出部の処理を
示すフローチャートである。
FIG. 8 is a flowchart illustrating processing of a designated image extracting unit according to the embodiment.

【図9】この発明の他の実施形態にかかる監視画像表示
システムの構成を示す図である。
FIG. 9 is a diagram showing a configuration of a monitoring image display system according to another embodiment of the present invention.

【図10】紛失物体情報記憶エリアの構成を示す図であ
る。
FIG. 10 is a diagram showing a configuration of a lost object information storage area.

【図11】この実施形態にかかる紛失物体検出部の処理
を示すフローチャートである。
FIG. 11 is a flowchart illustrating processing of a lost object detection unit according to the embodiment;

【図12】この実施形態にかかる基準画像更新部の処理
を示す図である。
FIG. 12 is a diagram showing processing of a reference image updating unit according to the embodiment.

【図13】更新前後の基準画像を示す図である。FIG. 13 is a diagram showing reference images before and after updating.

【図14】この発明の他の実施形態にかかる基準画像管
理部の構成を示す図である。
FIG. 14 is a diagram showing a configuration of a reference image management unit according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1−画像入力部 2−画像記録部 3−基準画像管理部 4−放置物体検出部 5−放置物体情報管理部 6−表示制御部 7−表示部 8−指定画像抽出部 11−紛失物体検出部 12−基準画像更新部 1-Image input unit 2-Image recording unit 3-Reference image management unit 4-Abandoned object detection unit 5-Abandoned object information management unit 6-Display control unit 7-Display unit 8-Designated image extraction unit 11-Lost object detection unit 12-Reference image update unit

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 所定領域を時系列に撮像して得られる画
像から該所定領域の基準画像と異なる画像領域で、且
つ、その位置が時間的に変化しない画像領域を抽出する
抽出手段を備えたことを特徴とする画像処理装置。
An extracting unit configured to extract an image area different from a reference image of the predetermined area and whose position does not change with time from an image obtained by imaging the predetermined area in time series. An image processing apparatus characterized by the above-mentioned.
【請求項2】 前記抽出手段は、所定領域を時系列に撮
像して得られる複数の画像を処理し、該所定領域を撮像
した画像から移動物体をキャンセルした比較画像を作成
し、この比較画像と前記基準画像とが異なる画像領域を
抽出する手段であることを特徴とする請求項1記載の画
像処理装置。
2. The image processing apparatus according to claim 1, wherein the extracting unit processes a plurality of images obtained by imaging the predetermined area in time series, creates a comparison image in which a moving object is canceled from the image obtained by imaging the predetermined area, and 2. The image processing apparatus according to claim 1, wherein the image processing unit extracts a different image area from the reference image.
【請求項3】 前記抽出手段により抽出した画像領域に
対して、該画像領域の抽出時の状況情報を対応させて記
憶する記憶手段を備えたことを特徴とする請求項1また
は2に記載の画像処理装置。
3. The image processing apparatus according to claim 1, further comprising a storage unit configured to store, in association with the image region extracted by the extraction unit, status information at the time of extracting the image region. Image processing device.
【請求項4】 前記状況情報は、該画像領域を抽出した
時刻であることを特徴とする請求項3記載の画像処理装
置。
4. The image processing apparatus according to claim 3, wherein the status information is a time when the image area is extracted.
【請求項5】 所定領域を撮像した画像を録画する録画
手段と、 前記状況情報をキーとして前記録画手段に録画されてい
る画像から対応する画像を取り出して出力する出力手段
と、を備えたことを特徴とする請求項3または4に記載
の画像処理装置。
5. A recording device for recording an image obtained by capturing an image of a predetermined area, and an output device for extracting and outputting a corresponding image from an image recorded on the recording device using the status information as a key. The image processing apparatus according to claim 3, wherein:
【請求項6】 前記抽出手段により抽出された画像領域
について、前記基準画像にある物体が撮像された画像上
に存在していないのか、前記基準画像上に存在していな
い物体が撮像された画像上に存在しているのか、どちら
であるかを判定する判定手段を備えたことを特徴とする
請求項1〜4、または、5のいずれかに記載の画像処理
装置。
6. An image in which, for the image area extracted by the extracting means, whether an object in the reference image does not exist in the image in which the object is imaged or an image in which an object not existing in the reference image is imaged. The image processing apparatus according to claim 1, further comprising: a determination unit configured to determine whether the image is present on the image processing apparatus.
【請求項7】 前記判定手段による判定が、前記基準画
像にある物体が撮像された画像上に存在していない、と
するものであるとき、 前記基準画像におけるこの画像領域を現在の画像の対応
する画像領域に更新する基準画像更新手段を備えたこと
を特徴とする請求項6記載の画像処理装置。
7. When the determination by the determination means is that an object in the reference image does not exist in the captured image, the image area in the reference image corresponds to the current image. 7. The image processing apparatus according to claim 6, further comprising a reference image updating unit that updates an image area to be updated.
【請求項8】 請求項1〜6、または、7のいずれかに
記載の画像処理装置を備え、 さらに、抽出手段で抽出された画像領域と他の画像領域
とを区別して表示する表示装置を設けたことを特徴とす
る監視画像表示システム。
8. A display device, comprising: the image processing device according to claim 1; and a display device that distinguishes and displays an image region extracted by the extraction unit from another image region. A surveillance image display system, which is provided.
【請求項9】 請求項1〜6、または、7のいすれかに
記載の画像処理装置を備え、 さらに、抽出手段で抽出された画像領域と対応させて、
その画像領域が抽出された時刻またはその画像領域が抽
出されてからの経過時間を表示する表示装置を設けたこ
とを特徴とする監視画像表示システム。
9. An image processing apparatus according to any one of claims 1 to 6, or 7, further comprising:
A surveillance image display system comprising a display device for displaying a time at which the image area is extracted or an elapsed time since the image area is extracted.
【請求項10】 所定領域を時系列に撮像して得られる
画像から該所定領域の基準画像と異なる画像領域で、且
つ、その位置が時間的に変化しない画像領域を抽出する
画像処理方法。
10. An image processing method for extracting, from an image obtained by imaging a predetermined area in time series, an image area different from the reference image of the predetermined area and whose position does not change with time.
【請求項11】 所定領域を時系列に撮像して得られる
複数の画像を処理し、該所定領域を撮像した画像から移
動物体をキャンセルした比較画像を作成し、この比較画
像と前記基準画像との異なる画像領域を抽出する請求項
10記載の画像処理方法。
11. A method for processing a plurality of images obtained by imaging a predetermined area in time series, creating a comparison image in which a moving object is canceled from the image obtained by imaging the predetermined area, and comparing the comparison image with the reference image. The image processing method according to claim 10, wherein different image regions are extracted.
【請求項12】 抽出した画像領域に、該画像領域の抽
出時の状況情報を対応させて記憶する請求項10または
11に記載の画像処理方法。
12. The image processing method according to claim 10, wherein the extracted image area is stored in association with status information at the time of extracting the image area.
【請求項13】 前記状況情報として、該画像領域を抽
出した時刻を記憶する請求項12記載の画像処理方法。
13. The image processing method according to claim 12, wherein a time at which the image area is extracted is stored as the status information.
【請求項14】 所定領域を撮像した画像を録画してお
き、前記状況情報をキーとして録画されている画像から
対応する画像を取り出して出力する請求項12または1
3に記載の画像処理方法。
14. An image obtained by capturing an image of a predetermined area, and extracting and outputting a corresponding image from the recorded image using the status information as a key.
3. The image processing method according to 3.
【請求項15】 抽出された画像領域について、前記基
準画像にある物体が撮像された画像上に存在していない
のか、前記基準画像上に存在していない物体が撮像され
た画像上に存在しているのか、どちらであるかを判定す
ることを特徴とする請求項10〜13、または、14の
いずれかに記載の画像処理方法。
15. In the extracted image area, whether an object in the reference image does not exist in the captured image or an object not existing in the reference image exists in the captured image. The image processing method according to any one of claims 10 to 13 or 14, wherein it is determined which of the following is true.
【請求項16】 前記判定が、前記基準画像にある物体
が撮像された画像上に存在していない、とするものであ
るとき、 前記基準画像におけるこの画像領域を現在の画像の対応
する画像領域に更新する請求項15記載の画像処理方
法。
16. When the determination is that the object in the reference image does not exist in the captured image, the image area in the reference image is set to a corresponding image area of a current image. The image processing method according to claim 15, wherein the updating is performed.
【請求項17】 請求項10〜15、または、16のい
ずれかに記載の画像処理方法により抽出された画像領域
と他の画像領域とを区別して表示することを特徴とする
監視画像表示方法。
17. A surveillance image display method characterized by displaying an image area extracted by the image processing method according to claim 10 and another image area separately.
【請求項18】 請求項10〜15、または、16のい
ずれかに記載の画像処理方法により抽出された画像領域
に対応させて、その画像領域が抽出された時刻またはそ
の画像領域が抽出されてからの経過時間を表示すること
を特徴とする監視画像表示方法。
18. The time when the image area is extracted or the time when the image area is extracted, corresponding to the image area extracted by the image processing method according to claim 10. A surveillance image display method, characterized by displaying an elapsed time from the monitoring image.
JP9083678A 1997-04-02 1997-04-02 Image processor, monitoring image display system, image processing method and monitoring image display method Pending JPH10285586A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9083678A JPH10285586A (en) 1997-04-02 1997-04-02 Image processor, monitoring image display system, image processing method and monitoring image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9083678A JPH10285586A (en) 1997-04-02 1997-04-02 Image processor, monitoring image display system, image processing method and monitoring image display method

Publications (1)

Publication Number Publication Date
JPH10285586A true JPH10285586A (en) 1998-10-23

Family

ID=13809150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9083678A Pending JPH10285586A (en) 1997-04-02 1997-04-02 Image processor, monitoring image display system, image processing method and monitoring image display method

Country Status (1)

Country Link
JP (1) JPH10285586A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104130A (en) * 2006-10-23 2008-05-01 Hitachi Ltd Apparatus and system for monitoring video
JP2009152748A (en) * 2007-12-19 2009-07-09 Mitsubishi Electric Corp Image processing device for monitoring neglected object
JP2009159448A (en) * 2007-12-27 2009-07-16 Sogo Keibi Hosho Co Ltd Object detecting apparatus, and object detecting method
JP2009268080A (en) * 2008-04-04 2009-11-12 Canon Inc Monitoring device
JP2010218227A (en) * 2009-03-17 2010-09-30 Nec Fielding Ltd Electronic album creation device, method, program, system, server, information processor, terminal equipment, and image pickup device
JP2011015326A (en) * 2009-07-06 2011-01-20 Mitsubishi Electric Corp Monitoring support device
JP2011054036A (en) * 2009-09-03 2011-03-17 Fujitsu Ltd Apparatus, program and method for processing image
JP2011239166A (en) * 2010-05-10 2011-11-24 Canon Inc Image processing apparatus, method, and program
JP2012208878A (en) * 2011-03-30 2012-10-25 Secom Co Ltd Image monitoring device
JP2013026723A (en) * 2011-07-19 2013-02-04 Toa Corp Monitoring device and program
JP2015194833A (en) * 2014-03-31 2015-11-05 オムロン株式会社 Failure determination device and program
US10691947B2 (en) 2016-09-23 2020-06-23 Hitachi Kokusai Electric Inc. Monitoring device
US10846536B2 (en) 2014-06-27 2020-11-24 Nec Corporation Abnormality detection device and abnormality detection method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159537B2 (en) 2006-10-23 2012-04-17 Hitachi, Ltd. Video surveillance equipment and video surveillance system
JP2008104130A (en) * 2006-10-23 2008-05-01 Hitachi Ltd Apparatus and system for monitoring video
KR101350777B1 (en) * 2006-10-23 2014-01-15 가부시키가이샤 히타치세이사쿠쇼 Image monitoring apparatus and system
JP2009152748A (en) * 2007-12-19 2009-07-09 Mitsubishi Electric Corp Image processing device for monitoring neglected object
JP2009159448A (en) * 2007-12-27 2009-07-16 Sogo Keibi Hosho Co Ltd Object detecting apparatus, and object detecting method
JP2009268080A (en) * 2008-04-04 2009-11-12 Canon Inc Monitoring device
JP2010218227A (en) * 2009-03-17 2010-09-30 Nec Fielding Ltd Electronic album creation device, method, program, system, server, information processor, terminal equipment, and image pickup device
JP2011015326A (en) * 2009-07-06 2011-01-20 Mitsubishi Electric Corp Monitoring support device
JP2011054036A (en) * 2009-09-03 2011-03-17 Fujitsu Ltd Apparatus, program and method for processing image
JP2011239166A (en) * 2010-05-10 2011-11-24 Canon Inc Image processing apparatus, method, and program
JP2012208878A (en) * 2011-03-30 2012-10-25 Secom Co Ltd Image monitoring device
JP2013026723A (en) * 2011-07-19 2013-02-04 Toa Corp Monitoring device and program
JP2015194833A (en) * 2014-03-31 2015-11-05 オムロン株式会社 Failure determination device and program
US10846536B2 (en) 2014-06-27 2020-11-24 Nec Corporation Abnormality detection device and abnormality detection method
US11106918B2 (en) 2014-06-27 2021-08-31 Nec Corporation Abnormality detection device and abnormality detection method
US11250268B2 (en) 2014-06-27 2022-02-15 Nec Corporation Abnormality detection device and abnormality detection method
US10691947B2 (en) 2016-09-23 2020-06-23 Hitachi Kokusai Electric Inc. Monitoring device

Similar Documents

Publication Publication Date Title
JP5040258B2 (en) Video surveillance apparatus, video surveillance system, and image processing method
CN105390021B (en) The detection method and device of parking space state
KR101237970B1 (en) Image survailance system and method for detecting left-behind/taken-away of the system
US8588466B2 (en) Object area detection system, device, method, and program for detecting an object
US6999004B2 (en) System and method for vehicle detection and tracking
JP6674584B2 (en) Video surveillance system
JPH10285586A (en) Image processor, monitoring image display system, image processing method and monitoring image display method
US20070122000A1 (en) Detection of stationary objects in video
US20080247601A1 (en) Image processing apparatus and image processing method
US9514225B2 (en) Video recording apparatus supporting smart search and smart search method performed using video recording apparatus
CN111783744A (en) Operation site safety protection detection method and device
US11776274B2 (en) Information processing apparatus, control method, and program
US20130108102A1 (en) Abandoned Object Recognition Using Pedestrian Detection
US11120838B2 (en) Information processing apparatus, control method, and program
US20160210759A1 (en) System and method of detecting moving objects
CN110544312A (en) Video display method and device in virtual scene, electronic equipment and storage device
Mathew et al. Detecting new stable objects in surveillance video
CN113468918A (en) Package detection method, device, equipment and storage medium
JP2001043383A (en) Image monitoring system
JPH06266774A (en) Video data preserving device
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JPH0514891A (en) Image monitor device
KR20030040434A (en) Vision based method and apparatus for detecting an event requiring assistance or documentation
WO2009066994A2 (en) Method for detecting unattended object and removal of static object
US10223619B2 (en) Video monitoring apparatus, control apparatus, control method, and non-transitory readable storage medium