JP2020149132A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2020149132A
JP2020149132A JP2019044058A JP2019044058A JP2020149132A JP 2020149132 A JP2020149132 A JP 2020149132A JP 2019044058 A JP2019044058 A JP 2019044058A JP 2019044058 A JP2019044058 A JP 2019044058A JP 2020149132 A JP2020149132 A JP 2020149132A
Authority
JP
Japan
Prior art keywords
image
region
pixels
shadow
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019044058A
Other languages
Japanese (ja)
Other versions
JP7290961B2 (en
Inventor
山口 純
Jun Yamaguchi
純 山口
庸平 澤井
Yohei Sawai
庸平 澤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019044058A priority Critical patent/JP7290961B2/en
Publication of JP2020149132A publication Critical patent/JP2020149132A/en
Application granted granted Critical
Publication of JP7290961B2 publication Critical patent/JP7290961B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To accurately discriminate a difference region extracted from a captured image into a moving body region and a shadow region.SOLUTION: First difference processing means 44 compares a target image 36a which is one of captured images 36, with a background image 38, and extracts a background difference region 62 composed of background difference extraction pixels that differ between the two images. Second difference processing means 50 compares the target image 36a with a past image 36b taken in the past by a difference period before the target image 36a to extract an inter-frame difference region 68 composed of inter-frame difference extraction pixels that differ between the two images. Shadow region determining means 52 determines a pixel group also extracted as inter-frame difference pixels by inter-frame difference processing as a moving body region 70 corresponding to a person, among each of the background difference extraction pixels included in the background difference region 62, and determines a pixel group not extracted as the inter-frame difference pixels by the inter-frame difference processing as a shadow region 72 corresponding to a shadow of the person, among each of the background difference extraction pixels included in the background difference region 62.SELECTED DRAWING: Figure 2

Description

本発明は、撮影画像内から移動体の画像領域を示す移動体領域を検出する画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for detecting a moving body region indicating an image region of a moving body from within a captured image.

従来、所定領域(監視領域)をカメラで撮影して取得した撮影画像と、背景画像(監視領域に移動体が存在しない画像)との間の差分領域を抽出する処理が行われている。例えば、監視領域内に人物などの移動体が侵入してきた場合に、撮影画像から差分領域が抽出される。 Conventionally, a process of extracting a difference area between a captured image acquired by photographing a predetermined area (monitoring area) with a camera and a background image (an image in which a moving body does not exist in the monitoring area) is performed. For example, when a moving object such as a person invades the monitoring area, the difference area is extracted from the captured image.

差分領域には、移動体自体の他に移動体の影が含まれる場合がある。したがって、従来、撮影画像から抽出された差分領域の画像特徴に基づいて、当該差分領域が移動体を示す移動体領域であるのか、影を示す影領域であるのかを判定する処理が行われていた。 The difference region may include the shadow of the moving body in addition to the moving body itself. Therefore, conventionally, a process of determining whether the difference region is a moving body region indicating a moving body or a shadow region indicating a shadow is performed based on the image features of the difference region extracted from the captured image. It was.

例えば、特許文献1には、撮影画像から抽出された差分領域のうち、背景画像内における当該差分領域のテクスチャと類似するテクスチャを有し、かつ、背景画像よりも輝度値が低い差分領域を影領域と判定する処理が開示されている。 For example, in Patent Document 1, among the difference regions extracted from the captured image, the difference region having a texture similar to the texture of the difference region in the background image and having a lower brightness value than the background image is shaded. The process of determining the area is disclosed.

特開2012−43021号公報Japanese Unexamined Patent Publication No. 2012-43021

従来のように、テクスチャあるいは輝度値に着目して影領域を判定する方法では、精度良く影領域を判定できない場合があった。例えば、背景画像にテクスチャが無い場合(例えば床面に模様や形が無い場合、床面に模様などがあったとしても背景画像又は撮影画像において差分領域の輝度が高すぎてテクスチャが識別できない場合)、本来、影領域であるにもかかわらず、影領域ではないと誤判定してしまう場合があった。 In the conventional method of determining the shadow area by focusing on the texture or the brightness value, the shadow area may not be determined accurately. For example, when there is no texture in the background image (for example, when there is no pattern or shape on the floor surface, or when there is a pattern on the floor surface, the brightness of the difference area is too high in the background image or the captured image and the texture cannot be identified. ), Although it is originally a shadow area, it may be erroneously determined that it is not a shadow area.

本発明の目的は、撮影画像から抽出された差分領域を移動体領域と影領域とに精度良く弁別することにある。 An object of the present invention is to accurately discriminate a difference region extracted from a captured image into a moving body region and a shadow region.

本発明は、所定領域を順次撮影した撮影画像のうちの対象画像から移動体の画像領域を示す移動体領域を検出する画像処理装置であって、前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、を備えることを特徴とする画像処理装置である。 The present invention is an image processing device that detects a moving body region indicating an image region of a moving body from a target image among captured images in which a predetermined region is sequentially captured, and is a background image obtained by capturing the background of the predetermined region and the above. A difference processing means that performs background subtraction processing between the target image and frame-to-frame difference processing between the target image and a comparison image taken in the past or future by a difference period from the target image, and the background subtraction. Among the pixels extracted by the processing, the pixels extracted by the inter-frame subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the inter-frame subtraction processing are the pixels of the shadow region corresponding to the shadow. The image processing apparatus is characterized by comprising a shadow region determining means for determining the image.

望ましくは、前記差分処理手段は、複数の前記撮影画像間における背景差分領域の移動量が大きいほど前記差分期間を短く設定する、ことを特徴とする。 Desirably, the difference processing means is characterized in that the larger the amount of movement of the background subtraction region between the plurality of captured images, the shorter the difference period is set.

望ましくは、前記影領域判定手段は、前記移動体領域と判定された画素のうち、前記影領域の外周から所定幅の画素を前記影領域の画素として再判定する、ことを特徴とする。 Desirably, the shadow region determination means redetermines pixels having a predetermined width from the outer periphery of the shadow region as pixels in the shadow region among the pixels determined to be the moving body region.

望ましくは、前記影領域判定手段は、前記移動量が大きいほど前記所定幅を大きい値に設定する、ことを特徴とする。 Desirably, the shadow region determination means is characterized in that the larger the movement amount, the larger the predetermined width is set.

望ましくは、前記影領域判定手段は、複数の前記撮影画像間における背景差分領域の移動方向に基づいて、前記所定幅を設定する、ことを特徴とする。 Desirably, the shadow region determining means sets the predetermined width based on the moving direction of the background subtraction region between the plurality of captured images.

また、本発明は、所定領域を順次撮影した撮影画像のうちの対象画像から移動体の画像領域を示す移動体領域を検出するための画像処理プログラムであって、コンピュータを、前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、として機能させることを特徴とする画像処理プログラムである。 Further, the present invention is an image processing program for detecting a moving body region indicating an image region of a moving body from a target image among captured images in which a predetermined region is sequentially captured, and a computer is used as a background of the predetermined region. A difference that performs background subtraction processing between the background image taken and the target image, and frame-to-frame difference processing between the target image and a comparison image taken in the past or future by a difference period from the target image. Among the pixels extracted by the processing means and the background subtraction processing, the pixels extracted by the interframe subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the interframe subtraction processing are shadowed. It is an image processing program characterized by functioning as a shadow area determining means for determining as a pixel of a shadow area corresponding to.

本発明によれば、撮影画像から抽出された差分領域を移動体領域と影領域とに精度良く弁別することができる。 According to the present invention, the difference region extracted from the captured image can be accurately discriminated into the moving body region and the shadow region.

本実施形態に係る警備システムの構成概略図である。It is a block diagram of the security system which concerns on this embodiment. 本実施形態に係る画像センサの構成概略図である。It is a block diagram of the image sensor which concerns on this embodiment. 対象画像(a)、背景画像(b)、及び、背景差分画像(c)を示す図である。It is a figure which shows the target image (a), the background image (b), and the background subtraction image (c). 対象画像(a)、過去画像(b)、及び、フレーム間差分画像(c)を示す図である。It is a figure which shows the target image (a), the past image (b), and the inter-frame difference image (c). 背景差分画像(a)、フレーム間差分画像(b)、及び、影領域判定処理結果(c)を示す図である。It is a figure which shows the background subtraction image (a), the interframe subtraction image (b), and the shadow area determination processing result (c). フレーム間における人物の移動量が比較的大きい場合の差分期間を示す図である。It is a figure which shows the difference period when the amount of movement of a person between frames is relatively large. フレーム間における人物の移動量が比較的小さい場合の差分期間を示す図である。It is a figure which shows the difference period when the amount of movement of a person between frames is relatively small. 影領域拡張処理の様子を示す図である。It is a figure which shows the state of the shadow area expansion processing.

以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.

図1は、本実施形態に係る警備システム10の構成概略図である。警備システム10は、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域を撮影した監視画像に基づいて監視対象物件12の異常を検出するための1以上の画像処理装置としての画像センサ22、及び、画像センサ22により撮影された監視画像を記録する録画装置24を含んで構成される。画像センサ22及び録画装置24は警備装置14と通信可能に接続される。 FIG. 1 is a schematic configuration diagram of a security system 10 according to the present embodiment. The security system 10 is a security center connected to each security device 14 via a security device 14 installed in each monitored property 12 such as a store, office, condominium, warehouse, or house, and a communication network 16 such as a public telephone line. The device 18 and the user device 20 are included. Further, the security system 10 includes an image sensor 22 as one or more image processing devices for detecting an abnormality in the monitored property 12 based on a monitored image obtained by capturing the monitored area of the monitored property 12, and an image sensor 22. It is configured to include a recording device 24 for recording a surveillance image taken by the user. The image sensor 22 and the recording device 24 are communicably connected to the security device 14.

警備装置14は、構内LANなどを介してそれ自体に接続された画像センサ22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は、監視対象物件12あるいは異常を検出した画像センサ22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像センサ22と通信するための通信インターフェースと、警備センタ装置18及び利用者装置20と通信するための通信インターフェースと、それらを制御するための制御ユニットを有する。 When the security device 14 receives an alarm signal from the image sensor 22 connected to itself via the premises LAN or the like, the security device 14 detects the alarm signal, the identification signal of the security device 14 itself, the monitored property 12, or an abnormality. The identification signal of the image sensor 22 is transmitted to the security center device 18. Therefore, the security device 14 has a communication interface for communicating with the image sensor 22, a communication interface for communicating with the security center device 18 and the user device 20, and a control unit for controlling them.

警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。 The security center device 18 is composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a notification unit composed of a buzzer, an LED, or the like. .. When the security center device 18 receives an alarm signal from the security device 14 via the communication network 16, the security center device 18 notifies the monitored property 12 in which the security device 14 that has transmitted the alarm signal is installed, and the content of the detected abnormality. Notify the observer through the display device.

利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェース、液晶ディスプレイなどの表示装置、及び、キーボードやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の監視画像又は録画装置24に記録されている監視画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から監視画像を受信すると、利用者装置20は要求された監視画像を表示装置に表示する。 The user device 20 is also composed of a so-called computer, and remotely operates the security device 14 such as a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a keyboard and a mouse. It has a user interface for inputting operation commands for. When the user device 20 observes the pre-registered monitored property 12 via the user interface, the user device 20 currently photographs the security device 14 installed in the registered monitored property 12. Various image request signals requesting that the surveillance image inside or the surveillance image recorded in the recording device 24 be transmitted to the user device 20 are transmitted. Then, when the surveillance image is received from the security device 14, the user device 20 displays the requested surveillance image on the display device.

録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD−RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像センサ22が撮影した監視画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。 The recording device 24 is a recording medium that can be attached to and detached from the recording device 24, such as a magnetic disk device such as an HDD, a magnetic tape such as a DAT, and an optical recording medium such as a DVD-RAM, and data by accessing the recording medium. It consists of a device that reads and writes. The recording device 24 receives the surveillance image taken by the image sensor 22 from the security device 14 and records it in association with the shooting time.

図2は、画像センサ22の構成概略図である。画像センサ22は、所定領域(監視領域)を撮影して撮影画像を取得した上で、撮影画像から移動体を示す移動体領域を検出する。本実施形態では、画像センサ22は、撮影画像の中から、移動体のうち、特に人物(侵入者)を示す移動体領域を検出する。以下、画像センサ22の詳細について説明する。 FIG. 2 is a schematic configuration diagram of the image sensor 22. The image sensor 22 captures a predetermined region (monitoring region) to acquire a captured image, and then detects a moving body region indicating a moving body from the captured image. In the present embodiment, the image sensor 22 detects a moving body region indicating a person (intruder) among moving bodies from the captured image. The details of the image sensor 22 will be described below.

通信部30は、画像センサ22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インターフェースであり、イーサネット(登録商標)などの各種の通信インターフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の信号処理部42によって人物が検出された場合に、人物を検出したことを示すアラーム信号を警備装置14に出力する。 The communication unit 30 is an input / output interface for transmitting and receiving various setting signals and control signals between the image sensor 22 and the security device 14 via a communication network such as a premises LAN, and various types such as Ethernet (registered trademark). It is composed of the communication interface circuit of the above and the driver software that drives them. Specifically, when a person is detected by the signal processing unit 42 described later, the communication unit 30 outputs an alarm signal indicating that the person has been detected to the security device 14.

撮影部32は、CCDなどの、可視光などに感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などで構成される。撮影部32としては、例えば、単方位カメラあるいは全方位カメラを利用することができる。撮影部32は、監視領域を順次撮影することによって撮影画像を順次取得する。本実施形態では、撮影部32は、一定の時間間隔(例えば1/5秒)毎に撮影を行うが、撮影部32の撮影方法はこれには限られない。取得された撮影画像は記憶部34に記憶される。 The photographing unit 32 includes a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light such as a CCD, and an imaging optical system that forms an image of a monitoring area on the two-dimensional detector. It is composed. As the photographing unit 32, for example, a unidirectional camera or an omnidirectional camera can be used. The photographing unit 32 sequentially acquires captured images by sequentially photographing the monitoring area. In the present embodiment, the photographing unit 32 shoots at regular time intervals (for example, 1/5 second), but the photographing method of the photographing unit 32 is not limited to this. The acquired captured image is stored in the storage unit 34.

記憶部34は、半導体メモリ、磁気ディスク(HDD)、又はCD−ROM、DVD−RAMなどの光ディスクドライブ及びその記録媒体で構成される。記憶部34には、画像センサ22の各部を動作させるための画像処理プログラムが記憶される。また、図2に示される通り、記憶部34には、撮影部32が順次取得した複数の撮影画像36、背景画像38、及び参照情報40が記憶される。 The storage unit 34 is composed of a semiconductor memory, a magnetic disk (HDD), an optical disk drive such as a CD-ROM or a DVD-RAM, and a recording medium thereof. The storage unit 34 stores an image processing program for operating each part of the image sensor 22. Further, as shown in FIG. 2, the storage unit 34 stores a plurality of captured images 36, background images 38, and reference information 40 sequentially acquired by the photographing unit 32.

背景画像38は、監視領域の背景を撮影した画像であり、監視領域内に人物が存在していないときの撮影画像36に基づいて信号処理部42により作成される。例えば、信号処理部42は、撮影部32が順次取得した複数の撮影画像36の間のフレーム間差分を求め、フレーム間での対応画素間の輝度差の絶対値の平均値を求める。そして、信号処理部42は、その平均値が所定の基準よりも小さい撮影画像36を背景画像38として記憶部34に記憶させる。また、背景画像38は、照明状態の変動、太陽の日周変動などの監視領域の変動に対応するために、一定周期(例えば、10分間隔)毎に更新されるのが好適である。 The background image 38 is an image obtained by photographing the background of the monitoring area, and is created by the signal processing unit 42 based on the captured image 36 when no person exists in the monitoring area. For example, the signal processing unit 42 obtains the inter-frame difference between the plurality of captured images 36 sequentially acquired by the photographing unit 32, and obtains the average value of the absolute values of the brightness differences between the corresponding pixels between the frames. Then, the signal processing unit 42 stores the captured image 36 whose average value is smaller than a predetermined reference in the storage unit 34 as the background image 38. Further, it is preferable that the background image 38 is updated at regular intervals (for example, every 10 minutes) in order to cope with fluctuations in the monitoring area such as fluctuations in the lighting state and daily fluctuations in the sun.

参照情報40は、検出対象(本実施形態では人物)の特徴を表す情報であり、本実施形態では、人物の標準的な身長を示す参照身長(例えば180cm)、人物の標準的な幅を示す参照身幅(例えば60cm)、及び、人物の標準的な移動速度を示す参照移動速度を示す情報を含んでいる。 The reference information 40 is information representing the characteristics of the detection target (person in the present embodiment), and in the present embodiment, the reference height (for example, 180 cm) indicating the standard height of the person and the standard width of the person are indicated. It contains a reference width (eg, 60 cm) and information indicating a reference movement speed indicating the standard movement speed of the person.

信号処理部42は、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像センサ22の各種信号処理を実行する。図2に示されるように、信号処理部42は、第1差分処理手段44、ラベル整形手段46、追跡手段48、第2差分処理手段50、影領域判定手段52、及び侵入者判定手段54としての機能を発揮する。信号処理部42がこれらの手段を発揮することで、撮影画像36において、人物(侵入者)を示す画像領域である移動体領域が検出される。以下、信号処理部42が有する各手段について説明する。 The signal processing unit 42 has a built-in microprocessor unit, memories such as ROM and RAM, and peripheral circuits thereof, and executes various signal processing of the image sensor 22. As shown in FIG. 2, the signal processing unit 42 serves as a first difference processing means 44, a label shaping means 46, a tracking means 48, a second difference processing means 50, a shadow area determination means 52, and an intruder determination means 54. Demonstrate the function of. When the signal processing unit 42 exerts these means, the moving body region, which is an image region showing a person (intruder), is detected in the captured image 36. Hereinafter, each means included in the signal processing unit 42 will be described.

第1差分処理手段44は、撮影画像36と、記憶部34に予め記憶された背景画像38とを比較して、両画像間で相違する画素を抽出し、抽出された画素を第1の値(例えば1)とし、抽出されない画素を第2の値(例えば0)とする二値画像である背景差分画像を求める背景差分処理を行う。ここで「両画像間で相違する画素」とは、撮影画像36と背景画像38との間で輝度値又は色成分の差が所定値以上である撮影画像36の画素を意味する。第1差分処理手段44は、順次取得される複数の撮影画像36それぞれと、背景画像38との間で背景差分処理を行う。 The first difference processing means 44 compares the captured image 36 with the background image 38 stored in advance in the storage unit 34, extracts pixels that differ between the two images, and sets the extracted pixels as the first value. Performs background subtraction processing to obtain a background subtraction image which is a binary image in which pixels not extracted are set to (for example, 0) and a second value (for example, 0). Here, the "pixels different between the two images" mean the pixels of the captured image 36 in which the difference in luminance value or color component between the captured image 36 and the background image 38 is equal to or greater than a predetermined value. The first difference processing means 44 performs background subtraction processing between each of the plurality of captured images 36 that are sequentially acquired and the background image 38.

図3には、移動体領域を検出する対象となる撮影画像36である対象画像36(a)、背景画像38(b)、及び背景差分画像60(c)の例が示されている。ちなみに、対象画像36aは、記憶部34に記憶された複数の撮影画像36のうち、必ずしも最新の撮影画像36でなくてもよい。図3(a)の例のように、対象画像36aに人物が含まれている場合には、背景差分処理により、図3(c)に示されるように、当該人物及び当該人物の影に対応する画素群からなる背景差分領域62が抽出される。なお、背景差分領域62に含まれる画素を背景差分抽出画素と呼ぶ。図3(c)に示されるように、対象画像36aに人物の影が含まれている場合には、影を示す領域も背景差分領域62に含まれる。 FIG. 3 shows examples of the target image 36 (a), the background image 38 (b), and the background subtraction image 60 (c), which are the captured images 36 for detecting the moving body region. By the way, the target image 36a does not necessarily have to be the latest captured image 36 among the plurality of captured images 36 stored in the storage unit 34. When a person is included in the target image 36a as in the example of FIG. 3A, background subtraction processing corresponds to the person and the shadow of the person as shown in FIG. 3C. A background subtraction region 62 composed of a group of pixels is extracted. The pixels included in the background subtraction region 62 are called background subtraction extraction pixels. As shown in FIG. 3C, when the target image 36a includes the shadow of a person, the area showing the shadow is also included in the background subtraction region 62.

また、第1差分処理手段44は、各背景差分抽出画素に対して識別子(ラベル)を付与するラベリング処理を行う。ラベルとしては、例えば、背景差分画像60内でユニークな数値を用いることができる。ラベリング処理では、ある背景差分抽出画素に注目したとき、当該画素に隣接している他の背景差分抽出画素からなる一塊の画素群を1つの背景差分領域62とみなす。なお、背景差分抽出画素に隣接する画素とは、背景差分抽出画素の上下左右方向に隣接する画素であってもよいし、斜め方向に隣接する画素まで含めてもよい。その上で、各背景差分領域62に対して異なるラベルを付与し、背景差分画像60の画素値として記憶する処理を行う。以下、ラベルが付与された背景差分領域62のことをラベル領域64と呼ぶ場合がある。 In addition, the first subtraction processing means 44 performs labeling processing for assigning an identifier (label) to each background subtraction extraction pixel. As the label, for example, a unique numerical value in the background subtraction image 60 can be used. In the labeling process, when attention is paid to a certain background subtraction pixel, a group of pixels composed of other background subtraction extraction pixels adjacent to the pixel is regarded as one background subtraction region 62. The pixels adjacent to the background subtraction extraction pixels may be pixels adjacent to the background subtraction extraction pixels in the vertical and horizontal directions, or may include pixels adjacent to the background subtraction extraction pixels in the oblique direction. Then, different labels are given to each background subtraction region 62, and processing is performed to store the background subtraction image 60 as a pixel value. Hereinafter, the background subtraction area 62 to which the label is attached may be referred to as a label area 64.

ラベル整形手段46は、第1差分処理手段44により抽出された各ラベル領域64を整形するラベル整形処理を実行する。例えば、所定範囲内にある複数のラベル領域64を、統合した場合に人物らしい大きさあるいは形状の領域となるかどうかなどの所定の条件に基づいて、複数のラベル領域64を統合するラベル統合処理を実行する。ラベル統合処理によれば、例えば、同一人物の上半身と下半身とがそれぞれ異なるラベル領域64として抽出された場合に、当該2つのラベル領域64を統合して1人の人物の像に対応する1つのラベル領域64とすることができる。 The label shaping means 46 executes a label shaping process for shaping each label area 64 extracted by the first difference processing means 44. For example, a label integration process for integrating a plurality of label areas 64 based on a predetermined condition such as whether or not a plurality of label areas 64 within a predetermined range become a human-like size or shape area when integrated. To execute. According to the label integration process, for example, when the upper body and the lower body of the same person are extracted as different label areas 64, the two label areas 64 are integrated to correspond to the image of one person. It can be the label area 64.

また、例えば、ラベル整形手段46は、ラベル領域64を削除するラベル削除処理を行ってもよい。ラベル削除処理は、明らかに人物でないと判断できるラベル領域64を削除する処理である。例えば、人物のサイズに対して大きすぎる、あるいは小さすぎるラベル領域64を削除する。 Further, for example, the label shaping means 46 may perform a label deletion process for deleting the label area 64. The label deletion process is a process of deleting a label area 64 that can be clearly determined not to be a person. For example, the label area 64, which is too large or too small for the size of the person, is deleted.

追跡手段48は、撮影部32が順次取得した複数の撮影画像36のそれぞれから抽出され、ラベル整形手段46にて整形されたラベル領域64を時間的に追跡する処理を行う。具体的には、追跡手段48は、今回取得された撮影画像36から抽出されてラベル整形手段46により整形された、各ラベル領域64と、過去に取得された撮影画像36から抽出されて、記憶部34に追跡用情報として記憶されているラベル領域64(以下「追跡ラベル領域」と記載する)とを同定する処理(同一人物に対応するラベル領域64であると判定する処理)を行う。ここで、追跡用情報は、追跡ラベル領域に関する、追跡ID、撮影画像36上の位置、及び追跡用特徴量が関連付けられた情報である。追跡用特徴量は、追跡ラベル領域の実空間におけるサイズや形状、輝度ヒストグラム、テクスチャ情報などである。 The tracking means 48 performs a process of temporally tracking the label area 64 extracted from each of the plurality of captured images 36 sequentially acquired by the photographing unit 32 and shaped by the label shaping means 46. Specifically, the tracking means 48 is extracted from each label area 64 extracted from the captured image 36 acquired this time and shaped by the label shaping means 46, and stored in the captured image 36 acquired in the past. A process of identifying the label area 64 (hereinafter referred to as “tracking label area”) stored as tracking information in the unit 34 (a process of determining that the label area 64 corresponds to the same person) is performed. Here, the tracking information is information related to the tracking ID, the position on the captured image 36, and the tracking feature amount with respect to the tracking label area. The tracking feature amount is the size and shape of the tracking label area in the real space, the brightness histogram, the texture information, and the like.

追跡手段48は、今回取得された撮影画像36のラベル領域64の追跡用特徴量及び位置と、追跡ラベル領域の追跡用特徴量及び位置とを比較することで、今回取得された撮影画像36のラベル領域64と追跡ラベル領域とを同定する。例えば、追跡用特徴量が類似し、且つ、位置が近いもので同定する。そして、今回取得された撮影画像36のラベル領域64に対して、同定された追跡ラベル領域と同一の追跡IDを付与し、時系列に従って、今回取得された撮影画像36の当該ラベル領域64の追跡IDと、撮影画像36上の位置などを関連付けた上で記憶部34に追跡用情報として保存する。 The tracking means 48 compares the tracking feature amount and position of the label area 64 of the captured image 36 acquired this time with the tracking feature amount and position of the tracking label area, and thereby, the captured image 36 acquired this time. The label area 64 and the tracking label area are identified. For example, identification is performed by those having similar tracking features and close positions. Then, the same tracking ID as the identified tracking label area is assigned to the label area 64 of the captured image 36 acquired this time, and the tracking of the label area 64 of the captured image 36 acquired this time is tracked in chronological order. After associating the ID with the position on the captured image 36 and the like, the ID is stored in the storage unit 34 as tracking information.

なお、今回取得された撮影画像36のラベル領域64において、追跡ラベル領域と同定が得られなかったものについては、新規の人物が出現したものとして、当該ラベル領域64の追跡特徴量に新規の追跡IDを付与する。また、これまで追跡していた追跡ラベル領域のうち、今回取得された撮影画像36のラベル領域64と同定が得られなかったものがある場合、当該追跡ラベル領域に対応する人物が消失したものとして、当該追跡用情報を削除する。 In the label area 64 of the captured image 36 acquired this time, those that could not be identified as the tracking label area are assumed to have appeared as a new person, and a new tracking feature amount is added to the tracking feature amount of the label area 64. Give an ID. In addition, if there is a tracking label area that has been tracked so far that cannot be identified as the label area 64 of the captured image 36 acquired this time, it is assumed that the person corresponding to the tracking label area has disappeared. , Delete the tracking information.

追跡手段48は、上述のラベル領域64の追跡処理を行うことで、2つの撮影画像36間におけるラベル領域64(背景差分領域62)の移動方向及び移動量を求めることができる。具体的には、前時点の撮影画像36に含まれるラベル領域64の所定位置(座標)から、後時点の撮影画像に含まれる同じ追跡IDが付与されたラベル領域64の所定位置に向かう方向が移動方向であり、両者の間の距離がラベル領域64の移動量となる。 The tracking means 48 can obtain the moving direction and the amount of movement of the label area 64 (background subtraction area 62) between the two captured images 36 by performing the tracking process of the label area 64 described above. Specifically, the direction from the predetermined position (coordinates) of the label area 64 included in the captured image 36 at the previous time to the predetermined position of the label area 64 given the same tracking ID included in the captured image at the later time is. It is the movement direction, and the distance between the two is the movement amount of the label area 64.

第2差分処理手段50は、対象画像36aと、他の撮影画像36とを比較して、両画像間で相違する画素を抽出し、抽出された画素を第1の値(例えば1)とし、抽出されない画素を第2の値(例えば0)とする二値画像であるフレーム間差分画像を求めるフレーム間差分処理を行う。ここで、比較画像としてのとしての他の撮影画像36とは、対象画像36aよりも後に詳細に説明する差分期間だけ過去又は未来に撮影された画像である。本実施形態では、比較画像は、対象画像36aよりも差分期間だけ過去に撮影した過去画像36bとする。 The second difference processing means 50 compares the target image 36a with the other captured image 36, extracts pixels that differ between the two images, and sets the extracted pixels as the first value (for example, 1). Inter-frame difference processing is performed to obtain an inter-frame difference image which is a binary image in which pixels that are not extracted are set as a second value (for example, 0). Here, the other captured image 36 as a comparative image is an image captured in the past or future for a difference period, which will be described in detail later than the target image 36a. In the present embodiment, the comparative image is a past image 36b taken in the past by a difference period from the target image 36a.

図4には、対象画像36a(a)、過去画像36b(b)、及びフレーム間差分画像66(c)の例が示されている。図4の例では、対象画像36aに含まれる人物の位置と、過去画像36bに含まれる人物の位置が少しだけ異なっている。図4(c)に示されるように、対象画像36aと過去画像36bとの間で、輝度値又は色成分の差が所定値以上であるフレーム間差分領域68が抽出される。なお、フレーム間差分領域68に含まれる画素をフレーム間差分抽出画素と呼ぶ。 FIG. 4 shows examples of the target image 36a (a), the past image 36b (b), and the inter-frame difference image 66 (c). In the example of FIG. 4, the position of the person included in the target image 36a and the position of the person included in the past image 36b are slightly different. As shown in FIG. 4C, an inter-frame difference region 68 in which the difference in luminance value or color component is equal to or greater than a predetermined value is extracted between the target image 36a and the past image 36b. The pixels included in the inter-frame difference region 68 are referred to as inter-frame difference extraction pixels.

人物への光の当たり具合、あるいは衣服のしわや模様などに起因して、人物の部分は、少し位置がずれただけであっても、1つの画素について着目してみると、対象画像36aと過去画像36bとの間において画素の輝度値や色成分がかなり異なる場合が多い。したがって、フレーム間差分画像66においては、対象画像36aと過去画像36bとの間で、人物が重なっている画素についてもフレーム間差分抽出画素として抽出される。 Even if the position of the person's part is slightly displaced due to the degree of light hitting the person, wrinkles or patterns of clothes, etc., when focusing on one pixel, the target image 36a In many cases, the brightness value and color component of the pixel are considerably different from those of the past image 36b. Therefore, in the inter-frame difference image 66, pixels in which a person overlaps between the target image 36a and the past image 36b are also extracted as inter-frame difference extraction pixels.

一方、人物の影の部分は、対象画像36aと過去画像36bとの間において、どの画素も似たような輝度値や色成分となる場合が多い。具体的には、輝度値が低く、床面のテクスチャがうっすらと見えるような画素となっている場合が多い。したがって、フレーム間差分画像66においては、対象画像36aと過去画像36bとの間で、影が重なっている画素は、フレーム間差分抽出画素として抽出されない。影の部分は、対象画像36aで影であったが過去画像36bで影でなくなった画素、及び、対象画像36aで影でなかったが過去画像36bで影となった画素のみがフレーム間差分画素として抽出される。 On the other hand, in the shadow portion of the person, there are many cases where all the pixels have similar brightness values and color components between the target image 36a and the past image 36b. Specifically, there are many cases where the brightness value is low and the pixels are such that the texture of the floor surface can be seen faintly. Therefore, in the inter-frame difference image 66, the pixels in which the shadows overlap between the target image 36a and the past image 36b are not extracted as the inter-frame difference extraction pixels. Only the pixels that were shadows in the target image 36a but no longer in the past image 36b and the pixels that were not shadows in the target image 36a but were shadows in the past image 36b are inter-frame difference pixels. Is extracted as.

影領域判定手段52は、フレーム間差分画像66を用いて、背景差分画像60に含まれる背景差分領域62(ラベル領域64)を、人物に対応する移動体領域と、人物の影に対応する影領域とを弁別する影領域判定処理を行う。 The shadow region determining means 52 uses the interframe subtraction image 66 to perform the background subtraction region 62 (label region 64) included in the background subtraction image 60 with a moving body region corresponding to a person and a shadow corresponding to the shadow of the person. Performs shadow region determination processing to discriminate from the region.

図5には、背景差分画像60(a)、フレーム間差分画像66(b)、及び影領域判定手段52の判定結果(c)の例が示されている。上述の通り、フレーム間差分画像66においては、人物の影の大部分がフレーム間差分抽出画素として抽出されていない。 FIG. 5 shows an example of the background subtraction image 60 (a), the inter-frame subtraction image 66 (b), and the determination result (c) of the shadow region determination means 52. As described above, in the inter-frame difference image 66, most of the shadows of the person are not extracted as the inter-frame difference extraction pixels.

したがって、影領域判定手段52は、背景差分画像60の背景差分領域62に含まれる各背景差分抽出画素のうち、フレーム間差分処理によってもフレーム間差分画素として抽出された画素群を人物に対応する移動体領域70とする。より詳しくは、背景差分画像60の各背景差分抽出画素のうち、フレーム間差分画像66における同座標の画素が、フレーム間差分領域68に含まれる(つまりフレーム間差分抽出画素である)画素を移動体領域70とする。 Therefore, the shadow region determining means 52 corresponds to a person a group of pixels extracted as inter-frame subtraction pixels by inter-frame subtraction processing among the background subtraction extraction pixels included in the background subtraction region 62 of the background subtraction image 60. The moving body region 70 is used. More specifically, among the background subtraction extraction pixels of the background subtraction image 60, the pixels having the same coordinates in the interframe subtraction image 66 move the pixels included in the interframe subtraction region 68 (that is, the interframe subtraction extraction pixels). The body region is 70.

また、影領域判定手段52は、背景差分画像60の背景差分領域62に含まれる各背景差分抽出画素のうち、フレーム間差分処理によってフレーム間差分画素として抽出されなかった画素群を人物の影に対応する影領域72とする。より詳しくは、背景差分画像60の各背景差分抽出画素のうち、フレーム間差分画像66における同座標の画素が、フレーム間差分領域68に含まれない(つまりフレーム間差分抽出画素でない)画素を影領域72とする。 Further, the shadow region determining means 52 uses a group of pixels that are not extracted as interframe difference pixels by interframe subtraction processing among the background subtraction extraction pixels included in the background subtraction region 62 of the background subtraction image 60 as shadows of a person. The corresponding shadow region 72. More specifically, among the background subtraction extraction pixels of the background subtraction image 60, the pixels having the same coordinates in the interframe difference image 66 are not included in the interframe difference region 68 (that is, they are not the interframe subtraction extraction pixels). Area 72.

このようにして、背景差分画像60から検出された背景差分領域62(ラベル領域64)が、図5(c)に示すように、移動体領域70と影領域72に弁別される。 In this way, the background subtraction region 62 (label region 64) detected from the background subtraction image 60 is discriminated into the moving body region 70 and the shadow region 72, as shown in FIG. 5C.

上述のように、第2差分処理手段50は、対象画像36aと、対象画像36aよりも差分期間だけ過去に撮影した過去画像36bとのフレーム間差分画像66を求めている。当該差分期間としては、予め設定された期間を用い、例えば対象画像36aから所定のフレーム前の画像を過去画像36bとすることもできる。 As described above, the second difference processing means 50 obtains the inter-frame difference image 66 between the target image 36a and the past image 36b taken in the past by the difference period from the target image 36a. As the difference period, a preset period may be used, and for example, the image before a predetermined frame from the target image 36a may be the past image 36b.

しかしながら、人物の移動速度が速い場合、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素がなくなってしまう場合がある。この場合、影領域判定手段52による上述の影領域判定処理によって、背景差分領域62を移動体領域70と影領域72に弁別することができなくなってしまう。具体的には、背景差分領域62のうち、実際には影の部分も移動体領域70であると判定されてしまう。 However, when the moving speed of the person is high, the pixels in which the shadow of the person overlaps may disappear between the target image 36a and the past image 36b. In this case, the background subtraction region 62 cannot be discriminated into the moving body region 70 and the shadow region 72 by the above-mentioned shadow region determination process by the shadow region determining means 52. Specifically, of the background subtraction region 62, the shadow portion is actually determined to be the moving body region 70.

また、逆に、人物の移動速度がかなり遅い場合、対象画像36aと過去画像36bとの間で、人物の影のみならず、人物に対応する画素についても輝度値あるいは色成分に差異がなくなってしまう場合がある。この場合、フレーム間差分画像66においては、影のみならず人物の部分もフレーム間差分領域68として抽出されない。この場合も、影領域判定手段52による上述の影領域判定処理によって、背景差分領域62を移動体領域70と影領域72に弁別することができなくなってしまう。具体的には、背景差分領域62のうち、実際には人物の部分も影領域72であると判定されてしまう。 On the contrary, when the moving speed of the person is considerably slow, there is no difference in the brightness value or the color component not only in the shadow of the person but also in the pixels corresponding to the person between the target image 36a and the past image 36b. It may end up. In this case, in the inter-frame difference image 66, not only the shadow but also the person portion is not extracted as the inter-frame difference region 68. Also in this case, the background subtraction region 62 cannot be discriminated into the moving body region 70 and the shadow region 72 by the above-mentioned shadow region determination process by the shadow region determining means 52. Specifically, of the background subtraction region 62, the person portion is actually determined to be the shadow region 72.

したがって、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素が存在するように、且つ、フレーム間差分画像66において、フレーム間差分領域68として人物に対応する部分が抽出されるように、第2差分処理手段50は、人物の移動速度に応じて差分期間を設定するようにするのが好適である。 Therefore, a portion corresponding to the person is extracted as the inter-frame difference area 68 in the inter-frame difference image 66 so that there are pixels in which the shadow of the person overlaps between the target image 36a and the past image 36b. As described above, it is preferable that the second difference processing means 50 sets the difference period according to the moving speed of the person.

人物の移動速度は、追跡手段48の追跡処理によって求められた、背景差分領域62(ラベル領域64)の移動量で表される。したがって、本実施形態では、第2差分処理手段50は、背景差分領域62の移動量が大きいほど、差分期間を短く設定する。換言すれば、第2差分処理手段50は、背景差分領域62の移動量が小さいほど、差分期間を長く設定する。 The moving speed of the person is represented by the amount of movement of the background subtraction region 62 (label region 64) obtained by the tracking process of the tracking means 48. Therefore, in the present embodiment, the second difference processing means 50 sets the difference period shorter as the amount of movement of the background subtraction region 62 increases. In other words, the second difference processing means 50 sets the difference period longer as the amount of movement of the background subtraction region 62 is smaller.

なお、人物の移動速度は、別途の方法によって取得するようにしてもよい。例えば、測定対象の移動速度を測定するリニア測定センサなどを別途設け、当該リニア測定センサから送信される情報に基づいて、人物の移動速度を取得するようにしてもよい。なお、人物の移動速度が速ければ、必然的に、複数の撮影画像36間における背景差分領域62の移動量は大きくなる。 The moving speed of the person may be acquired by another method. For example, a linear measurement sensor or the like for measuring the moving speed of the measurement target may be separately provided, and the moving speed of the person may be acquired based on the information transmitted from the linear measurement sensor. If the moving speed of the person is high, the amount of movement of the background subtraction region 62 between the plurality of captured images 36 is inevitably large.

図6には、対象画像36aと、対象画像36aの過去に撮影された複数の撮影画像36−1〜36−4が示されている。図6の例は、人物の移動速度が速く、各撮影画像間における背景差分領域62の移動量が大きくなる例である。この場合、第2差分処理手段50は、差分期間を短くし、対象画像36aの1つ前のフレームである撮影画像36−1を過去画像36bとする。 FIG. 6 shows the target image 36a and a plurality of captured images 36-1 to 36-4 captured in the past of the target image 36a. The example of FIG. 6 is an example in which the moving speed of a person is high and the amount of movement of the background subtraction region 62 between each captured image is large. In this case, the second difference processing means 50 shortens the difference period, and sets the captured image 36-1, which is the frame immediately before the target image 36a, as the past image 36b.

図7にも、対象画像36aと、対象画像36aの過去に撮影された複数の撮影画像36−1〜36−4が示されている。図7の例は、人物の移動速度が遅く、各撮影画像間における背景差分領域62の移動量が小さくなる例である。この場合、第2差分処理手段50は、差分期間を長くし、対象画像36aの3つ前のフレームである撮影画像36−3を過去画像36bとする。 FIG. 7 also shows the target image 36a and a plurality of captured images 36-1 to 36-4 captured in the past of the target image 36a. The example of FIG. 7 is an example in which the moving speed of the person is slow and the amount of movement of the background subtraction region 62 between the captured images is small. In this case, the second difference processing means 50 lengthens the difference period, and sets the captured image 36-3, which is the frame three before the target image 36a, as the past image 36b.

また、フレーム間差分画像66においては、対象画像36aで影であったが過去画像36bで影でなくなった画素がフレーム間差分画素として抽出されるため、影領域判定手段52による影領域判定処理によって、図5(c)に示される通り、背景差分領域62のうち、実際には影の部分の一部が移動体領域70と判定されてしまう。 Further, in the inter-frame difference image 66, pixels that were shadows in the target image 36a but are no longer shadows in the past image 36b are extracted as inter-frame difference pixels, so that shadow region determination processing by the shadow region determination means 52 As shown in FIG. 5C, a part of the shadow portion of the background subtraction region 62 is actually determined to be the moving body region 70.

したがって、背景差分領域62のうち、実際には影の部分が適切に影領域72に含まれるように、影領域判定手段52は、上記影領域判定処理の後に、移動体領域70と判定された画素のうち、影領域72の外周から所定幅の画素を影領域72の画素として再判定する影領域拡張処理を行うのが好適である。 Therefore, of the background subtraction region 62, the shadow region determining means 52 is determined to be the moving body region 70 after the shadow region determining process so that the shadow portion is actually appropriately included in the shadow region 72. Of the pixels, it is preferable to perform shadow region expansion processing in which pixels having a predetermined width from the outer periphery of the shadow region 72 are redetermined as pixels in the shadow region 72.

図8に、影領域拡張処理の様子が示されている。影領域判定手段52は、影領域判定処理の後、影領域72の外周から所定幅外側に位置する画素群(図8(a)の破線74で囲まれた画素群)を特定する。次いで、影領域判定手段52は、特定した破線74で囲まれた画素群のうち、移動体領域70と判定された画素を影領域72として再判定する。再判定された結果が図8(b)に示されている。図8(b)に示される通り、影領域拡張処理によれば、実際には影の部分が適切に影領域72と判定されている。 FIG. 8 shows the state of the shadow area expansion process. After the shadow area determination process, the shadow area determination means 52 identifies a pixel group (pixel group surrounded by a broken line 74 in FIG. 8A) located outside a predetermined width from the outer circumference of the shadow area 72. Next, the shadow area determination means 52 redetermines the pixel determined to be the moving body area 70 as the shadow area 72 from the pixel group surrounded by the specified broken line 74. The result of the re-judgment is shown in FIG. 8 (b). As shown in FIG. 8B, according to the shadow area expansion process, the shadow portion is actually appropriately determined to be the shadow area 72.

ここで、人物の移動速度が速いほど、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素が少なくなるから、フレーム間差分画像66において、対象画像36aで影であったが過去画像36bで影でなくなった画素が多くなる。これにより、影領域判定処理によって、実際には影であるが移動体領域70であると判定される画素が多くなってしまう。 Here, the faster the moving speed of the person, the fewer pixels the shadow of the person overlaps between the target image 36a and the past image 36b. Therefore, in the inter-frame difference image 66, the target image 36a is a shadow. However, the number of pixels that are no longer shadows in the past image 36b increases. As a result, the number of pixels that are actually shadows but are determined to be the moving body region 70 by the shadow region determination processing increases.

したがって、影領域判定手段52は、影領域拡張処理において、人物の移動速度に応じて、影領域72の外周の外側に特定する画素の幅(上記所定幅)を設定するようにするのが好適である。 Therefore, it is preferable that the shadow area determining means 52 sets the width of the pixel (the predetermined width) specified outside the outer periphery of the shadow area 72 according to the moving speed of the person in the shadow area expansion process. Is.

ここでも、人物の移動速度は、追跡手段48の追跡処理によって求められた、背景差分領域62(ラベル領域64)の移動量で表されるから、本実施形態では、影領域判定手段52は、背景差分領域62の移動量が大きいほど、上記所定幅を大きい値となるように設定する。換言すれば、影領域判定手段52は、背景差分領域62の移動量が小さいほど、上記所定幅を小さい値となるように設定する。 Here, too, the moving speed of the person is represented by the movement amount of the background subtraction region 62 (label region 64) obtained by the tracking process of the tracking means 48. Therefore, in the present embodiment, the shadow region determining means 52 is The larger the amount of movement of the background subtraction region 62, the larger the predetermined width is set. In other words, the shadow region determining means 52 sets the predetermined width to a smaller value as the amount of movement of the background subtraction region 62 is smaller.

また、人物の移動方向に応じて、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素の数の変動の仕方が変わる場合がある。例えば、人物が影の延伸方向に移動している場合、延伸方向の影の領域(影の先端部分の領域)が、過去画像36bで影でなかったが対象画像36aで影となった領域となりやすく、フレーム間差分画素として抽出されやすい。また、人物が影の延伸方向と直交する方向に移動している場合、当該直行する方向の影の領域(影の側方部分の領域)が、過去画像36bで影でなかったが対象画像36aで影となった領域となりやすく、フレーム間差分画素として抽出されやすい。 Further, depending on the moving direction of the person, the way of changing the number of pixels in which the shadow of the person overlaps may change between the target image 36a and the past image 36b. For example, when a person is moving in the stretching direction of the shadow, the shadow region (the region at the tip of the shadow) in the stretching direction becomes a region that is not a shadow in the past image 36b but is a shadow in the target image 36a. It is easy to extract as a difference pixel between frames. Further, when the person is moving in the direction orthogonal to the extending direction of the shadow, the shadow region (the region of the side portion of the shadow) in the orthogonal direction is not the shadow in the past image 36b, but the target image 36a. It tends to be a shadowed area and is easily extracted as an inter-frame difference pixel.

したがって、影領域判定手段52は、影領域拡張処理において、人物の移動方向に基づいて、影領域72の外周の外側に特定する画素の幅(上記所定幅)を設定するようにするのが好適である。例えば、人物の移動方向に相当する箇所の上記所定幅を大きい値となるように設定する。 Therefore, it is preferable that the shadow area determining means 52 sets the width of the pixel (the predetermined width) specified outside the outer circumference of the shadow area 72 based on the moving direction of the person in the shadow area expanding process. Is. For example, the predetermined width of the portion corresponding to the moving direction of the person is set to be a large value.

人物の移動方向は、追跡手段48の追跡処理によって求められた、背景差分領域62(ラベル領域64)の移動方向で表されるから、本実施形態では、影領域判定手段52は、背景差分領域62の移動方向に基づいて、上記所定幅を設定する。 Since the moving direction of the person is represented by the moving direction of the background subtraction area 62 (label area 64) obtained by the tracking process of the tracking means 48, the shadow area determining means 52 uses the background subtraction area 62 in the present embodiment. The predetermined width is set based on the moving direction of 62.

図2に戻り、侵入者判定手段54は、上述の各手段の処理結果に基づいて、対象画像36aに含まれるラベル領域64のそれぞれについて、移動体である人物(侵入者)に対応するものであるか否かを判定する。 Returning to FIG. 2, the intruder determination means 54 corresponds to a moving person (intruder) for each of the label areas 64 included in the target image 36a based on the processing results of the above-mentioned means. Determine if it exists.

本実施形態では、侵入者判定手段54は、あるラベル領域64において、移動体領域70の画素の数と、影領域72の画素の数とを比較する。そして、移動体領域70の画素の数が多い場合には、当該ラベル領域64を移動体と判定する。一方、影領域72の画素の数が多い場合には、当該ラベル領域64を影であると判定する。 In the present embodiment, the intruder determination means 54 compares the number of pixels in the moving body region 70 with the number of pixels in the shadow region 72 in a certain label area 64. Then, when the number of pixels in the moving body region 70 is large, the label area 64 is determined to be a moving body. On the other hand, when the number of pixels in the shadow area 72 is large, it is determined that the label area 64 is a shadow.

次に、侵入者判定手段54は、移動体と判定されたラベル領域64が人らしいか否かを判定する。例えば、ラベル領域64の推定サイズ(推定高さあるいは推定幅)を求め、参照情報40に含まれる人物の標準的なサイズと比較することにより当該ラベル領域64が人らしいか否かを判定する。 Next, the intruder determining means 54 determines whether or not the label area 64 determined to be a moving body is human. For example, the estimated size (estimated height or estimated width) of the label area 64 is obtained, and it is determined whether or not the label area 64 is human by comparing it with the standard size of the person included in the reference information 40.

また、侵入者判定手段54は、追跡手段48の追跡処理の結果から、ラベル領域64の移動量に基づいてラベル領域64の推定速度を求め、参照情報40に含まれる人物の標準的な移動速度との比較結果をも考慮して、当該ラベル領域64が人らしいか否かを判定するようにしてもよい。 Further, the intruder determining means 54 obtains the estimated speed of the label area 64 based on the movement amount of the label area 64 from the result of the tracking process of the tracking means 48, and the standard moving speed of the person included in the reference information 40. It may be determined whether or not the label area 64 is human-like in consideration of the comparison result with.

上述の処理により、ラベル領域64が人らしいと判定された場合に、侵入者判定手段54は、対象画像36aに人物(侵入者)が含まれると判定し、通信部30からアラーム信号を出力させる。ここで、さらに、侵入者判定手段54は、予め定めたフレーム数(例えば、5フレーム)以上、同一の追跡IDが付与されたラベル領域64が連続して人らしいと判定された場合に、通信部30からアラーム信号を出力するようにしてもよい。 When the label area 64 is determined to be human by the above processing, the intruder determination means 54 determines that the target image 36a includes a person (intruder), and causes the communication unit 30 to output an alarm signal. .. Here, further, the intruder determination means 54 communicates when it is determined that the label area 64 to which the same tracking ID is assigned is continuously determined to be human-like by a predetermined number of frames (for example, 5 frames) or more. The alarm signal may be output from the unit 30.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention.

例えば、本実施形態では、第1差分処理手段によって抽出された背景差分領域62に対してラベリング処理あるいは追跡処理が行われていたが、影領域判定処理を先に行い、移動体領域70と影領域72とが弁別された背景差分領域62に対してラベリング処理あるいは追跡処理が行われてもよい。これによれば、移動体領域70と影領域72とが弁別されているため、移動体領域70と影領域72とを別のラベル領域64とすることができる。また、ラベル整形処理により、移動体領域70と影領域72を分離することで、影領域72を移動体領域70とは異なるラベル領域64として扱うこともできる。また、影領域72に相当するラベル領域64を除去することもできる。 For example, in the present embodiment, the background subtraction region 62 extracted by the first subtraction processing means is subjected to labeling processing or tracking processing, but the shadow region determination processing is performed first to perform the moving body region 70 and the shadow. Labeling processing or tracking processing may be performed on the background subtraction region 62 that is discriminated from the region 72. According to this, since the moving body region 70 and the shadow region 72 are discriminated from each other, the moving body region 70 and the shadow region 72 can be set as different label regions 64. Further, by separating the moving body region 70 and the shadow region 72 by the label shaping process, the shadow region 72 can be treated as a label region 64 different from the moving body region 70. It is also possible to remove the label area 64 corresponding to the shadow area 72.

10 警備システム、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像センサ、24 録画装置、30 通信部、32 撮影部、34 記憶部、36 撮影画像、36a 対象画像、36b 過去画像、38 背景画像、40 参照情報、42 信号処理部、44 第1差分処理手段、46 ラベル整形手段、48 追跡手段、50 第2差分処理手段、52 影領域判定手段、54 侵入者判定手段、60 背景差分画像、62 背景差分領域、64 ラベル領域、66 フレーム間差分画像、68 フレーム間差分領域、70 移動体領域、72 影領域、74 破線。 10 security system, 12 monitored property, 14 security device, 16 communication network, 18 security center device, 20 user device, 22 image sensor, 24 recording device, 30 communication unit, 32 imaging unit, 34 storage unit, 36 captured image , 36a Target image, 36b Past image, 38 Background image, 40 Reference information, 42 Signal processing unit, 44 First subtraction processing means, 46 Label shaping means, 48 Tracking means, 50 Second difference processing means, 52 Shadow area determination means , 54 Intruder determination means, 60 background subtraction image, 62 background subtraction area, 64 label area, 66 interframe subtraction image, 68 interframe subtraction area, 70 moving body area, 72 shadow area, 74 broken line.

Claims (6)

所定領域を順次撮影した撮影画像のうちの対象画像から移動体の画像領域を示す移動体領域を検出する画像処理装置であって、
前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、
前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、
を備えることを特徴とする画像処理装置。
An image processing device that detects a moving body area indicating an image area of a moving body from a target image among captured images obtained by sequentially shooting a predetermined area.
Background subtraction processing between the background image obtained by capturing the background of the predetermined region and the target image, and between frames between the target image and the comparative image captured in the past or future by a difference period from the target image. A means of difference processing that performs difference processing and
Among the pixels extracted by the background subtraction processing, the pixels extracted by the inter-frame subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the inter-frame subtraction processing are shadows corresponding to shadows. Shadow subtraction determination means for determining as area pixels,
An image processing apparatus comprising.
前記差分処理手段は、複数の前記撮影画像間における背景差分領域の移動量が大きいほど前記差分期間を短く設定する、
ことを特徴とする請求項1に記載の画像処理装置。
The difference processing means sets the difference period shorter as the amount of movement of the background subtraction region between the plurality of captured images is larger.
The image processing apparatus according to claim 1.
前記影領域判定手段は、前記移動体領域と判定された画素のうち、前記影領域の外周から所定幅の画素を前記影領域の画素として再判定する、
ことを特徴とする請求項2に記載の画像処理装置。
The shadow region determination means redetermines pixels having a predetermined width from the outer periphery of the shadow region as pixels in the shadow region among the pixels determined to be the moving body region.
The image processing apparatus according to claim 2.
前記影領域判定手段は、前記移動量が大きいほど前記所定幅を大きい値に設定する、
ことを特徴とする請求項3に記載の画像処理装置。
The shadow region determining means sets the predetermined width to a larger value as the movement amount is larger.
The image processing apparatus according to claim 3.
前記影領域判定手段は、複数の前記撮影画像間における背景差分領域の移動方向に基づいて、前記所定幅を設定する、
ことを特徴とする請求項3又は4に記載の画像処理装置。
The shadow region determining means sets the predetermined width based on the moving direction of the background subtraction region between the plurality of captured images.
The image processing apparatus according to claim 3 or 4.
所定領域を順次撮影した撮影画像のうちの対象画像から移動体の画像領域を示す移動体領域を検出するための画像処理プログラムであって、
コンピュータを、
前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、
前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、
として機能させることを特徴とする画像処理プログラム。
An image processing program for detecting a moving body area indicating an image area of a moving body from a target image among captured images obtained by sequentially shooting a predetermined area.
Computer,
Background subtraction processing between the background image obtained by capturing the background of the predetermined region and the target image, and between frames between the target image and the comparative image captured in the past or future by a difference period from the target image. A means of difference processing that performs difference processing and
Among the pixels extracted by the background subtraction processing, the pixels extracted by the inter-frame subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the inter-frame subtraction processing are shadows corresponding to shadows. Shadow subtraction determination means for determining as area pixels,
An image processing program characterized by functioning as.
JP2019044058A 2019-03-11 2019-03-11 Image processing device and image processing program Active JP7290961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044058A JP7290961B2 (en) 2019-03-11 2019-03-11 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044058A JP7290961B2 (en) 2019-03-11 2019-03-11 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2020149132A true JP2020149132A (en) 2020-09-17
JP7290961B2 JP7290961B2 (en) 2023-06-14

Family

ID=72430110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044058A Active JP7290961B2 (en) 2019-03-11 2019-03-11 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7290961B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021003386T5 (en) 2020-09-04 2023-04-13 Mitsubishi Heavy Industries, Ltd. PERFORATED PLATE FOR GAS TURBINE COMBUSTOR, GAS TURBINE COMBUSTOR AND GAS TURBINE

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060247A (en) * 1999-06-14 2001-03-06 Fuji Xerox Co Ltd Device and method for image processing
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2012033052A (en) * 2010-07-30 2012-02-16 Secom Co Ltd Image processing device and object detecting device
WO2013150829A1 (en) * 2012-04-03 2013-10-10 ソニー株式会社 Image processing device, image processing device control method, and program
JP2015090679A (en) * 2013-11-07 2015-05-11 国立大学法人京都大学 Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060247A (en) * 1999-06-14 2001-03-06 Fuji Xerox Co Ltd Device and method for image processing
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2012033052A (en) * 2010-07-30 2012-02-16 Secom Co Ltd Image processing device and object detecting device
WO2013150829A1 (en) * 2012-04-03 2013-10-10 ソニー株式会社 Image processing device, image processing device control method, and program
JP2015090679A (en) * 2013-11-07 2015-05-11 国立大学法人京都大学 Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
天本 直弘,外1名: "画像処理技術による障害物検出と移動物体追跡方法", 電子情報通信学会論文誌, vol. 81, no. 4, JPN6023000550, 25 April 1998 (1998-04-25), pages 527 - 535, ISSN: 0004964713 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021003386T5 (en) 2020-09-04 2023-04-13 Mitsubishi Heavy Industries, Ltd. PERFORATED PLATE FOR GAS TURBINE COMBUSTOR, GAS TURBINE COMBUSTOR AND GAS TURBINE

Also Published As

Publication number Publication date
JP7290961B2 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
US20180115749A1 (en) Surveillance system and surveillance method
TWI405150B (en) Video motion detection method and non-transitory computer-readable medium and camera using the same
CN102833478B (en) Fault-tolerant background model
JP4832894B2 (en) Image sensor
CN111163285A (en) High-altitude falling object monitoring method and system and computer readable storage medium
KR102144394B1 (en) Apparatus and method for alignment of images
JP2019186955A (en) Information processing system, information processing method, and program
US11281900B2 (en) Devices, methods, and systems for occupancy detection
JP6292540B2 (en) Information processing system, information processing method, and program
JP2011123742A (en) Intruding object detector
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
KR101212082B1 (en) Image Recognition Apparatus and Vison Monitoring Method thereof
JP6088024B2 (en) Video surveillance system and method for detecting fraud
JP5758165B2 (en) Article detection device and stationary person detection device
JP5865584B2 (en) Specific person detection system and detection method
JP7290961B2 (en) Image processing device and image processing program
JP7188934B2 (en) Image processing device
JPH0514891A (en) Image monitor device
JP2000341679A (en) Picture recognizing device and monitoring device
JP7221092B2 (en) Image processing device and image processing program
JP7328778B2 (en) Image processing device and image processing program
JP4925942B2 (en) Image sensor
JP7101080B2 (en) Image processing equipment
JP5877722B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230602

R150 Certificate of patent or registration of utility model

Ref document number: 7290961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150