JP2020149132A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2020149132A JP2020149132A JP2019044058A JP2019044058A JP2020149132A JP 2020149132 A JP2020149132 A JP 2020149132A JP 2019044058 A JP2019044058 A JP 2019044058A JP 2019044058 A JP2019044058 A JP 2019044058A JP 2020149132 A JP2020149132 A JP 2020149132A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- pixels
- shadow
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 88
- 210000000746 body region Anatomy 0.000 claims abstract description 35
- 230000000052 comparative effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 abstract description 20
- 239000000284 extract Substances 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 9
- 238000007493 shaping process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影画像内から移動体の画像領域を示す移動体領域を検出する画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for detecting a moving body region indicating an image region of a moving body from within a captured image.
従来、所定領域(監視領域)をカメラで撮影して取得した撮影画像と、背景画像(監視領域に移動体が存在しない画像)との間の差分領域を抽出する処理が行われている。例えば、監視領域内に人物などの移動体が侵入してきた場合に、撮影画像から差分領域が抽出される。 Conventionally, a process of extracting a difference area between a captured image acquired by photographing a predetermined area (monitoring area) with a camera and a background image (an image in which a moving body does not exist in the monitoring area) is performed. For example, when a moving object such as a person invades the monitoring area, the difference area is extracted from the captured image.
差分領域には、移動体自体の他に移動体の影が含まれる場合がある。したがって、従来、撮影画像から抽出された差分領域の画像特徴に基づいて、当該差分領域が移動体を示す移動体領域であるのか、影を示す影領域であるのかを判定する処理が行われていた。 The difference region may include the shadow of the moving body in addition to the moving body itself. Therefore, conventionally, a process of determining whether the difference region is a moving body region indicating a moving body or a shadow region indicating a shadow is performed based on the image features of the difference region extracted from the captured image. It was.
例えば、特許文献1には、撮影画像から抽出された差分領域のうち、背景画像内における当該差分領域のテクスチャと類似するテクスチャを有し、かつ、背景画像よりも輝度値が低い差分領域を影領域と判定する処理が開示されている。 For example, in Patent Document 1, among the difference regions extracted from the captured image, the difference region having a texture similar to the texture of the difference region in the background image and having a lower brightness value than the background image is shaded. The process of determining the area is disclosed.
従来のように、テクスチャあるいは輝度値に着目して影領域を判定する方法では、精度良く影領域を判定できない場合があった。例えば、背景画像にテクスチャが無い場合(例えば床面に模様や形が無い場合、床面に模様などがあったとしても背景画像又は撮影画像において差分領域の輝度が高すぎてテクスチャが識別できない場合)、本来、影領域であるにもかかわらず、影領域ではないと誤判定してしまう場合があった。 In the conventional method of determining the shadow area by focusing on the texture or the brightness value, the shadow area may not be determined accurately. For example, when there is no texture in the background image (for example, when there is no pattern or shape on the floor surface, or when there is a pattern on the floor surface, the brightness of the difference area is too high in the background image or the captured image and the texture cannot be identified. ), Although it is originally a shadow area, it may be erroneously determined that it is not a shadow area.
本発明の目的は、撮影画像から抽出された差分領域を移動体領域と影領域とに精度良く弁別することにある。 An object of the present invention is to accurately discriminate a difference region extracted from a captured image into a moving body region and a shadow region.
本発明は、所定領域を順次撮影した撮影画像のうちの対象画像から移動体の画像領域を示す移動体領域を検出する画像処理装置であって、前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、を備えることを特徴とする画像処理装置である。 The present invention is an image processing device that detects a moving body region indicating an image region of a moving body from a target image among captured images in which a predetermined region is sequentially captured, and is a background image obtained by capturing the background of the predetermined region and the above. A difference processing means that performs background subtraction processing between the target image and frame-to-frame difference processing between the target image and a comparison image taken in the past or future by a difference period from the target image, and the background subtraction. Among the pixels extracted by the processing, the pixels extracted by the inter-frame subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the inter-frame subtraction processing are the pixels of the shadow region corresponding to the shadow. The image processing apparatus is characterized by comprising a shadow region determining means for determining the image.
望ましくは、前記差分処理手段は、複数の前記撮影画像間における背景差分領域の移動量が大きいほど前記差分期間を短く設定する、ことを特徴とする。 Desirably, the difference processing means is characterized in that the larger the amount of movement of the background subtraction region between the plurality of captured images, the shorter the difference period is set.
望ましくは、前記影領域判定手段は、前記移動体領域と判定された画素のうち、前記影領域の外周から所定幅の画素を前記影領域の画素として再判定する、ことを特徴とする。 Desirably, the shadow region determination means redetermines pixels having a predetermined width from the outer periphery of the shadow region as pixels in the shadow region among the pixels determined to be the moving body region.
望ましくは、前記影領域判定手段は、前記移動量が大きいほど前記所定幅を大きい値に設定する、ことを特徴とする。 Desirably, the shadow region determination means is characterized in that the larger the movement amount, the larger the predetermined width is set.
望ましくは、前記影領域判定手段は、複数の前記撮影画像間における背景差分領域の移動方向に基づいて、前記所定幅を設定する、ことを特徴とする。 Desirably, the shadow region determining means sets the predetermined width based on the moving direction of the background subtraction region between the plurality of captured images.
また、本発明は、所定領域を順次撮影した撮影画像のうちの対象画像から移動体の画像領域を示す移動体領域を検出するための画像処理プログラムであって、コンピュータを、前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、として機能させることを特徴とする画像処理プログラムである。 Further, the present invention is an image processing program for detecting a moving body region indicating an image region of a moving body from a target image among captured images in which a predetermined region is sequentially captured, and a computer is used as a background of the predetermined region. A difference that performs background subtraction processing between the background image taken and the target image, and frame-to-frame difference processing between the target image and a comparison image taken in the past or future by a difference period from the target image. Among the pixels extracted by the processing means and the background subtraction processing, the pixels extracted by the interframe subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the interframe subtraction processing are shadowed. It is an image processing program characterized by functioning as a shadow area determining means for determining as a pixel of a shadow area corresponding to.
本発明によれば、撮影画像から抽出された差分領域を移動体領域と影領域とに精度良く弁別することができる。 According to the present invention, the difference region extracted from the captured image can be accurately discriminated into the moving body region and the shadow region.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1は、本実施形態に係る警備システム10の構成概略図である。警備システム10は、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域を撮影した監視画像に基づいて監視対象物件12の異常を検出するための1以上の画像処理装置としての画像センサ22、及び、画像センサ22により撮影された監視画像を記録する録画装置24を含んで構成される。画像センサ22及び録画装置24は警備装置14と通信可能に接続される。
FIG. 1 is a schematic configuration diagram of a
警備装置14は、構内LANなどを介してそれ自体に接続された画像センサ22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は、監視対象物件12あるいは異常を検出した画像センサ22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像センサ22と通信するための通信インターフェースと、警備センタ装置18及び利用者装置20と通信するための通信インターフェースと、それらを制御するための制御ユニットを有する。
When the
警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。
The
利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェース、液晶ディスプレイなどの表示装置、及び、キーボードやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の監視画像又は録画装置24に記録されている監視画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から監視画像を受信すると、利用者装置20は要求された監視画像を表示装置に表示する。
The
録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD−RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像センサ22が撮影した監視画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。
The
図2は、画像センサ22の構成概略図である。画像センサ22は、所定領域(監視領域)を撮影して撮影画像を取得した上で、撮影画像から移動体を示す移動体領域を検出する。本実施形態では、画像センサ22は、撮影画像の中から、移動体のうち、特に人物(侵入者)を示す移動体領域を検出する。以下、画像センサ22の詳細について説明する。
FIG. 2 is a schematic configuration diagram of the
通信部30は、画像センサ22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インターフェースであり、イーサネット(登録商標)などの各種の通信インターフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の信号処理部42によって人物が検出された場合に、人物を検出したことを示すアラーム信号を警備装置14に出力する。
The
撮影部32は、CCDなどの、可視光などに感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などで構成される。撮影部32としては、例えば、単方位カメラあるいは全方位カメラを利用することができる。撮影部32は、監視領域を順次撮影することによって撮影画像を順次取得する。本実施形態では、撮影部32は、一定の時間間隔(例えば1/5秒)毎に撮影を行うが、撮影部32の撮影方法はこれには限られない。取得された撮影画像は記憶部34に記憶される。
The photographing
記憶部34は、半導体メモリ、磁気ディスク(HDD)、又はCD−ROM、DVD−RAMなどの光ディスクドライブ及びその記録媒体で構成される。記憶部34には、画像センサ22の各部を動作させるための画像処理プログラムが記憶される。また、図2に示される通り、記憶部34には、撮影部32が順次取得した複数の撮影画像36、背景画像38、及び参照情報40が記憶される。
The
背景画像38は、監視領域の背景を撮影した画像であり、監視領域内に人物が存在していないときの撮影画像36に基づいて信号処理部42により作成される。例えば、信号処理部42は、撮影部32が順次取得した複数の撮影画像36の間のフレーム間差分を求め、フレーム間での対応画素間の輝度差の絶対値の平均値を求める。そして、信号処理部42は、その平均値が所定の基準よりも小さい撮影画像36を背景画像38として記憶部34に記憶させる。また、背景画像38は、照明状態の変動、太陽の日周変動などの監視領域の変動に対応するために、一定周期(例えば、10分間隔)毎に更新されるのが好適である。
The
参照情報40は、検出対象(本実施形態では人物)の特徴を表す情報であり、本実施形態では、人物の標準的な身長を示す参照身長(例えば180cm)、人物の標準的な幅を示す参照身幅(例えば60cm)、及び、人物の標準的な移動速度を示す参照移動速度を示す情報を含んでいる。
The
信号処理部42は、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像センサ22の各種信号処理を実行する。図2に示されるように、信号処理部42は、第1差分処理手段44、ラベル整形手段46、追跡手段48、第2差分処理手段50、影領域判定手段52、及び侵入者判定手段54としての機能を発揮する。信号処理部42がこれらの手段を発揮することで、撮影画像36において、人物(侵入者)を示す画像領域である移動体領域が検出される。以下、信号処理部42が有する各手段について説明する。
The
第1差分処理手段44は、撮影画像36と、記憶部34に予め記憶された背景画像38とを比較して、両画像間で相違する画素を抽出し、抽出された画素を第1の値(例えば1)とし、抽出されない画素を第2の値(例えば0)とする二値画像である背景差分画像を求める背景差分処理を行う。ここで「両画像間で相違する画素」とは、撮影画像36と背景画像38との間で輝度値又は色成分の差が所定値以上である撮影画像36の画素を意味する。第1差分処理手段44は、順次取得される複数の撮影画像36それぞれと、背景画像38との間で背景差分処理を行う。
The first difference processing means 44 compares the captured
図3には、移動体領域を検出する対象となる撮影画像36である対象画像36(a)、背景画像38(b)、及び背景差分画像60(c)の例が示されている。ちなみに、対象画像36aは、記憶部34に記憶された複数の撮影画像36のうち、必ずしも最新の撮影画像36でなくてもよい。図3(a)の例のように、対象画像36aに人物が含まれている場合には、背景差分処理により、図3(c)に示されるように、当該人物及び当該人物の影に対応する画素群からなる背景差分領域62が抽出される。なお、背景差分領域62に含まれる画素を背景差分抽出画素と呼ぶ。図3(c)に示されるように、対象画像36aに人物の影が含まれている場合には、影を示す領域も背景差分領域62に含まれる。
FIG. 3 shows examples of the target image 36 (a), the background image 38 (b), and the background subtraction image 60 (c), which are the captured
また、第1差分処理手段44は、各背景差分抽出画素に対して識別子(ラベル)を付与するラベリング処理を行う。ラベルとしては、例えば、背景差分画像60内でユニークな数値を用いることができる。ラベリング処理では、ある背景差分抽出画素に注目したとき、当該画素に隣接している他の背景差分抽出画素からなる一塊の画素群を1つの背景差分領域62とみなす。なお、背景差分抽出画素に隣接する画素とは、背景差分抽出画素の上下左右方向に隣接する画素であってもよいし、斜め方向に隣接する画素まで含めてもよい。その上で、各背景差分領域62に対して異なるラベルを付与し、背景差分画像60の画素値として記憶する処理を行う。以下、ラベルが付与された背景差分領域62のことをラベル領域64と呼ぶ場合がある。
In addition, the first subtraction processing means 44 performs labeling processing for assigning an identifier (label) to each background subtraction extraction pixel. As the label, for example, a unique numerical value in the
ラベル整形手段46は、第1差分処理手段44により抽出された各ラベル領域64を整形するラベル整形処理を実行する。例えば、所定範囲内にある複数のラベル領域64を、統合した場合に人物らしい大きさあるいは形状の領域となるかどうかなどの所定の条件に基づいて、複数のラベル領域64を統合するラベル統合処理を実行する。ラベル統合処理によれば、例えば、同一人物の上半身と下半身とがそれぞれ異なるラベル領域64として抽出された場合に、当該2つのラベル領域64を統合して1人の人物の像に対応する1つのラベル領域64とすることができる。
The label shaping means 46 executes a label shaping process for shaping each
また、例えば、ラベル整形手段46は、ラベル領域64を削除するラベル削除処理を行ってもよい。ラベル削除処理は、明らかに人物でないと判断できるラベル領域64を削除する処理である。例えば、人物のサイズに対して大きすぎる、あるいは小さすぎるラベル領域64を削除する。
Further, for example, the label shaping means 46 may perform a label deletion process for deleting the
追跡手段48は、撮影部32が順次取得した複数の撮影画像36のそれぞれから抽出され、ラベル整形手段46にて整形されたラベル領域64を時間的に追跡する処理を行う。具体的には、追跡手段48は、今回取得された撮影画像36から抽出されてラベル整形手段46により整形された、各ラベル領域64と、過去に取得された撮影画像36から抽出されて、記憶部34に追跡用情報として記憶されているラベル領域64(以下「追跡ラベル領域」と記載する)とを同定する処理(同一人物に対応するラベル領域64であると判定する処理)を行う。ここで、追跡用情報は、追跡ラベル領域に関する、追跡ID、撮影画像36上の位置、及び追跡用特徴量が関連付けられた情報である。追跡用特徴量は、追跡ラベル領域の実空間におけるサイズや形状、輝度ヒストグラム、テクスチャ情報などである。
The tracking means 48 performs a process of temporally tracking the
追跡手段48は、今回取得された撮影画像36のラベル領域64の追跡用特徴量及び位置と、追跡ラベル領域の追跡用特徴量及び位置とを比較することで、今回取得された撮影画像36のラベル領域64と追跡ラベル領域とを同定する。例えば、追跡用特徴量が類似し、且つ、位置が近いもので同定する。そして、今回取得された撮影画像36のラベル領域64に対して、同定された追跡ラベル領域と同一の追跡IDを付与し、時系列に従って、今回取得された撮影画像36の当該ラベル領域64の追跡IDと、撮影画像36上の位置などを関連付けた上で記憶部34に追跡用情報として保存する。
The tracking means 48 compares the tracking feature amount and position of the
なお、今回取得された撮影画像36のラベル領域64において、追跡ラベル領域と同定が得られなかったものについては、新規の人物が出現したものとして、当該ラベル領域64の追跡特徴量に新規の追跡IDを付与する。また、これまで追跡していた追跡ラベル領域のうち、今回取得された撮影画像36のラベル領域64と同定が得られなかったものがある場合、当該追跡ラベル領域に対応する人物が消失したものとして、当該追跡用情報を削除する。
In the
追跡手段48は、上述のラベル領域64の追跡処理を行うことで、2つの撮影画像36間におけるラベル領域64(背景差分領域62)の移動方向及び移動量を求めることができる。具体的には、前時点の撮影画像36に含まれるラベル領域64の所定位置(座標)から、後時点の撮影画像に含まれる同じ追跡IDが付与されたラベル領域64の所定位置に向かう方向が移動方向であり、両者の間の距離がラベル領域64の移動量となる。
The tracking means 48 can obtain the moving direction and the amount of movement of the label area 64 (background subtraction area 62) between the two captured
第2差分処理手段50は、対象画像36aと、他の撮影画像36とを比較して、両画像間で相違する画素を抽出し、抽出された画素を第1の値(例えば1)とし、抽出されない画素を第2の値(例えば0)とする二値画像であるフレーム間差分画像を求めるフレーム間差分処理を行う。ここで、比較画像としてのとしての他の撮影画像36とは、対象画像36aよりも後に詳細に説明する差分期間だけ過去又は未来に撮影された画像である。本実施形態では、比較画像は、対象画像36aよりも差分期間だけ過去に撮影した過去画像36bとする。
The second difference processing means 50 compares the
図4には、対象画像36a(a)、過去画像36b(b)、及びフレーム間差分画像66(c)の例が示されている。図4の例では、対象画像36aに含まれる人物の位置と、過去画像36bに含まれる人物の位置が少しだけ異なっている。図4(c)に示されるように、対象画像36aと過去画像36bとの間で、輝度値又は色成分の差が所定値以上であるフレーム間差分領域68が抽出される。なお、フレーム間差分領域68に含まれる画素をフレーム間差分抽出画素と呼ぶ。
FIG. 4 shows examples of the
人物への光の当たり具合、あるいは衣服のしわや模様などに起因して、人物の部分は、少し位置がずれただけであっても、1つの画素について着目してみると、対象画像36aと過去画像36bとの間において画素の輝度値や色成分がかなり異なる場合が多い。したがって、フレーム間差分画像66においては、対象画像36aと過去画像36bとの間で、人物が重なっている画素についてもフレーム間差分抽出画素として抽出される。
Even if the position of the person's part is slightly displaced due to the degree of light hitting the person, wrinkles or patterns of clothes, etc., when focusing on one pixel, the
一方、人物の影の部分は、対象画像36aと過去画像36bとの間において、どの画素も似たような輝度値や色成分となる場合が多い。具体的には、輝度値が低く、床面のテクスチャがうっすらと見えるような画素となっている場合が多い。したがって、フレーム間差分画像66においては、対象画像36aと過去画像36bとの間で、影が重なっている画素は、フレーム間差分抽出画素として抽出されない。影の部分は、対象画像36aで影であったが過去画像36bで影でなくなった画素、及び、対象画像36aで影でなかったが過去画像36bで影となった画素のみがフレーム間差分画素として抽出される。
On the other hand, in the shadow portion of the person, there are many cases where all the pixels have similar brightness values and color components between the
影領域判定手段52は、フレーム間差分画像66を用いて、背景差分画像60に含まれる背景差分領域62(ラベル領域64)を、人物に対応する移動体領域と、人物の影に対応する影領域とを弁別する影領域判定処理を行う。
The shadow region determining means 52 uses the
図5には、背景差分画像60(a)、フレーム間差分画像66(b)、及び影領域判定手段52の判定結果(c)の例が示されている。上述の通り、フレーム間差分画像66においては、人物の影の大部分がフレーム間差分抽出画素として抽出されていない。
FIG. 5 shows an example of the background subtraction image 60 (a), the inter-frame subtraction image 66 (b), and the determination result (c) of the shadow region determination means 52. As described above, in the
したがって、影領域判定手段52は、背景差分画像60の背景差分領域62に含まれる各背景差分抽出画素のうち、フレーム間差分処理によってもフレーム間差分画素として抽出された画素群を人物に対応する移動体領域70とする。より詳しくは、背景差分画像60の各背景差分抽出画素のうち、フレーム間差分画像66における同座標の画素が、フレーム間差分領域68に含まれる(つまりフレーム間差分抽出画素である)画素を移動体領域70とする。
Therefore, the shadow
また、影領域判定手段52は、背景差分画像60の背景差分領域62に含まれる各背景差分抽出画素のうち、フレーム間差分処理によってフレーム間差分画素として抽出されなかった画素群を人物の影に対応する影領域72とする。より詳しくは、背景差分画像60の各背景差分抽出画素のうち、フレーム間差分画像66における同座標の画素が、フレーム間差分領域68に含まれない(つまりフレーム間差分抽出画素でない)画素を影領域72とする。
Further, the shadow region determining means 52 uses a group of pixels that are not extracted as interframe difference pixels by interframe subtraction processing among the background subtraction extraction pixels included in the
このようにして、背景差分画像60から検出された背景差分領域62(ラベル領域64)が、図5(c)に示すように、移動体領域70と影領域72に弁別される。
In this way, the background subtraction region 62 (label region 64) detected from the
上述のように、第2差分処理手段50は、対象画像36aと、対象画像36aよりも差分期間だけ過去に撮影した過去画像36bとのフレーム間差分画像66を求めている。当該差分期間としては、予め設定された期間を用い、例えば対象画像36aから所定のフレーム前の画像を過去画像36bとすることもできる。
As described above, the second difference processing means 50 obtains the
しかしながら、人物の移動速度が速い場合、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素がなくなってしまう場合がある。この場合、影領域判定手段52による上述の影領域判定処理によって、背景差分領域62を移動体領域70と影領域72に弁別することができなくなってしまう。具体的には、背景差分領域62のうち、実際には影の部分も移動体領域70であると判定されてしまう。
However, when the moving speed of the person is high, the pixels in which the shadow of the person overlaps may disappear between the
また、逆に、人物の移動速度がかなり遅い場合、対象画像36aと過去画像36bとの間で、人物の影のみならず、人物に対応する画素についても輝度値あるいは色成分に差異がなくなってしまう場合がある。この場合、フレーム間差分画像66においては、影のみならず人物の部分もフレーム間差分領域68として抽出されない。この場合も、影領域判定手段52による上述の影領域判定処理によって、背景差分領域62を移動体領域70と影領域72に弁別することができなくなってしまう。具体的には、背景差分領域62のうち、実際には人物の部分も影領域72であると判定されてしまう。
On the contrary, when the moving speed of the person is considerably slow, there is no difference in the brightness value or the color component not only in the shadow of the person but also in the pixels corresponding to the person between the
したがって、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素が存在するように、且つ、フレーム間差分画像66において、フレーム間差分領域68として人物に対応する部分が抽出されるように、第2差分処理手段50は、人物の移動速度に応じて差分期間を設定するようにするのが好適である。
Therefore, a portion corresponding to the person is extracted as the
人物の移動速度は、追跡手段48の追跡処理によって求められた、背景差分領域62(ラベル領域64)の移動量で表される。したがって、本実施形態では、第2差分処理手段50は、背景差分領域62の移動量が大きいほど、差分期間を短く設定する。換言すれば、第2差分処理手段50は、背景差分領域62の移動量が小さいほど、差分期間を長く設定する。
The moving speed of the person is represented by the amount of movement of the background subtraction region 62 (label region 64) obtained by the tracking process of the tracking means 48. Therefore, in the present embodiment, the second difference processing means 50 sets the difference period shorter as the amount of movement of the
なお、人物の移動速度は、別途の方法によって取得するようにしてもよい。例えば、測定対象の移動速度を測定するリニア測定センサなどを別途設け、当該リニア測定センサから送信される情報に基づいて、人物の移動速度を取得するようにしてもよい。なお、人物の移動速度が速ければ、必然的に、複数の撮影画像36間における背景差分領域62の移動量は大きくなる。
The moving speed of the person may be acquired by another method. For example, a linear measurement sensor or the like for measuring the moving speed of the measurement target may be separately provided, and the moving speed of the person may be acquired based on the information transmitted from the linear measurement sensor. If the moving speed of the person is high, the amount of movement of the
図6には、対象画像36aと、対象画像36aの過去に撮影された複数の撮影画像36−1〜36−4が示されている。図6の例は、人物の移動速度が速く、各撮影画像間における背景差分領域62の移動量が大きくなる例である。この場合、第2差分処理手段50は、差分期間を短くし、対象画像36aの1つ前のフレームである撮影画像36−1を過去画像36bとする。
FIG. 6 shows the
図7にも、対象画像36aと、対象画像36aの過去に撮影された複数の撮影画像36−1〜36−4が示されている。図7の例は、人物の移動速度が遅く、各撮影画像間における背景差分領域62の移動量が小さくなる例である。この場合、第2差分処理手段50は、差分期間を長くし、対象画像36aの3つ前のフレームである撮影画像36−3を過去画像36bとする。
FIG. 7 also shows the
また、フレーム間差分画像66においては、対象画像36aで影であったが過去画像36bで影でなくなった画素がフレーム間差分画素として抽出されるため、影領域判定手段52による影領域判定処理によって、図5(c)に示される通り、背景差分領域62のうち、実際には影の部分の一部が移動体領域70と判定されてしまう。
Further, in the
したがって、背景差分領域62のうち、実際には影の部分が適切に影領域72に含まれるように、影領域判定手段52は、上記影領域判定処理の後に、移動体領域70と判定された画素のうち、影領域72の外周から所定幅の画素を影領域72の画素として再判定する影領域拡張処理を行うのが好適である。
Therefore, of the
図8に、影領域拡張処理の様子が示されている。影領域判定手段52は、影領域判定処理の後、影領域72の外周から所定幅外側に位置する画素群(図8(a)の破線74で囲まれた画素群)を特定する。次いで、影領域判定手段52は、特定した破線74で囲まれた画素群のうち、移動体領域70と判定された画素を影領域72として再判定する。再判定された結果が図8(b)に示されている。図8(b)に示される通り、影領域拡張処理によれば、実際には影の部分が適切に影領域72と判定されている。
FIG. 8 shows the state of the shadow area expansion process. After the shadow area determination process, the shadow area determination means 52 identifies a pixel group (pixel group surrounded by a
ここで、人物の移動速度が速いほど、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素が少なくなるから、フレーム間差分画像66において、対象画像36aで影であったが過去画像36bで影でなくなった画素が多くなる。これにより、影領域判定処理によって、実際には影であるが移動体領域70であると判定される画素が多くなってしまう。
Here, the faster the moving speed of the person, the fewer pixels the shadow of the person overlaps between the
したがって、影領域判定手段52は、影領域拡張処理において、人物の移動速度に応じて、影領域72の外周の外側に特定する画素の幅(上記所定幅)を設定するようにするのが好適である。
Therefore, it is preferable that the shadow area determining means 52 sets the width of the pixel (the predetermined width) specified outside the outer periphery of the
ここでも、人物の移動速度は、追跡手段48の追跡処理によって求められた、背景差分領域62(ラベル領域64)の移動量で表されるから、本実施形態では、影領域判定手段52は、背景差分領域62の移動量が大きいほど、上記所定幅を大きい値となるように設定する。換言すれば、影領域判定手段52は、背景差分領域62の移動量が小さいほど、上記所定幅を小さい値となるように設定する。
Here, too, the moving speed of the person is represented by the movement amount of the background subtraction region 62 (label region 64) obtained by the tracking process of the tracking means 48. Therefore, in the present embodiment, the shadow
また、人物の移動方向に応じて、対象画像36aと過去画像36bとの間で、人物の影が重なっている画素の数の変動の仕方が変わる場合がある。例えば、人物が影の延伸方向に移動している場合、延伸方向の影の領域(影の先端部分の領域)が、過去画像36bで影でなかったが対象画像36aで影となった領域となりやすく、フレーム間差分画素として抽出されやすい。また、人物が影の延伸方向と直交する方向に移動している場合、当該直行する方向の影の領域(影の側方部分の領域)が、過去画像36bで影でなかったが対象画像36aで影となった領域となりやすく、フレーム間差分画素として抽出されやすい。
Further, depending on the moving direction of the person, the way of changing the number of pixels in which the shadow of the person overlaps may change between the
したがって、影領域判定手段52は、影領域拡張処理において、人物の移動方向に基づいて、影領域72の外周の外側に特定する画素の幅(上記所定幅)を設定するようにするのが好適である。例えば、人物の移動方向に相当する箇所の上記所定幅を大きい値となるように設定する。
Therefore, it is preferable that the shadow area determining means 52 sets the width of the pixel (the predetermined width) specified outside the outer circumference of the
人物の移動方向は、追跡手段48の追跡処理によって求められた、背景差分領域62(ラベル領域64)の移動方向で表されるから、本実施形態では、影領域判定手段52は、背景差分領域62の移動方向に基づいて、上記所定幅を設定する。
Since the moving direction of the person is represented by the moving direction of the background subtraction area 62 (label area 64) obtained by the tracking process of the tracking means 48, the shadow area determining means 52 uses the
図2に戻り、侵入者判定手段54は、上述の各手段の処理結果に基づいて、対象画像36aに含まれるラベル領域64のそれぞれについて、移動体である人物(侵入者)に対応するものであるか否かを判定する。
Returning to FIG. 2, the intruder determination means 54 corresponds to a moving person (intruder) for each of the
本実施形態では、侵入者判定手段54は、あるラベル領域64において、移動体領域70の画素の数と、影領域72の画素の数とを比較する。そして、移動体領域70の画素の数が多い場合には、当該ラベル領域64を移動体と判定する。一方、影領域72の画素の数が多い場合には、当該ラベル領域64を影であると判定する。
In the present embodiment, the intruder determination means 54 compares the number of pixels in the moving
次に、侵入者判定手段54は、移動体と判定されたラベル領域64が人らしいか否かを判定する。例えば、ラベル領域64の推定サイズ(推定高さあるいは推定幅)を求め、参照情報40に含まれる人物の標準的なサイズと比較することにより当該ラベル領域64が人らしいか否かを判定する。
Next, the
また、侵入者判定手段54は、追跡手段48の追跡処理の結果から、ラベル領域64の移動量に基づいてラベル領域64の推定速度を求め、参照情報40に含まれる人物の標準的な移動速度との比較結果をも考慮して、当該ラベル領域64が人らしいか否かを判定するようにしてもよい。
Further, the
上述の処理により、ラベル領域64が人らしいと判定された場合に、侵入者判定手段54は、対象画像36aに人物(侵入者)が含まれると判定し、通信部30からアラーム信号を出力させる。ここで、さらに、侵入者判定手段54は、予め定めたフレーム数(例えば、5フレーム)以上、同一の追跡IDが付与されたラベル領域64が連続して人らしいと判定された場合に、通信部30からアラーム信号を出力するようにしてもよい。
When the
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention.
例えば、本実施形態では、第1差分処理手段によって抽出された背景差分領域62に対してラベリング処理あるいは追跡処理が行われていたが、影領域判定処理を先に行い、移動体領域70と影領域72とが弁別された背景差分領域62に対してラベリング処理あるいは追跡処理が行われてもよい。これによれば、移動体領域70と影領域72とが弁別されているため、移動体領域70と影領域72とを別のラベル領域64とすることができる。また、ラベル整形処理により、移動体領域70と影領域72を分離することで、影領域72を移動体領域70とは異なるラベル領域64として扱うこともできる。また、影領域72に相当するラベル領域64を除去することもできる。
For example, in the present embodiment, the
10 警備システム、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像センサ、24 録画装置、30 通信部、32 撮影部、34 記憶部、36 撮影画像、36a 対象画像、36b 過去画像、38 背景画像、40 参照情報、42 信号処理部、44 第1差分処理手段、46 ラベル整形手段、48 追跡手段、50 第2差分処理手段、52 影領域判定手段、54 侵入者判定手段、60 背景差分画像、62 背景差分領域、64 ラベル領域、66 フレーム間差分画像、68 フレーム間差分領域、70 移動体領域、72 影領域、74 破線。 10 security system, 12 monitored property, 14 security device, 16 communication network, 18 security center device, 20 user device, 22 image sensor, 24 recording device, 30 communication unit, 32 imaging unit, 34 storage unit, 36 captured image , 36a Target image, 36b Past image, 38 Background image, 40 Reference information, 42 Signal processing unit, 44 First subtraction processing means, 46 Label shaping means, 48 Tracking means, 50 Second difference processing means, 52 Shadow area determination means , 54 Intruder determination means, 60 background subtraction image, 62 background subtraction area, 64 label area, 66 interframe subtraction image, 68 interframe subtraction area, 70 moving body area, 72 shadow area, 74 broken line.
Claims (6)
前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、
前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、
を備えることを特徴とする画像処理装置。 An image processing device that detects a moving body area indicating an image area of a moving body from a target image among captured images obtained by sequentially shooting a predetermined area.
Background subtraction processing between the background image obtained by capturing the background of the predetermined region and the target image, and between frames between the target image and the comparative image captured in the past or future by a difference period from the target image. A means of difference processing that performs difference processing and
Among the pixels extracted by the background subtraction processing, the pixels extracted by the inter-frame subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the inter-frame subtraction processing are shadows corresponding to shadows. Shadow subtraction determination means for determining as area pixels,
An image processing apparatus comprising.
ことを特徴とする請求項1に記載の画像処理装置。 The difference processing means sets the difference period shorter as the amount of movement of the background subtraction region between the plurality of captured images is larger.
The image processing apparatus according to claim 1.
ことを特徴とする請求項2に記載の画像処理装置。 The shadow region determination means redetermines pixels having a predetermined width from the outer periphery of the shadow region as pixels in the shadow region among the pixels determined to be the moving body region.
The image processing apparatus according to claim 2.
ことを特徴とする請求項3に記載の画像処理装置。 The shadow region determining means sets the predetermined width to a larger value as the movement amount is larger.
The image processing apparatus according to claim 3.
ことを特徴とする請求項3又は4に記載の画像処理装置。 The shadow region determining means sets the predetermined width based on the moving direction of the background subtraction region between the plurality of captured images.
The image processing apparatus according to claim 3 or 4.
コンピュータを、
前記所定領域の背景を撮影した背景画像と前記対象画像との間の背景差分処理、及び、前記対象画像と該対象画像よりも差分期間だけ過去又は未来に撮影した比較画像との間のフレーム間差分処理を行う差分処理手段と、
前記背景差分処理によって抽出された画素のうち、前記フレーム間差分処理によって抽出された画素を前記移動体領域の画素として判定し、前記フレーム間差分処理によって抽出されなかった画素を影に相当する影領域の画素として判定する影領域判定手段と、
として機能させることを特徴とする画像処理プログラム。
An image processing program for detecting a moving body area indicating an image area of a moving body from a target image among captured images obtained by sequentially shooting a predetermined area.
Computer,
Background subtraction processing between the background image obtained by capturing the background of the predetermined region and the target image, and between frames between the target image and the comparative image captured in the past or future by a difference period from the target image. A means of difference processing that performs difference processing and
Among the pixels extracted by the background subtraction processing, the pixels extracted by the inter-frame subtraction processing are determined as the pixels of the moving body region, and the pixels not extracted by the inter-frame subtraction processing are shadows corresponding to shadows. Shadow subtraction determination means for determining as area pixels,
An image processing program characterized by functioning as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044058A JP7290961B2 (en) | 2019-03-11 | 2019-03-11 | Image processing device and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044058A JP7290961B2 (en) | 2019-03-11 | 2019-03-11 | Image processing device and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149132A true JP2020149132A (en) | 2020-09-17 |
JP7290961B2 JP7290961B2 (en) | 2023-06-14 |
Family
ID=72430110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044058A Active JP7290961B2 (en) | 2019-03-11 | 2019-03-11 | Image processing device and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7290961B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112021003386T5 (en) | 2020-09-04 | 2023-04-13 | Mitsubishi Heavy Industries, Ltd. | PERFORATED PLATE FOR GAS TURBINE COMBUSTOR, GAS TURBINE COMBUSTOR AND GAS TURBINE |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001060247A (en) * | 1999-06-14 | 2001-03-06 | Fuji Xerox Co Ltd | Device and method for image processing |
JP2001167282A (en) * | 1999-12-10 | 2001-06-22 | Toshiba Corp | Device and method for extracting moving object |
JP2012033052A (en) * | 2010-07-30 | 2012-02-16 | Secom Co Ltd | Image processing device and object detecting device |
WO2013150829A1 (en) * | 2012-04-03 | 2013-10-10 | ソニー株式会社 | Image processing device, image processing device control method, and program |
JP2015090679A (en) * | 2013-11-07 | 2015-05-11 | 国立大学法人京都大学 | Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system |
-
2019
- 2019-03-11 JP JP2019044058A patent/JP7290961B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001060247A (en) * | 1999-06-14 | 2001-03-06 | Fuji Xerox Co Ltd | Device and method for image processing |
JP2001167282A (en) * | 1999-12-10 | 2001-06-22 | Toshiba Corp | Device and method for extracting moving object |
JP2012033052A (en) * | 2010-07-30 | 2012-02-16 | Secom Co Ltd | Image processing device and object detecting device |
WO2013150829A1 (en) * | 2012-04-03 | 2013-10-10 | ソニー株式会社 | Image processing device, image processing device control method, and program |
JP2015090679A (en) * | 2013-11-07 | 2015-05-11 | 国立大学法人京都大学 | Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system |
Non-Patent Citations (1)
Title |
---|
天本 直弘,外1名: "画像処理技術による障害物検出と移動物体追跡方法", 電子情報通信学会論文誌, vol. 81, no. 4, JPN6023000550, 25 April 1998 (1998-04-25), pages 527 - 535, ISSN: 0004964713 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112021003386T5 (en) | 2020-09-04 | 2023-04-13 | Mitsubishi Heavy Industries, Ltd. | PERFORATED PLATE FOR GAS TURBINE COMBUSTOR, GAS TURBINE COMBUSTOR AND GAS TURBINE |
Also Published As
Publication number | Publication date |
---|---|
JP7290961B2 (en) | 2023-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7751647B2 (en) | System and method for detecting an invalid camera in video surveillance | |
US20180115749A1 (en) | Surveillance system and surveillance method | |
TWI405150B (en) | Video motion detection method and non-transitory computer-readable medium and camera using the same | |
CN102833478B (en) | Fault-tolerant background model | |
JP4832894B2 (en) | Image sensor | |
CN111163285A (en) | High-altitude falling object monitoring method and system and computer readable storage medium | |
KR102144394B1 (en) | Apparatus and method for alignment of images | |
JP2019186955A (en) | Information processing system, information processing method, and program | |
US11281900B2 (en) | Devices, methods, and systems for occupancy detection | |
JP6292540B2 (en) | Information processing system, information processing method, and program | |
JP2011123742A (en) | Intruding object detector | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
KR101212082B1 (en) | Image Recognition Apparatus and Vison Monitoring Method thereof | |
JP6088024B2 (en) | Video surveillance system and method for detecting fraud | |
JP5758165B2 (en) | Article detection device and stationary person detection device | |
JP5865584B2 (en) | Specific person detection system and detection method | |
JP7290961B2 (en) | Image processing device and image processing program | |
JP7188934B2 (en) | Image processing device | |
JPH0514891A (en) | Image monitor device | |
JP2000341679A (en) | Picture recognizing device and monitoring device | |
JP7221092B2 (en) | Image processing device and image processing program | |
JP7328778B2 (en) | Image processing device and image processing program | |
JP4925942B2 (en) | Image sensor | |
JP7101080B2 (en) | Image processing equipment | |
JP5877722B2 (en) | Image monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7290961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |