JP5060264B2 - Human detection device - Google Patents

Human detection device Download PDF

Info

Publication number
JP5060264B2
JP5060264B2 JP2007317021A JP2007317021A JP5060264B2 JP 5060264 B2 JP5060264 B2 JP 5060264B2 JP 2007317021 A JP2007317021 A JP 2007317021A JP 2007317021 A JP2007317021 A JP 2007317021A JP 5060264 B2 JP5060264 B2 JP 5060264B2
Authority
JP
Japan
Prior art keywords
person
detection
area
fine movement
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007317021A
Other languages
Japanese (ja)
Other versions
JP2009140307A (en
Inventor
和歳 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2007317021A priority Critical patent/JP5060264B2/en
Publication of JP2009140307A publication Critical patent/JP2009140307A/en
Application granted granted Critical
Publication of JP5060264B2 publication Critical patent/JP5060264B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/30Technical effects
    • H01L2924/35Mechanical effects
    • H01L2924/351Thermal stress

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、入力画像と背景画像との差分に基づいて人物を検出する人物検出装置に関し、特に、照明変動や背景変動がある場合であっても静止人物を含む人物を高精度に判別することができる人物検出装置に関するものである。   The present invention relates to a person detection device that detects a person based on a difference between an input image and a background image, and more particularly to accurately determine a person including a stationary person even when there is illumination fluctuation or background fluctuation. The present invention relates to a person detection device capable of

背景となる画像である背景画像を予め取得しておき、この背景画像と入力画像との差分をとることによって背景から変化した領域(以下、「背景相違領域」と記載する)を抽出する背景差分法が知られている。   A background difference that obtains a background image that is a background image in advance and extracts an area that has changed from the background by taking the difference between the background image and the input image (hereinafter referred to as “background different area”). The law is known.

この背景差分法を、人物等の動体検出に用いる場合、照明器具のON/OFFや日照変化による照明変動が問題となる。なぜならば、背景差分法は、背景画像と入力画像との差分をとるものであるため、取得時の背景画像と実際の背景とに差異があれば、照明変動によって変化した背景を動体として誤検出してしまうからである。   When this background subtraction method is used for detecting a moving object such as a person, lighting fluctuation due to ON / OFF of a lighting fixture or a change in sunlight becomes a problem. This is because the background subtraction method calculates the difference between the background image and the input image, so if there is a difference between the background image at the time of acquisition and the actual background, the background that has changed due to illumination fluctuations is detected as a moving object. Because it will do.

このため、照明変動に起因する誤検出を防止する手法が提案されている。たとえば、特許文献1には、背景相違領域が照明変動に起因するものであるか、人物等の物体通過によるものであるかを判定する手法が開示されている。具体的には、所定の小領域における光学的特徴パラメータ値の単位時間あたりの変動を統計的特徴量として算出し、算出した統計的特徴量を、予め求めておいた照明変動の統計的特徴量と比較することで照明変動を特定する。   For this reason, a method for preventing erroneous detection due to illumination variation has been proposed. For example, Patent Literature 1 discloses a method for determining whether a background different area is caused by illumination fluctuation or by passing an object such as a person. Specifically, the fluctuation per unit time of the optical feature parameter value in a predetermined small area is calculated as a statistical feature quantity, and the calculated statistical feature quantity is a statistical feature quantity of illumination fluctuation obtained in advance. To identify lighting fluctuations.

特開平7−302328号公報JP-A-7-302328

しかしながら、特許文献1の技術は、対象とする小領域のサイズおよび統計処理における単位時間をどのような値とするかによって動体検出の性能が大きく左右されるという問題がある。たとえば、単位時間を小さく設定した場合(たとえば、t秒)、t秒以上にわたって同一の場所にとどまっている人物を検出することは困難である。一方、単位時間を大きな値にすると、照明変動を検出することが困難となる。   However, the technique of Patent Document 1 has a problem that the performance of moving object detection is greatly influenced by the size of the target small region and the value of the unit time in the statistical processing. For example, when the unit time is set small (for example, t seconds), it is difficult to detect a person who remains in the same place for t seconds or more. On the other hand, if the unit time is set to a large value, it is difficult to detect illumination fluctuation.

また、小領域のサイズを小さく設定した場合には、動体の細かな動きを検出することができるが、照明変動を検出することが困難となる。その理由は、照明変動を小領域でみると反射の影響等で小刻みに輝度変化しているため、動体の細かな動きと区別がつけにくいからである。   In addition, when the size of the small area is set small, it is possible to detect a fine movement of the moving object, but it is difficult to detect a variation in illumination. The reason is that when the illumination variation is seen in a small area, the brightness changes little by little due to the influence of reflection or the like, so that it is difficult to distinguish from the fine movement of the moving object.

このように、特許文献1の技術は、小領域のサイズおよび単位時間を適度な値とした場合にのみ動体と照明変動とを区別することができるものの、照明変動と区別することができるのは、歩く人等の移動が大きい動体に限られる。すなわち、特許文献1の技術を用いた場合であっても、同じ位置にとどまる静止人物を照明変動と区別して検出することは困難である。   As described above, although the technique of Patent Document 1 can distinguish a moving object from an illumination variation only when the size and unit time of a small region are set to appropriate values, it can be distinguished from an illumination variation. , Limited to moving objects with large movements such as walking people. That is, even when the technique of Patent Document 1 is used, it is difficult to detect a stationary person who stays at the same position by distinguishing it from illumination variation.

ところで、背景差分法を用いる場合、照明変動のみではなく、背景そのものが変動した場合の対処を行う必要がある。たとえば、銀行や空港などのように、行列の長さに応じて行列整理用のロープ配置を変更する場合には、ロープ配置の変更に伴う背景変動を動体と区別する必要がある。   By the way, when the background subtraction method is used, it is necessary to deal with not only illumination variation but also the background itself. For example, when changing the arrangement of the ropes for organizing the matrix according to the length of the matrix, such as a bank or an airport, it is necessary to distinguish the background fluctuations associated with the change of the rope arrangement from the moving object.

これらのことから、照明変動や背景変動がある場合であっても静止人物を含む人物を高精度に判別することができる人物検出装置をいかにして実現するかが大きな課題となっている。   For these reasons, it has become a major issue how to realize a person detection apparatus that can accurately determine a person including a stationary person even when there is a lighting fluctuation or a background fluctuation.

この発明は、上述した従来技術による問題点を解消するためになされたものであり、照明変動や背景変動がある場合であっても静止人物を含む人物を高精度に判別することができる人物検出装置を提供することを目的とする。   The present invention has been made to solve the above-described problems caused by the prior art, and can detect a person including a stationary person with high accuracy even when there is illumination fluctuation or background fluctuation. An object is to provide an apparatus.

上述した課題を解決し、目的を達成するため本発明は、入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、前記入力画像における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出する微動検出手段と、前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段と、前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された画素単位に基づいて人物を検出する人物検出手段とを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is a person detection device that detects a person based on a difference between an input image and a background image, and is a pixel composed of one or more pixels in the input image. For each unit , there is an alternating repetition of light and dark based on the difference between the average luminance value in the past first predetermined period and the current input luminance value, and this repetition is repeated a predetermined number of times within the second predetermined period, and the light and dark fluctuations A fine movement detecting means for detecting a fine movement of a luminance change due to a non-constant period, an edge detected from the input image, and an edge that is stationary for a third predetermined period and an edge that is continuous for a certain number of pixels in the same direction an edge detecting means for excluding, said fine said by the detecting means fine movement is detected, and detects the person based on the pixel where the edge is detected by said edge detection means Characterized in that a person detection means for.

また、本発明は、入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、前記入力画像上に人物検出の対象領域である検出対象領域を設定する設定手段と、前記設定手段が設定した前記検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより微動を検出する輝度変化の微動を検出する微動検出手段と、前記微動検出手段によって前記微動が検出された前記画素単位の数が所定の閾値以上である場合に、当該検出対象領域を人物が存在する領域である人物領域として検出する人物検出手段とを備えたことを特徴とする。 Further, the present invention is a person detection device for detecting a person based on a difference between an input image and a background image, and setting means for setting a detection target area that is a target detection area on the input image; For each pixel unit composed of one or a plurality of pixels in the detection target region set by the setting means , alternating light and dark are repeated based on the difference between the past average luminance value in the first predetermined period and the current input luminance value. Yes, the repetition is repeated a predetermined number of times within the second predetermined period, and the fine movement detecting means for detecting the fine movement of the luminance change for detecting the fine movement due to the fact that the period of the brightness fluctuation is not substantially constant, and the fine movement detecting means Person detection means for detecting the detection target area as a person area where a person exists when the number of pixel units in which fine movement is detected is equal to or greater than a predetermined threshold. And features.

また、本発明は、上記の発明において、前記設定手段は、前記入力画像と前記背景画像とが相違する領域である背景差異領域を前記検出対象領域として設定することを特徴とする。   Further, the present invention is characterized in that, in the above invention, the setting means sets a background difference area, which is an area where the input image and the background image are different, as the detection target area.

また、本発明は、上記の発明において、前記設定手段は、運用場所に応じて予め定義された領域である定義領域を前記検出対象領域として設定することを特徴とする。   Further, the present invention is characterized in that, in the above invention, the setting means sets, as the detection target area, a definition area that is an area defined in advance according to an operation place.

また、本発明は、上記の発明において、前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段をさらに備え、前記人物検出手段は、前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された前記画素単位の数が所定の閾値以上である場合に、当該検出対象領域を前記人物領域として検出することを特徴とする。 The present invention, in the above invention, further comprises edge detection means for detecting an edge from the input image and excluding an edge that is stationary for a third predetermined period and an edge that is continuous for a certain number of pixels in the same direction, The person detecting means detects the detection target area when the fine movement is detected by the fine movement detecting means and the number of the pixel units in which the edge is detected by the edge detecting means is equal to or larger than a predetermined threshold. It is detected as a person area.

また、本発明は、上記の発明において、前記人物検出手段が前記人物領域として検出しなかった前記検出対象領域である非検出領域を前記背景画像に取り込むことによって前記背景画像を更新する更新手段をさらに備えたことを特徴とする。   Further, the present invention provides the update means for updating the background image by taking in the background image a non-detection area that is the detection target area that the person detection means did not detect as the person area in the above invention. It is further provided with a feature.

また、本発明は、上記の発明において、前記更新手段が前記背景画像を更新してから所定時間以内に前記人物検出手段が前記非検出領域を前記人物領域として検出したことを条件として、前記背景画像更新手段による前記背景画像の更新を取り消す更新取消手段をさらに備えたことを特徴とする。   Further, according to the present invention, in the above invention, on the condition that the person detecting means detects the non-detection area as the person area within a predetermined time after the updating means updates the background image. An update canceling unit for canceling the update of the background image by the image updating unit is further provided.

また、本発明は、入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、運用場所に応じて予め定義された領域である定義領域を人物検出の対象領域である検出対象領域として設定する設定手段と、前記設定手段が設定した前記検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出する微動検出手段と、前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段と、前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段により前記エッジが検出された前記画素単位の数が所定の閾値以上である前記検出対象領域の数を人数として計数する計数手段とを備えたことを特徴とする。 In addition, the present invention is a person detection device that detects a person based on a difference between an input image and a background image, and a definition area that is a predefined area according to an operation place is a person detection target area. A setting means for setting as a detection target area, and an average luminance value in the past first predetermined period and a current input luminance value for each pixel unit composed of one or a plurality of pixels in the detection target area set by the setting means . There is an alternating repetition of light and dark based on the difference, this repetition is repeated a predetermined number of times within the second predetermined period, and fine movement detecting means for detecting fine movement of the luminance change due to the period of the light and dark fluctuation being not substantially constant ; and it detects an edge from the input image, an edge detection unit, except for the edges successively a predetermined pixel or the third predetermined time period still to have an edge and the same direction, the said fine detection means Said fine has been detected, and the number of the pixels in which the edge is detected by the edge detecting means has a counting means for counting the number of the detection target area is above a predetermined threshold value as a number Te It is characterized by.

また、本発明は、入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、運用場所に応じて予め定義された領域である定義領域を人物検出の対象領域である検出対象領域として設定するとともに、人数を計数する対象である人数計数領域を設定する設定手段と、前記設定手段が設定した前記検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出する微動検出手段と、前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段と、前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された前記画素単位の数が所定の閾値以上である前記人数計数領域の数を人数として計数する計数手段とを備えたことを特徴とする。 In addition, the present invention is a person detection device that detects a person based on a difference between an input image and a background image, and a definition area that is a predefined area according to an operation place is a person detection target area. A setting means for setting a number counting area, which is a target for counting the number of persons, and setting as a detection target area, and a past number for each pixel unit composed of one or a plurality of pixels in the detection target area set by the setting means . 1 There is a light and dark alternating repetition based on the difference between the average luminance value for a predetermined period and the current input luminance value, this repetition is repeated a predetermined number of times within the second predetermined period, and the period of light and dark fluctuations is substantially constant. fine movement detecting means for detecting a fine movement of luminance change by the absence, and detects an edge from the input image, a certain pixel over a third predetermined period still to have an edge and the same direction communicating An edge detecting unit, excluding the edges, the said fine by fine movement detection means is detected and the number of the pixels in which the edge is detected by said edge detection means of the people counting area is above a predetermined threshold value And a counting means for counting the number as the number of persons.

また、本発明は、上記の発明において、前記計数手段が計数した前記人数と当該人数が計上された領域とを対応付けて時系列に記憶する記憶手段と、前記記憶手段に記憶された時系列の前記人数に基づいて人の滞在時間密度図を生成する生成手段とをさらに備えたことを特徴とする。   Further, the present invention is the above invention, wherein the number of persons counted by the counting means and the area in which the number of persons is counted are associated with each other and stored in time series, and the time series stored in the storage means And generating means for generating a person's stay time density map based on the number of persons.

本発明によれば、入力画像における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出し、入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除き微動が検出され、かつ、エッジが検出された画素単位に基づいて人物を検出することとしたので、静止人物を含む人物の輪郭部に現れやすい微動と人物を含む物体の輪郭部に現れるエッジとを組み合わせて人物検出を行うことで、照明変動や背景変動がある場合であっても静止人物を含む人物を高精度に判別することができるという効果を奏する。 According to the present invention, for each pixel unit consisting of one or a plurality of pixels in the input image , there is an alternating repetition of light and dark based on the difference between the average luminance value of the past first predetermined period and the current input luminance value, This repetition is repeated a predetermined number of times within the second predetermined period, and the brightness fluctuation is not substantially constant, thereby detecting a slight change in luminance, detecting an edge from the input image, and resting for the third predetermined period. Except for edges that are present and continuous edges of a certain number of pixels or more in the same direction , and the person is detected based on the pixel unit from which the edge was detected. Performs human detection by combining fine movements that tend to appear and edges that appear in the contours of objects that include people, enabling high accuracy for people including stationary people even when there are variations in lighting and background. An effect that can be discriminated.

また、本発明によれば、入力画像上に人物検出の対象領域である検出対象領域を設定し、設定した検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより微動を検出し、微動が検出された画素単位の数が所定の閾値以上である場合に、この検出対象領域を人物が存在する領域である人物領域として検出することとしたので、静止人物を含む人物の輪郭部に現れやすい微動が所定の閾値以上認められた検出対象領域に人物が存在する領域とすることで、微動を誤検出した場合であっても検出対象領域ごとの人物の有無を高精度に判別することができるという効果を奏する。 Further, according to the present invention, a detection target region that is a target region for human detection is set on the input image, and a past first predetermined period is set for each pixel unit including one or a plurality of pixels in the set detection target region. There is an alternating repetition of light and dark based on the difference between the average luminance value and the current input luminance value, and this repetition is repeated a predetermined number of times within the second predetermined period, and the period of fluctuation of light and dark is not substantially constant. When the number of pixel units in which fine movement is detected is equal to or greater than a predetermined threshold, the detection target area is detected as a person area where a person exists. The presence of a person in each detection target area is highly accurate even if a slight movement is mistakenly detected by making the area where a person exists in the detection target area where the fine movement that is likely to appear in the outline of the object is recognized above a predetermined threshold. In An effect that it is possible to separate.

また、本発明によれば、入力画像と背景画像とが相違する領域である背景差異領域を検出対象領域として設定することとしたので、カメラ画像のみに基づいて人物を検出することができるという効果を奏する。   In addition, according to the present invention, since the background difference area, which is an area where the input image and the background image are different, is set as the detection target area, it is possible to detect a person based only on the camera image. Play.

また、本発明によれば、運用場所に応じて予め定義された領域である定義領域を検出対象領域として設定することとしたので、運用場所を問わず人物を検出することができるという効果を奏する。   In addition, according to the present invention, since the definition area that is a predefined area according to the operation location is set as the detection target region, it is possible to detect a person regardless of the operation location. .

また、本発明によれば、入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除き、微動が検出され、かつ、エッジが検出された画素単位の数が所定の閾値以上である場合に、この検出対象領域を人物領域として検出することとしたので、静止人物を含む人物の輪郭部に現れやすい微動と人物を含む物体の輪郭部に現れるエッジとが現れた画素単位の数を人物検出の判断基準とすることで、静止人物を含む人物を高精度に判別することができるという効果を奏する。 In addition, according to the present invention, edges are detected from the input image, and fine movement is detected and edges are detected except for edges that are stationary for a third predetermined period and edges that are continuous for a certain number of pixels in the same direction. When the number of pixel units is equal to or greater than a predetermined threshold, the detection target area is detected as a person area. Therefore, the fine movement that easily appears in the outline of a person including a stationary person and the outline of an object including a person By using the number of pixel units in which the edge appearing in the image appears as a person detection criterion, there is an effect that a person including a stationary person can be determined with high accuracy.

また、本発明によれば、人物領域として検出しなかった検出対象領域である非検出領域を背景画像に取り込むことによって背景画像を更新することとしたので、物品の移動等によって背景画像が変化した場合であっても静止人物を含む人物を高精度に判別することができるという効果を奏する。   In addition, according to the present invention, the background image is updated by moving the article or the like because the background image is updated by capturing the non-detection area, which is the detection target area not detected as the person area, into the background image. Even if it is a case, there exists an effect that the person including a still person can be discriminate | determined with high precision.

また、本発明によれば、背景画像を更新してから所定時間以内に非検出領域を人物領域として検出したことを条件として、背景画像の更新を取り消すこととしたので、背景画像を誤更新した場合であっても、誤更新する前の背景画像に戻すことで、人物の検出精度を向上させることができるという効果を奏する。   Further, according to the present invention, the background image update is canceled on the condition that the non-detection area is detected as a person area within a predetermined time after the background image is updated. Even if it is a case, there exists an effect that the detection accuracy of a person can be improved by returning to the background image before erroneously updating.

また、本発明によれば、運用場所に応じて予め定義された領域である定義領域を人物検出の対象領域である検出対象領域として設定し、設定した検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出し、入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除き、微動が検出され、かつ、エッジが検出された画素単位の数が所定の閾値以上である検出対象領域の数を人数として計数することとしたので、静止人物を含む人物の輪郭部に現れやすい微動が所定の閾値以上認められた検出対象領域の数を人数として計数することで、人物の数を簡便に求めることができるという効果を奏する。 In addition, according to the present invention, a definition area that is a predefined area according to an operation place is set as a detection target area that is a target area for person detection, and is composed of one or a plurality of pixels in the set detection target area. For each pixel unit , there is an alternating repetition of light and dark based on the difference between the average luminance value of the past first predetermined period and the current input luminance value, and this repetition is repeated a predetermined number of times within the second predetermined period. Detects slight changes in luminance due to the fact that the period of fluctuation is not substantially constant, detects edges from the input image, and removes fine edges except for edges that are stationary for a third predetermined period and edges that are continuous for a certain number of pixels in the same direction. There are detected, and the number of pixels that the edge has been detected was counting the number of detection target region is above a predetermined threshold value as a number, a contour portion of a person, including a stationary person By tends to appear fine movement counts as number the number of detection target region recognized more than a predetermined threshold value, an effect that it is possible to determine the number of persons conveniently.

また、本発明によれば、運用場所に応じて予め定義された領域である定義領域を人物検出の対象領域である検出対象領域として設定するとともに、人数を計数する対象である人数計数領域を設定し、設定した検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出し、入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除き、微動が検出され、かつ、エッジが検出された画素単位の数が所定の閾値以上である人数計数領域の数を人数として計数することで、人物の数を柔軟に求めることができるという効果を奏する。 Further, according to the present invention, a definition area that is a predefined area according to the operating location is set as a detection target area that is a person detection target area, and a number counting area that is a target for counting the number of persons is set. Then, for each pixel unit composed of one or a plurality of pixels in the set detection target region , there is an alternating repetition of light and dark based on the difference between the past average luminance value in the first predetermined period and the current input luminance value, 2 This repetition is repeated a predetermined number of times within a predetermined period, and the brightness fluctuations are not substantially constant, so that a slight change in luminance is detected, an edge is detected from the input image, and still for a third predetermined period. except for edges successively certain pixels over the edge and the same direction, the fine movement is detected and the number of pixels where the edge is detected a number of people counting area is above a predetermined threshold number By counting by an effect that it is possible to determine the number of persons flexible.

また、本発明によれば、計数した人数と人数が計上された領域と対応付けて時系列に記憶し、記憶された時系列の人数に基づいて人の滞在時間密度図を生成することとしたので、人数の変動を視覚的にわかりやすく提供することができるという効果を奏する。   Further, according to the present invention, the counted number of people and the area in which the number of people is counted are stored in time series, and a person staying time density diagram is generated based on the stored time series number of persons. Therefore, the effect that the change of the number of persons can be provided visually and clearly is produced.

以下に添付図面を参照して、この発明に係る人物検出装置の好適な実施例を詳細に説明する。なお、以下では、人物検出の対象となる領域を上方から撮像する魚眼カメラを用いて人物検出を行う場合について説明する。   Exemplary embodiments of a person detection apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, a case will be described in which human detection is performed using a fisheye camera that captures an area to be detected from above from above.

まず、本実施例に係る人物検出装置の特徴点について図1を用いて説明する。図1は、本実施例に係る人物検出装置の特徴を示す図である。なお、同図においては、銀行等に設置されたATM(Automated Teller Machine)コーナーにおいて人物検出を行う場合について示している。   First, feature points of the person detection apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating the characteristics of the person detection apparatus according to the present embodiment. In the figure, a case where person detection is performed at an ATM (Automated Teller Machine) corner installed in a bank or the like is shown.

同図に示すように、「背景画像」には、無人状態のATMコーナーや、行列整理用のロープが映っている。一方、「入力画像」には、各ATMで操作を行う人物や、ATMの順番待ちをする人物が映っている。そして、本実施例に係る人物検出装置では、「背景画像」と「入力画像」との差分画像(以下、「背景差異画像」と記載する)を生成する。   As shown in the figure, the “background image” includes an ATM corner in an unattended state and a procession rope. On the other hand, the “input image” shows a person who performs an operation at each ATM and a person who waits for the turn of the ATM. In the person detection apparatus according to the present embodiment, a difference image between the “background image” and the “input image” (hereinafter referred to as “background difference image”) is generated.

「背景差異画像」には、同図に示すように、正方形の集合体からなるブロックが含まれる。ここで、各正方形は、所定数の画素からなる画素群(以下、「画素単位」と記載する)であり、人物検出処理の最小単位となる。なお、この画素単位の詳細については、図5を用いて後述する。   As shown in the figure, the “background difference image” includes a block made up of a square aggregate. Here, each square is a pixel group composed of a predetermined number of pixels (hereinafter referred to as “pixel unit”), and is a minimum unit of person detection processing. Details of this pixel unit will be described later with reference to FIG.

「背景差異画像」に含まれるブロックには、人物に対応するブロックと、人物以外に対応するブロック(たとえば、持ち込まれた物品、移動された物品、日照による影等)とがあり、人物検出処理においては、人物に対応するブロックのみを検出する必要がある。   The blocks included in the “background difference image” include a block corresponding to a person and a block corresponding to a person other than the person (for example, an article brought in, an article moved, a shadow due to sunlight, etc.). In this case, it is necessary to detect only the block corresponding to the person.

そこで、本実施例に係る人物検出装置では、上記した画素単位における輝度変化の「微動」が人物の輪郭部分に現れやすいことを利用し、人物以外に対応するブロックと人物に対応するブロックとを判別することとした。ここで、「微動」とは、所定時間にわたる平均輝度値と入力輝度値との差が明暗交互に繰り返すことを指す。また、「微動」すると認められた画素単位のことを「ピクセル特徴」が現れた画素単位と呼ぶ。   Therefore, the person detection apparatus according to the present embodiment uses the fact that the “fine movement” of the luminance change in the above-described pixel unit is likely to appear in the contour portion of the person, and uses a block corresponding to a person other than a block corresponding to a person. It was decided to distinguish. Here, the “fine movement” indicates that the difference between the average luminance value and the input luminance value over a predetermined time is alternately repeated. In addition, a pixel unit that is recognized as “finely moving” is referred to as a pixel unit in which “pixel feature” appears.

かかるピクセル特徴は、静止人物を含む人物の輪郭部分に現れやすいため、ピクセル特徴が認められたブロックを人物に対応するブロックとすることも可能である。しかし、本実施例に係る人物検出装置では、人物検出の精度を向上させるために、このピクセル特徴と「エッジ特徴」とを組み合わせることとした。ここで、「エッジ特徴」とは、検出されたエッジから、所定時間静止しているエッジおよび同一方向に一定画素以上連続したエッジを除いたものを指す。なお、エッジとは、画像における輝度変化が急な部分を指し、たとえば、ラプラシアンフィルタを用いることで検出される。   Since such a pixel feature is likely to appear in a contour portion of a person including a stationary person, a block in which the pixel feature is recognized can be a block corresponding to the person. However, in the person detection apparatus according to the present embodiment, the pixel feature and the “edge feature” are combined in order to improve the accuracy of person detection. Here, the “edge feature” refers to a detected edge obtained by removing an edge that is stationary for a predetermined time and an edge that is continuous for a certain number of pixels in the same direction. The edge refers to a portion where the luminance change in the image is abrupt, and is detected by using, for example, a Laplacian filter.

かかる「エッジ特徴」は、人物を含む物体の輪郭部分に現れる。一方、「ピクセル特徴」は、上記したように人物の輪郭部分に現れやすいため、「ピクセル特徴」および「エッジ特徴」の2つの特徴の共通部分をとることで、各特徴の誤検知部分を補完しあうことが可能となる。   Such an “edge feature” appears in the contour portion of an object including a person. On the other hand, because “pixel features” are likely to appear in the outline of a person as described above, by taking the common parts of the two features of “pixel features” and “edge features”, the misdetected portions of each feature are complemented. It becomes possible to meet each other.

すなわち、本実施例に係る人物検出装置では、エッジ特徴を検出するエッジ処理を行うとともに(同図の(1A)参照)、ピクセル特徴を検出する微動検出処理を行い(同図の(1B)参照)、検出した各特徴を組み合わせることによって人物検出処理を行うこととした(同図の(2)参照)。したがって、照明変動や背景変動がある場合であっても静止人物を含む人物を高精度に判別することができる。   That is, in the human detection device according to the present embodiment, edge processing for detecting edge features is performed (see (1A) in the figure), and fine motion detection processing for detecting pixel features is performed (see (1B) in the figure). The person detection process is performed by combining the detected features (see (2) in the figure). Therefore, even if there are illumination fluctuations and background fluctuations, it is possible to determine a person including a stationary person with high accuracy.

次に、本実施例に係る人物検出装置の構成について図2を用いて説明する。図2は、本実施例に係る人物検出装置1の構成を示す図である。同図に示すように、人物検出装置1は、カメラ2と、ディスプレイ3と、制御部10と、記憶部20とを備えている。また、制御部10は、画像入力部11と、設定部12と、背景差異領域検出部13と、微動検出部14と、エッジ検出部15と、人物検出部16と、背景画像更新部17とをさらに備えており、記憶部20は、入力画像21と、背景画像22と、検出対象領域23とを記憶する。   Next, the configuration of the person detection apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration of the person detection device 1 according to the present embodiment. As shown in the figure, the person detection device 1 includes a camera 2, a display 3, a control unit 10, and a storage unit 20. In addition, the control unit 10 includes an image input unit 11, a setting unit 12, a background difference area detection unit 13, a fine movement detection unit 14, an edge detection unit 15, a person detection unit 16, and a background image update unit 17. The storage unit 20 stores an input image 21, a background image 22, and a detection target area 23.

カメラ2は、人物検出の対象となる領域を上方から撮像するCCD(Charge Coupled Devices)カメラ等のカメラである。なお、本実施例では、魚眼カメラを用いて広視野角の領域を撮像することとしているが、視野角の大小についての制限はない。また、カメラを上方に設置するかわりに、側方に設置することとしてもよい。   The camera 2 is a camera such as a CCD (Charge Coupled Devices) camera that picks up an image of a person detection target region from above. In this embodiment, a fisheye camera is used to image a wide viewing angle region, but there is no restriction on the size of the viewing angle. Moreover, it is good also as installing in a side instead of installing a camera upwards.

ディスプレイ3は、人物検出部16による検出結果を文字やグラフの形で表示する表示デバイスである。なお、本実施例では、人物検出部16による検出結果をディスプレイ3に表示することとしたが、検出結果に係るデータを他の装置(たとえば、パーソナルコンピュータ等)へ送信することとしてもよい。   The display 3 is a display device that displays detection results by the person detection unit 16 in the form of characters or graphs. In the present embodiment, the detection result by the person detection unit 16 is displayed on the display 3, but data related to the detection result may be transmitted to another device (for example, a personal computer).

制御部11は、カメラ2で撮像した画像から検出した微動およびエッジに基づいて人物を検出する処理を行う処理部である。画像入力部11は、カメラ2が撮像した画像を受け取り、記憶部20に対して入力画像21として記憶させる処理を行う処理部である。なお、画像入力部11は、カメラ2から受け取る画像を用いて入力画像21を随時更新する。また、人物検出装置1の動作開始時等には、最初に生成された入力画像21が背景画像22とされる。   The control unit 11 is a processing unit that performs processing for detecting a person based on fine movement and edges detected from an image captured by the camera 2. The image input unit 11 is a processing unit that performs processing for receiving an image captured by the camera 2 and storing the image as the input image 21 in the storage unit 20. The image input unit 11 updates the input image 21 as needed using the image received from the camera 2. In addition, when the operation of the person detection device 1 is started, the input image 21 generated first is used as the background image 22.

設定部12は、運用場所等に応じて予め定義された領域である定義領域を背景差異領域検出部13に対して通知する処理を行う。定義領域は、閉領域の集合として表わされ、たとえば、入力画像21に映された通路全体を隙間なく区切ったり、ATMコーナーの並び位置を、等間隔で区切ったりした領域情報であり、「エッジ特徴」や「ピクセル特徴」の検出対象となる判定領域の集合として表わされる。なお、この定義領域に含まれない領域は人物検出の対象とはならないので、人物を検出する必要がない部分(たとえば、人物が存在しない壁やテーブル等)に関する画像処理を省くことで、処理負荷を低減することができる。   The setting unit 12 performs a process of notifying the background difference region detection unit 13 of a definition region that is a region defined in advance according to an operation place or the like. The definition area is expressed as a set of closed areas. For example, the definition area is area information in which the entire path shown in the input image 21 is divided without gaps, or the arrangement positions of ATM corners are divided at equal intervals. It is represented as a set of determination areas to be detected as “features” and “pixel features”. Since areas not included in this definition area are not subject to person detection, the processing load can be reduced by omitting image processing related to parts that do not need to be detected (for example, walls or tables where no person exists). Can be reduced.

背景差異領域検出部13は、入力画像21と背景画像22との差分をとることによって背景差異領域を検出するとともに、検出した背景差異領域と設定部12による定義領域との重複領域を検出対象領域23として記憶部20へ格納する処理を行う処理部である。なお、本実施例では、設定部12による定義情報を用いる場合について示したが、かかる定義情報を用いずに、検出した背景差異領域をそのまま検出対象領域23としてもよい。   The background difference area detection unit 13 detects a background difference area by taking a difference between the input image 21 and the background image 22 and detects an overlapping area between the detected background difference area and the definition area by the setting unit 12 as a detection target area. 23 is a processing unit that performs processing to be stored as 23 in the storage unit 20. In this embodiment, the definition information by the setting unit 12 is used. However, the detected background difference area may be used as the detection target area 23 without using the definition information.

微動検出部14は、検出対象領域23から、上記した「ピクセル特徴」が現れた微動を検出する処理を行う処理部である。また、微動検出部14による検出結果は、人物検出部16へ渡される。ここで、微動検出部14が微動を検出する処理の詳細について図3および図4を用いて説明しておく。図3は、微動検出処理の概要を示す図であり、図4は、微動検出処理の変形例を示す図である。   The fine movement detection unit 14 is a processing unit that performs a process of detecting the fine movement in which the above-described “pixel feature” appears from the detection target region 23. Further, the detection result by the fine motion detection unit 14 is passed to the person detection unit 16. Here, the detail of the process in which the fine movement detection part 14 detects a fine movement is demonstrated using FIG. 3 and FIG. FIG. 3 is a diagram showing an outline of the fine motion detection process, and FIG. 4 is a diagram showing a modification of the fine motion detection process.

図3の上部に示したのは、入力画像21における所定画素の輝度値の変化を示すグラフである。このグラフは、縦軸が輝度値(0〜255)を、横軸が時間をそれぞれ表す。ここで、横軸は、現在を基準とし同図の左に行くほど過去の時間を示す。また、同図の下部に示したのは、微動の検知/非検知状態を示すグラフである。   The upper part of FIG. 3 is a graph showing a change in luminance value of a predetermined pixel in the input image 21. In this graph, the vertical axis represents luminance values (0 to 255), and the horizontal axis represents time. Here, the horizontal axis indicates the past time as it goes to the left in the figure with reference to the present. Also, the lower part of the figure shows a graph showing a fine movement detection / non-detection state.

図3に示した「条件A」とは、「過去T1秒間の平均輝度値」と「入力輝度値」との差が「Th」以上であるという条件を指す。ここで、この条件Aを式で表わすと、式1「過去T1秒間の平均輝度値−Th>入力輝度値」、または、式2「過去T1秒間の平均輝度値+Th」<入力輝度値」のいずれかの式を満たす場合となる。式1を満たす場合とは、入力値が平均値よりも暗い側で条件Aを満たした場合であり、式2を満たす場合とは、入力値が平均値よりも明るい側で条件Aを満たした場合である。なお、時間「T1」の値としては、たとえば、「5秒」が、所定値「Th」の値としては、床と同系色の服を着ている人物を検出するために、「6」が、それぞれ選択される。   The “condition A” illustrated in FIG. 3 indicates a condition that the difference between the “average luminance value for the past T1 seconds” and the “input luminance value” is “Th” or more. Here, when this condition A is expressed by an expression, expression 1 “average luminance value in the past T1 seconds−Th> input luminance value” or expression 2 “average luminance value in the past T1 seconds + Th” <input luminance value ” It will be the case that either expression is satisfied. The case where Expression 1 is satisfied is the case where the input value satisfies the condition A on the darker side than the average value, and the case where the input value is satisfied satisfies the condition A on the side where the input value is brighter than the average value. Is the case. The value of the time “T1” is, for example, “5 seconds”, and the value of the predetermined value “Th” is “6” in order to detect a person wearing clothes of the same color as the floor. , Respectively.

また、「条件B」とは、「T2秒以内に、条件Aを明暗交互に3回繰り返した場合には、検知状態をT3秒間保持する」という条件を指す。ただし、明暗が変動する周期が略一定な場合、すなわち、同図に示す「Ta」および「Tb」が、たとえば、式「|Ta−Tb|≦0.2秒」を満たす場合には、ロープの揺れ等に起因する周期的な輝度変化であると考えられるため除外する。   “Condition B” refers to a condition “when the condition A is alternately repeated three times within T2 seconds, the detection state is maintained for T3 seconds”. However, when the period in which the brightness varies is substantially constant, that is, when “Ta” and “Tb” shown in the figure satisfy the expression “| Ta−Tb | ≦ 0.2 seconds”, the rope This is excluded because it is considered to be a periodic luminance change caused by the fluctuation of the image.

条件Bにおいて、検知状態を所定時間保持するのは、特に、静止人物の場合、このような微動は散発的にしか発生しないので、人物が存在するという判定を行うためには、次の微動が発生するまで検知状態を保持する必要があるためである。なお、時間「T2」の値としては、微動の往復運動を検知できる最大時間として、たとえば、「5秒」が、時間「T3」の値としては、人物の体のどこかの部分が微動すると考えられる時間間隔として、たとえば、「10秒」が、それぞれ選択される。また、本実施例においては、「条件B」において条件Aを明暗交互に3回繰り返すとしたが、他の回数に変更することとしてもよい。   In the condition B, the detection state is maintained for a predetermined time, particularly in the case of a stationary person, such a fine movement occurs only sporadically. Therefore, in order to determine that a person exists, the following fine movement is performed. This is because it is necessary to maintain the detection state until it occurs. The value of time “T2” is, for example, “5 seconds” as the maximum time during which reciprocation of fine movement can be detected, and the value of time “T3” is that some part of the human body moves slightly. For example, “10 seconds” is selected as each possible time interval. In the present embodiment, the condition A is repeated three times alternately in the light and dark in the “condition B”, but may be changed to another number.

図3に示したように、条件Aあるいは条件Bのいずれかを満たした場合に、微動の検知状態とされ、条件Aおよび条件Bをいずれも満たさない場合に、微動の非検知状態とされる。このようにして、入力画像21における各画素について、微動の有無が検出される。そして、上記した画素単位内に微動が検出された画素が一つでも存在する場合には、当該画素単位は、ピクセル特徴があると判定される。   As shown in FIG. 3, when either condition A or condition B is satisfied, the fine movement is detected, and when neither condition A or condition B is satisfied, the fine movement is not detected. . In this way, the presence or absence of fine movement is detected for each pixel in the input image 21. If there is even one pixel in which fine movement is detected in the above-described pixel unit, it is determined that the pixel unit has a pixel feature.

なお、上記した微動検出処理では、周期的に輝度値が変化する画素を除外したうえで微動の有無を判定したが、周期的に輝度値が変化する画素を除外することなく微動の有無を判定することとしてもよい。たとえば、微動ありと判定された画素数が、周期的に輝度値が変化する画素数よりも多い場合に、当該画素単位をピクセル特徴ありと判定することとしてもよい。   In the fine movement detection process described above, the presence / absence of fine movement is determined after excluding the pixels whose luminance value changes periodically, but the presence / absence of fine movement is determined without excluding the pixels whose luminance value changes periodically. It is good to do. For example, when the number of pixels determined to have fine movement is larger than the number of pixels whose luminance value periodically changes, the pixel unit may be determined to have pixel characteristics.

ところで、図3では、微動検知状態および微動非検知状態の2値で微動を検出することとしたが、保留状態という状態を追加することとしてもよい。そこで、保留状態を追加した変形例について図4を用いて説明する。   By the way, in FIG. 3, the fine movement is detected based on the binary values of the fine movement detection state and the fine movement non-detection state, but a state called a holding state may be added. Therefore, a modified example in which a hold state is added will be described with reference to FIG.

図4の上部に示したのは、入力画像21における所定画素の輝度値の変化を示すグラフであり、図3と同様である。一方、同図の下部に示した微動の検知/非検知状態を示すグラフには、「保留状態」が追加されている。図4に示すように、条件Bが未成立で、かつ、条件Aが成立している場合には、「保留状態」とし、条件Bが成立した場合に、はじめて「検知状態」とする。   The upper part of FIG. 4 is a graph showing a change in the luminance value of a predetermined pixel in the input image 21, which is the same as FIG. On the other hand, “pending state” is added to the graph showing the fine movement detection / non-detection state shown in the lower part of FIG. As shown in FIG. 4, when the condition B is not satisfied and the condition A is satisfied, the “holding state” is set, and when the condition B is satisfied, the “detection state” is set.

すなわち、「保留状態」とは、未だ「人物」なのか「背景」なのかはっきりとわからない場合(すなわち、条件Aは成立しているが条件Bは成立していない場合)を指す。照明変動は、条件Aを明暗交互に繰り返すことがないので、条件Bは成立しない。したがって、「保留状態」を設けることで、照明変動発生直後の微動の誤検知を効果的に防止することができる。   In other words, the “pending state” refers to a case where it is not yet clear whether the person is “person” or “background” (that is, the condition A is satisfied but the condition B is not satisfied). Since the illumination variation does not repeat the condition A alternately between light and dark, the condition B is not satisfied. Therefore, by providing the “hold state”, it is possible to effectively prevent erroneous detection of fine movement immediately after the occurrence of illumination fluctuation.

図2に戻り、エッジ検出部14について説明する。エッジ検出部14は、検出対象領域23から、上記した「エッジ特徴」が現れたエッジを検出する処理を行う処理部である。ここで、エッジ検出部14は、たとえば、ラプラシアンフィルタを用いてエッジを検出し、エッジの方向を検出するためにソーベルフィルタを用いる。そして、一定時間静止しているエッジ(たとえば、30秒間静止)や、同一方向に一定画素以上連続しているエッジを除去し、残ったエッジを「エッジ特徴」が現れたエッジとする。なお、エッジ検出部14による検出結果は、人物検出部16へ渡される。   Returning to FIG. 2, the edge detection unit 14 will be described. The edge detection unit 14 is a processing unit that performs processing for detecting an edge where the above-described “edge feature” appears from the detection target region 23. Here, the edge detection unit 14 detects edges using, for example, a Laplacian filter, and uses a Sobel filter to detect the direction of the edges. Then, an edge that is stationary for a certain time (for example, stationary for 30 seconds) or an edge that is continuous for a certain number of pixels in the same direction is removed, and the remaining edge is defined as an edge in which an “edge feature” appears. The detection result by the edge detection unit 14 is passed to the person detection unit 16.

人物検出部16は、微動検出部14による検出結果およびエッジ検出部15による検出結果に基づき、検出対象領域23における人物の有無を検出する処理を行う処理部である。ここで、この人物検出部16による人物検出処理の概要について図5を用いて説明しておく。図5は、人物検出処理の概要を示す図である。なお、同図に示す背景差異画像には、複数の検出対象領域23(同図において「A」〜「H」とラベリングされた各領域参照)が含まれている。   The person detection unit 16 is a processing unit that performs processing for detecting the presence or absence of a person in the detection target region 23 based on the detection result by the fine movement detection unit 14 and the detection result by the edge detection unit 15. Here, an outline of the person detection processing by the person detection unit 16 will be described with reference to FIG. FIG. 5 is a diagram showing an outline of the person detection process. The background difference image shown in the figure includes a plurality of detection target areas 23 (see the areas labeled “A” to “H” in the figure).

たとえば、同図に示す「G」の検出対象領域23は、複数の「画素単位」の集合として表現される。そして、各画素単位は、たとえば、8画素×8画素の画素から構成される。ここで、各画素を検出処理に係る最小単位とせず、複数の画素からなる画素単位を最小単位とするのは、同図に示すように、画像もしくは画像処理の誤差によって、ピクセル特徴とエッジ特徴とが同一の画素に出現しない場合であっても、双方の特徴が現れた領域を検知するためである。   For example, the detection target area 23 of “G” shown in FIG. 3 is expressed as a set of a plurality of “pixel units”. Each pixel unit is composed of, for example, 8 pixels × 8 pixels. Here, each pixel is not set as a minimum unit for detection processing, but a pixel unit composed of a plurality of pixels is set as a minimum unit, as shown in FIG. This is because even if they do not appear in the same pixel, a region where both features appear is detected.

人物検出部16は、ピクセル特徴があると検知された画素が、たとえば、画素単位内に1つででもあれば、この画素単位をピクセル特徴がある画素単位とする。また、人物検出部16は、エッジ特徴があると検知された画素が、たとえば、画素単位に3つ以上あれば、この画素単位をエッジ特徴がある画素単位とする。ここで、画素単位が3つ以上とするのは、除去したはずの静止物体に係るエッジがノイズとして残存する場合を考慮したためである。   For example, if the number of pixels detected as having a pixel feature is one in the pixel unit, the person detection unit 16 sets this pixel unit as the pixel unit having the pixel feature. In addition, for example, if there are three or more pixels detected as having edge features in the pixel unit, the person detection unit 16 sets this pixel unit as the pixel unit having the edge feature. Here, the reason why the number of pixel units is three or more is that a case where an edge related to a stationary object that should have been removed remains as noise is considered.

そして、人物検出部16は、ピクセル特徴があり、かつ、エッジ特徴があると判定された画素単位を、双方の特徴が現れた画素単位とする。そして、各検出対象領域23に含まれる全ての画素単位について同様の処理を繰り返し、双方の特徴が現れた画素単位の個数が所定値以上である場合に、当該検出対象領域23に人物が存在すると判定する。   Then, the person detection unit 16 sets a pixel unit determined to have a pixel feature and an edge feature as a pixel unit in which both features appear. Then, the same processing is repeated for all the pixel units included in each detection target area 23, and when the number of pixel units in which both features appear is equal to or greater than a predetermined value, a person is present in the detection target area 23. judge.

このようにして、人物検出部16は、各検出対象領域23における人物の有無を判定し、ディスプレイ3に対して出力する。なお、本実施例においては、ピクセル特徴およびエッジ特徴の双方の特徴が現れた画素単位の個数が所定値以上である検出対象領域23について人物ありと判定したが、双方の特徴が現れた画素単位の個数を検出対象領域23に含まれる全画素単位の個数で除した比率が所定値以上であることを条件として人物ありと判定することとしてもよい。   In this way, the person detection unit 16 determines the presence / absence of a person in each detection target area 23 and outputs it to the display 3. In this embodiment, it is determined that there is a person in the detection target area 23 in which the number of pixel units in which both the pixel feature and the edge feature appear is equal to or greater than a predetermined value. However, the pixel unit in which both features appear It is also possible to determine that there is a person on the condition that the ratio obtained by dividing the number of pixels by the number of all pixel units included in the detection target area 23 is equal to or greater than a predetermined value.

図2の説明に戻り、背景画像更新部17について説明する。背景画像更新部17は、人物検出部16が、人物が存在する領域(人物領域)としなかった検出対象領域23を用いて背景画像22を更新する処理を行う処理部である。このように、背景画像22を更新していくことで、行列整理用ロープの位置変更や、静止物体の位置変更に伴う背景の変化がある場合であっても、これらの人物以外の要因によって変化が発生した領域を背景差異領域から除外することで、背景精度良く人物検出を行うことができる。なお、背景画像更新部17は、背景画像22の誤更新に対処するために、背景画像22の更新を取り消す処理も併せて行う。ここで、背景画像更新処理の概要について図6を用いて説明しておく。   Returning to the description of FIG. 2, the background image update unit 17 will be described. The background image update unit 17 is a processing unit that performs a process in which the person detection unit 16 updates the background image 22 using the detection target region 23 that is not the region where the person exists (person region). In this manner, by updating the background image 22, even if there is a change in the background due to a change in the position of the matrix arrangement rope or a change in the position of the stationary object, the background image 22 changes due to factors other than these persons. By excluding the area where the occurrence of the error occurs from the background difference area, it is possible to detect a person with high background accuracy. The background image update unit 17 also performs a process of canceling the update of the background image 22 in order to deal with an erroneous update of the background image 22. Here, an overview of the background image update processing will be described with reference to FIG.

図6は、背景画像更新処理の概要を示す図である。同図に示すように、背景画像更新部17は、背景画像22として、現在の背景画像を表す「現背景画像」と、直前の背景画像を表す「前背景画像」の2世代の背景画像22を参照する。なお、「現背景画像」および「前背景画像」は、背景画像22として記憶部20に記憶されているものとする。   FIG. 6 is a diagram showing an outline of the background image update process. As shown in the figure, the background image update unit 17 has two generations of background images 22 of “current background image” representing the current background image and “previous background image” representing the immediately preceding background image as the background image 22. Refer to It is assumed that the “current background image” and the “previous background image” are stored in the storage unit 20 as the background image 22.

同図に示すように、入力画像と現背景画像とを比較する「比較1」が行われ、人物検出部16が、人物が存在する領域(人物領域)としなかった検出対象領域23を用いて背景画像22を更新する「更新1」が実行される。一方、上記した「比較1」とともに、入力画像と前背景画像とを比較する「比較2」も行われる。   As shown in the figure, “Comparison 1” is performed to compare the input image and the current background image, and the person detection unit 16 uses the detection target area 23 that is not the area where the person exists (person area). “Update 1” for updating the background image 22 is executed. On the other hand, “Comparison 2” for comparing the input image and the foreground / background image is also performed together with “Comparison 1” described above.

そして、「入力画像に人物が検出されず」、「入力画像と現背景画像とが略同一であり」、「入力画像と前背景画像とが異なる」という3つの条件を、たとえば、10秒間にわたって満たした場合には、現背景画像を前背景画像とする「更新2」が実行される。その理由は、入力画像に人物がいないのに、入力画像と前背景画像が異なるのは不自然なためである。   Then, three conditions such as “a person is not detected in the input image”, “the input image and the current background image are substantially the same”, and “the input image and the foreground / background image are different” are set for 10 seconds, for example. If it is satisfied, “Update 2” is executed with the current background image as the foreground image. This is because it is unnatural that the input image differs from the foreground / background image even though there is no person in the input image.

一方、「入力画像に人物が検出され」、「入力画像と現背景画像とが略同一であり」、「入力画像と前背景画像とが異なる」という3つの条件を、たとえば、5秒間にわたって満たした場合には、「更新1」が実行された現背景画像を前背景画像に置き換えることによって更新を取り消す「復活」処理が実行される。このように、誤更新を取り消すことができるので、人物を背景画像に取り込んでしまった場合であっても、正常な背景画像に戻すことができる。   On the other hand, the three conditions of “a person is detected in the input image”, “the input image and the current background image are substantially the same”, and “the input image and the foreground / background image are different” are satisfied for 5 seconds, for example. In such a case, a “revival” process is executed to cancel the update by replacing the current background image on which “update 1” has been executed with the previous background image. As described above, since the erroneous update can be canceled, it is possible to return to a normal background image even when a person is captured in the background image.

記憶部20は、HDD(Hard Disk Drive)や、RAM(Random Access Memory)等の記憶デバイスで構成される記憶部である。そして、この記憶部20には、入力画像21、背景画像22および検出対象領域23が記憶される。入力画像21は、画像入力部11によって随時更新されるカメラ2による撮像画像である。背景画像22は、人物がいない状態で撮像された入力画像21、または、背景画像更新部17によって随時更新される画像である。なお、上述したように、この背景画像22には、現背景画像と前背景画像とが含まれる。検出対象領域23は、背景差異領域検出部13によって決定される人物検出領域の集合である(図5における「A」〜「H」参照)。   The storage unit 20 is a storage unit configured by a storage device such as an HDD (Hard Disk Drive) or a RAM (Random Access Memory). The storage unit 20 stores an input image 21, a background image 22, and a detection target area 23. The input image 21 is a captured image by the camera 2 that is updated as needed by the image input unit 11. The background image 22 is an input image 21 captured without a person, or an image that is updated as needed by the background image update unit 17. As described above, the background image 22 includes the current background image and the foreground background image. The detection target area 23 is a set of person detection areas determined by the background difference area detection unit 13 (see “A” to “H” in FIG. 5).

次に、運用場所等に応じて予め定義された領域である定義領域について図7を用いて説明する。図7は、定義領域の一例を示す図である。同図の(1)に示すように、定義領域として、ロープに仕切られた通路内に等間隔(たとえば、60cm間隔)で人物が並ぶ各位置を各定義領域とすることができる。また、同図の(2)に示すように、ロープに仕切られた通路全体を隙間なく区切って各定義領域とすることとしてもよい。   Next, a definition area, which is an area defined in advance according to the operation location or the like, will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of the definition area. As shown in (1) of the figure, as the definition area, each definition area can be a position where persons are lined up at equal intervals (for example, 60 cm intervals) in a passage partitioned by a rope. Moreover, as shown in (2) of the same figure, it is good also as dividing | segmenting the whole channel | path divided by the rope without gap, and setting it as each definition area | region.

なお、この定義領域に含まれない領域は人物検出の対象とはならないので、人物を検出する必要がない部分(たとえば、人物が存在しない壁やテーブル等)に関する画像処理を省くことで、人物検出処理に伴う処理負荷を低減することができる。また、人物検出装置1の設置場所に応じて定義領域を柔軟に設定することができる。   Note that areas that are not included in this definition area are not subject to human detection, so human detection can be achieved by omitting image processing for parts that do not require human detection (for example, walls and tables where no human exists). The processing load accompanying processing can be reduced. In addition, the definition area can be flexibly set according to the installation location of the person detection device 1.

次に、人物検出部16が、人物の検出結果をグラフ等に加工してディスプレイ3に出力する場合について図8を用いて説明する。図8は、滞在時間密度図の一例を示す図である。なお、同図の81には、商品陳列棚の周辺に計数領域を設定した場合について、同図の82には、商品陳列棚周辺における単位時間あたりの滞在人数を表す滞在時間密度図を、それぞれ示している。   Next, a case where the person detection unit 16 processes a person detection result into a graph or the like and outputs the result to the display 3 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of a stay time density diagram. In FIG. 81, a count area is set around the product display shelf. In FIG. 82, a stay time density diagram representing the number of visitors per unit time around the product display shelf is shown. Show.

ここで、同図の81に示した計数領域は、図7に示した定義領域と同一としてもよいし、図7に示した定義領域とは異なる領域として新たに設定することとしてもよい。たとえば、図7の「(2)定義領域の例2」に示した各判定領域は、お互いに重ならない領域として設定されているが、各判定領域をまたがるように各計数領域を設定することができる。   Here, the counting area shown in FIG. 81 may be the same as the definition area shown in FIG. 7, or may be newly set as an area different from the definition area shown in FIG. For example, each determination area shown in “(2) Definition area example 2” in FIG. 7 is set as an area that does not overlap each other, but each count area may be set so as to straddle each determination area. it can.

同図の81に示した各計数領域について人物検出部16が人物を検出すると、検出した人物の人数をカウントアップする。ここで、人数のカウントアップは、各計数領域における人物の出入り数を考慮しつつ、各計数領域に人物が滞在する時間および人数を計測することによって行われる。そして、各時間における滞在人数を各計数領域と対応付け、たとえば、記憶部20に記憶しておき、指定された時間範囲にわたってグラフ化することで、同図の82に示す滞在時間密度図が得られる。   When the person detection unit 16 detects a person in each counting area indicated by 81 in the figure, the number of detected persons is counted up. Here, counting up the number of people is performed by measuring the time and number of people staying in each counting area, taking into account the number of people entering and leaving each counting area. Then, the number of staying people at each time is associated with each counting area, for example, stored in the storage unit 20, and graphed over a specified time range, thereby obtaining a staying time density diagram 82 shown in FIG. It is done.

なお、同図の82に示す滞在時間密度図では、上方の陳列棚における左側部分、双方の陳列棚で挟まれた中央部分等における滞在時間密度が高いことが示されている。このような滞在時間密度図を生成することで、陳列棚に配置された商品の人気や注目度を分析することが可能となる。なお、図8では、商品の陳列棚を計数対象としたが、展示会や商品発表会における各ブース、アトラクションの待ち行列等を計数対象とすることとしてもよい。   In the stay time density diagram 82 shown in the figure, it is shown that the stay time density is high in the left part of the upper display shelf, the central part sandwiched between both display shelves, and the like. By generating such a stay time density diagram, it becomes possible to analyze the popularity and the attention level of the products arranged on the display shelf. In FIG. 8, merchandise display shelves are counted, but booths at exhibitions and merchandise presentations, attraction queues, and the like may be counted.

次に、微動検出部14が行う微動検出処理の処理手順について図9を用いて説明する。図9は、微動検出処理の処理手順を示すフローチャートである。ここで、同図における処理対象は、入力画像21における各画素であり、同図に示す処理は、検出対象領域23に含まれる各画素について入力画像21の更新ごと(フレームごと)に並行して行われる。なお、図9に示した処理手順は、図3に対応するものである。   Next, the processing procedure of the fine motion detection process performed by the fine motion detection unit 14 will be described with reference to FIG. FIG. 9 is a flowchart showing the processing procedure of the fine motion detection processing. Here, the processing target in the figure is each pixel in the input image 21, and the processing shown in the figure is performed in parallel with each update of the input image 21 (for each frame) for each pixel included in the detection target region 23. Done. The processing procedure shown in FIG. 9 corresponds to FIG.

同図に示すように、T1秒間の平均輝度値と入力輝度値との差がTh以上であるか否かが判定される(ステップS101)。そして、差がTh以上である場合には(ステップS101,Yes)、微動検知状態とされる(ステップS102)。なお、ステップS101において、差がTh未満である場合には(ステップS101,No)、処理を終了する。   As shown in the figure, it is determined whether or not the difference between the average luminance value for T1 seconds and the input luminance value is equal to or greater than Th (step S101). If the difference is equal to or greater than Th (step S101, Yes), a fine movement detection state is set (step S102). In step S101, when the difference is less than Th (step S101, No), the process ends.

つづいて、T2秒以内に明暗交互に所定回数繰り返して微動検知状態が検出されたか否かが判定され(ステップS103)、判定条件を満たした場合には(ステップS103,Yes)、明暗変動周期が略一定であるか否かが判定される(ステップS104)。なお、ステップS103の判定条件を満たさなかった場合には(ステップS103,No)、処理を終了する。   Subsequently, it is determined whether or not the fine motion detection state has been detected by repeating a predetermined number of times alternately within T2 seconds (step S103), and if the determination condition is satisfied (step S103, Yes), the light-dark fluctuation cycle is determined. It is determined whether or not it is substantially constant (step S104). If the determination condition in step S103 is not satisfied (No in step S103), the process is terminated.

そして、ステップS104の判定条件を満たさなかった場合には(ステップS104,No)、微動検知状態のT3秒間保持命令を出し(ステップS105)、処理を終了する。ここで、T3秒間保持命令は、たとえば、FLGを立て、そのFLGを別途タイマーによって処理し、T3秒後にOFFにする。また、T3秒以内に、再度、保持命令が発生した場合は、タイマーは一旦初期化され、その時点から再度T3秒を計測する。なお、ステップS104の判定条件を満たした場合には(ステップS104,Yes)、ステップS105の処理を行うことなく処理を終了する。   If the determination condition of step S104 is not satisfied (step S104, No), a fine movement detection state holding command is issued for T3 seconds (step S105), and the process ends. Here, for the T3 second hold command, for example, FLG is raised, the FLG is processed by a separate timer, and turned off after T3 seconds. If a hold command is generated again within T3 seconds, the timer is once initialized, and T3 seconds are measured again from that point. If the determination condition of step S104 is satisfied (step S104, Yes), the process ends without performing the process of step S105.

次に、人物検出部16が行う人物検出処理の処理手順について図10を用いて説明する。図10は、人物検出処理の処理手順を示すフローチャートである。なお、同図における処理対象は、複数の画素からなる画素単位であり(図5における「画素単位」参照)、同図に示す処理は、各検出対象領域23(図5における「A」〜「H」参照)について行われる。   Next, the procedure of the person detection process performed by the person detection unit 16 will be described with reference to FIG. FIG. 10 is a flowchart showing the processing procedure of the person detection processing. The processing target in the figure is a pixel unit composed of a plurality of pixels (see “pixel unit” in FIG. 5), and the processing shown in the figure is performed in each detection target region 23 (“A” to “A” in FIG. H ”).

同図に示すように、特定の検出対象領域23に対応する入力画像21について、所定の画素単位への移動が行われる(ステップS201)。つづいて、当該画素単位について微動検出部14によって微動(ピクセル特徴)が検出されたか否かが判定され(ステップS202)、微動(ピクセル特徴)が検出された場合には(ステップS202,Yes)、当該画素単位についてエッジ検出部15によってエッジ(エッジ特徴)が検出されたか否かが判定される(ステップS203)。なお、ステップS202において微動(ピクセル特徴)が検出されなかった場合には(ステップS202,No)、他の画素単位へ移動したうえでステップS201以降の処理を繰り返す。   As shown in the figure, the input image 21 corresponding to the specific detection target area 23 is moved to a predetermined pixel unit (step S201). Subsequently, it is determined whether or not fine movement (pixel feature) is detected by the fine movement detection unit 14 for the pixel unit (step S202). If fine movement (pixel feature) is detected (step S202, Yes), It is determined whether or not an edge (edge feature) has been detected by the edge detection unit 15 for the pixel unit (step S203). If fine movement (pixel feature) is not detected in step S202 (No in step S202), the process after step S201 is repeated after moving to another pixel unit.

そして、ステップS203においてエッジ(エッジ特徴)が検出された場合には(ステップS203,Yes)、当該画素単位がカウントされる(ステップS204)。一方、ステップS203においてエッジ(エッジ特徴)が検出されなかった場合には(ステップS203,No)、他の画素単位へ移動したうえでステップS201以降の処理を繰り返す。   If an edge (edge feature) is detected in step S203 (step S203, Yes), the pixel unit is counted (step S204). On the other hand, when an edge (edge feature) is not detected in step S203 (step S203, No), the process after step S201 is repeated after moving to another pixel unit.

つづいて、すべての画素単位について判定が完了したか否かが判定され(ステップS205)、ステップS205の判定条件を満たした場合には(ステップS205,Yes)、カウントした画素単位が所定値以上であるか否かが判定される(ステップS206)。一方、ステップS205の判定条件を満たさなかった場合には(ステップS205,No)、他の検出対象領域23を再選択したうえでステップS201以降の処理を繰り返す。   Subsequently, it is determined whether or not the determination is completed for all the pixel units (step S205). If the determination condition of step S205 is satisfied (step S205, Yes), the counted pixel unit is equal to or greater than a predetermined value. It is determined whether or not there is (step S206). On the other hand, when the determination condition of step S205 is not satisfied (No at step S205), the process after step S201 is repeated after re-selecting another detection target area 23.

そして、ステップS206の判定条件を満たした場合には(ステップS206,Yes)、当該検出対象領域23について人物検出と判定し(ステップS207)、処理を終了する。一方、ステップS206の判定条件を満たさなかった場合には(ステップS206,No)、当該検出対象領域23について人物非検出と判定し(ステップS208)、処理を終了する。   If the determination condition of step S206 is satisfied (step S206, Yes), it is determined that person detection is performed for the detection target area 23 (step S207), and the process ends. On the other hand, when the determination condition of step S206 is not satisfied (step S206, No), it is determined that no person is detected in the detection target area 23 (step S208), and the process is terminated.

上述してきたように、本実施例では、微動検出部が、入力画像における1または複数の画素からなる画素単位ごとに輝度変化の微動を検出し、エッジ検出部が、入力画像からエッジを検出し、人物検出部が、微動検出部が検出した微動およびエッジ検出部が検出したエッジに基づいて人物を検出するように人物検出装置を構成した。   As described above, in this embodiment, the fine movement detection unit detects fine movement of luminance change for each pixel unit including one or a plurality of pixels in the input image, and the edge detection unit detects an edge from the input image. The person detection device is configured such that the person detection unit detects a person based on the fine movement detected by the fine movement detection unit and the edge detected by the edge detection unit.

したがって、静止人物を含む人物の輪郭部に現れやすい微動と人物を含む物体の輪郭部に現れるエッジとを組み合わせて人物検出を行うことで、照明変動や背景変動がある場合であっても静止人物を含む人物を高精度に判別することができる。   Therefore, even if there is illumination fluctuation or background fluctuation, the person is detected by combining the fine movement that tends to appear in the outline of the person including the stationary person and the edge that appears in the outline of the object including the person. Can be determined with high accuracy.

以上のように、本発明に係る人物検出装置は、背景差分法を用いて高精度に人物を検出したい場合に適している。また、本発明を、レジ待ちや屋外アトラクション待ちにおける行列カウントや、空席表示、座席稼働率算出といった空席検出、商品陳列棚前や展示ブース前での来客滞在状況の分析に適用することもできる。   As described above, the person detection apparatus according to the present invention is suitable for a case where it is desired to detect a person with high accuracy using the background subtraction method. The present invention can also be applied to queue counting in waiting for a cash register or outdoor attraction, vacant seat detection such as vacant seat display, seat occupancy rate calculation, etc., and analysis of the visitor stay status in front of a product display shelf or in front of an exhibition booth.

本実施例に係る人物検出装置の特徴を示す図である。It is a figure which shows the characteristic of the person detection apparatus which concerns on a present Example. 本実施例に係る人物検出装置の構成を示す図である。It is a figure which shows the structure of the person detection apparatus which concerns on a present Example. 微動検出処理の概要を示す図である。It is a figure which shows the outline | summary of a fine motion detection process. 微動検出処理の変形例を示す図である。It is a figure which shows the modification of a fine motion detection process. 人物検出処理の概要を示す図である。It is a figure which shows the outline | summary of a person detection process. 背景画像更新処理の概要を示す図である。It is a figure which shows the outline | summary of a background image update process. 定義領域の一例を示す図である。It is a figure which shows an example of a definition area | region. 滞在時間密度図の一例を示す図である。It is a figure which shows an example of a stay time density diagram. 微動検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a fine motion detection process. 人物検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a person detection process.

符号の説明Explanation of symbols

1 人物検出装置
2 カメラ
3 ディスプレイ
10 制御部
11 画像入力部
12 設定部
13 背景差異領域検出部
14 微動検出部
15 エッジ検出部
16 人物検出部
17 背景画像更新部
20 記憶部
21 入力画像
22 背景画像
23 検出対象領域
DESCRIPTION OF SYMBOLS 1 Person detection apparatus 2 Camera 3 Display 10 Control part 11 Image input part 12 Setting part 13 Background difference area | region detection part 14 Fine motion detection part 15 Edge detection part 16 Person detection part 17 Background image update part 20 Storage part 21 Input image 22 Background image 23 Detection target area

Claims (10)

入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、
前記入力画像における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出する微動検出手段と、
前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段と、
前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された前記画素単位に基づいて人物を検出する人物検出手段と
を備えたことを特徴とする人物検出装置。
A person detection device that detects a person based on a difference between an input image and a background image,
For each pixel unit consisting of one or a plurality of pixels in the input image , there is an alternating repetition of light and dark based on the difference between the average luminance value of the past first predetermined period and the current input luminance value, and within the second predetermined period And the fine movement detecting means for detecting the fine movement of the luminance change due to the repetition of this repetition a predetermined number of times and the period of the brightness fluctuation being not substantially constant ,
Edge detection means for detecting edges from the input image and excluding edges that are stationary for a third predetermined period and edges that are continuous for a certain number of pixels in the same direction ;
A person detection apparatus comprising: person detection means for detecting a person based on the pixel unit in which the fine movement is detected by the fine movement detection means and the edge is detected by the edge detection means .
入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、
前記入力画像上に人物検出の対象領域である検出対象領域を設定する設定手段と、
前記設定手段が設定した前記検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより微動を検出する微動検出手段と、
前記微動検出手段によって前記微動が検出された前記画素単位の数が所定の閾値以上である場合に、当該検出対象領域を人物が存在する領域である人物領域として検出する人物検出手段と
を備えたことを特徴とする人物検出装置。
A person detection device that detects a person based on a difference between an input image and a background image,
Setting means for setting a detection target area, which is a target detection area, on the input image;
For each pixel unit composed of one or a plurality of pixels in the detection target region set by the setting means , alternating light and dark are repeated based on the difference between the past average luminance value in the first predetermined period and the current input luminance value. There is a fine movement detecting means for detecting the fine movement when the repetition is repeated a predetermined number of times within the second predetermined period and the period of the light / dark fluctuation is not substantially constant ,
Human detection means for detecting the detection target area as a person area where a person exists when the number of pixel units in which the fine movement is detected by the fine movement detection means is equal to or greater than a predetermined threshold. A person detection apparatus characterized by the above.
前記設定手段は、
前記入力画像と前記背景画像とが相違する領域である背景差異領域を前記検出対象領域として設定することを特徴とする請求項2に記載の人物検出装置。
The setting means includes
The person detection apparatus according to claim 2, wherein a background difference area, which is an area where the input image and the background image are different, is set as the detection target area.
前記設定手段は、
運用場所に応じて予め定義された領域である定義領域を前記検出対象領域として設定することを特徴とする請求項2に記載の人物検出装置。
The setting means includes
The person detection apparatus according to claim 2, wherein a definition area, which is an area defined in advance according to an operation place, is set as the detection target area.
前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段をさらに備え、
前記人物検出手段は、
前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された前記画素単位の数が所定の閾値以上である場合に、当該検出対象領域を前記人物領域として検出することを特徴とする請求項2、3または4に記載の人物検出装置。
An edge detecting means for detecting an edge from the input image and excluding an edge that is stationary for a third predetermined period and an edge that is continuous for a certain number of pixels in the same direction ;
The person detecting means is
The detection target area is detected as the person area when the fine movement is detected by the fine movement detection unit and the number of the pixel units in which the edge is detected by the edge detection unit is equal to or larger than a predetermined threshold. The person detection device according to claim 2, 3, or 4.
前記人物検出手段が前記人物領域として検出しなかった前記検出対象領域である非検出領域を前記背景画像に取り込むことによって前記背景画像を更新する更新手段
をさらに備えたことを特徴とする請求項2〜5のいずれか一つに記載の人物検出装置。
The update apparatus which updates the said background image by taking in into the said background image the non-detection area | region which is the said detection object area | region which the said person detection means did not detect as the said person area | region. The person detection device according to any one of?
前記更新手段が前記背景画像を更新してから所定時間以内に前記人物検出手段が前記非検出領域を前記人物領域として検出したことを条件として、前記背景画像更新手段による前記背景画像の更新を取り消す更新取消手段
をさらに備えたことを特徴とする請求項6に記載の人物検出装置。
Canceling the update of the background image by the background image update means on condition that the person detection means detects the non-detection area as the person area within a predetermined time after the update means updates the background image The person detecting apparatus according to claim 6, further comprising update canceling means.
入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、
運用場所に応じて予め定義された領域である定義領域を人物検出の対象領域である検出対象領域として設定する設定手段と、
前記設定手段が設定した前記検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出する微動検出手段と、
前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段と、
前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された前記画素単位の数が所定の閾値以上である前記検出対象領域の数を人数として計数する計数手段と
を備えたことを特徴とする人物検出装置。
A person detection device that detects a person based on a difference between an input image and a background image,
A setting means for setting a definition area, which is an area defined in advance according to the operation location, as a detection target area that is a target area of person detection;
For each pixel unit composed of one or a plurality of pixels in the detection target region set by the setting means , alternating light and dark are repeated based on the difference between the past average luminance value in the first predetermined period and the current input luminance value. There is a fine movement detecting means for detecting the fine movement of the luminance change when the repetition is repeated a predetermined number of times within the second predetermined period and the period of the brightness fluctuation is not substantially constant ,
Edge detection means for detecting edges from the input image and excluding edges that are stationary for a third predetermined period and edges that are continuous for a certain number of pixels in the same direction;
Counting means for counting the number of the detection target areas in which the number of pixel units in which the fine movement is detected by the fine movement detection means and the edge is detected by the edge detection means are equal to or larger than a predetermined threshold as the number of persons; A person detection apparatus comprising:
入力画像と背景画像との差分に基づいて人物を検出する人物検出装置であって、
運用場所に応じて予め定義された領域である定義領域を人物検出の対象領域である検出対象領域として設定するとともに、人数を計数する対象である人数計数領域を設定する設定手段と、
前記設定手段が設定した前記検出対象領域における1または複数の画素からなる画素単位ごとに過去の第1所定期間の平均輝度値と現在の入力輝度値との差異をもとに明暗の交互繰り返しがあり、第2所定期間内にこの繰り返しが所定回数繰り返され、且つ明暗変動の周期が略一定では無いことにより輝度変化の微動を検出する微動検出手段と、
前記入力画像からエッジを検出するとともに、第3所定期間静止しているエッジ及び同一方向に一定画素以上連続したエッジを除くエッジ検出手段と、
前記微動検出手段によって前記微動が検出され、かつ、前記エッジ検出手段によって前記エッジが検出された前記画素単位の数が所定の閾値以上である前記人数計数領域の数を人数として計数する計数手段と
を備えたことを特徴とする人物検出装置。
A person detection device that detects a person based on a difference between an input image and a background image,
A setting means for setting a definition area, which is an area defined in advance according to the operation location, as a detection target area, which is a target area for person detection, and setting a number counting area, which is a target for counting the number of people,
For each pixel unit composed of one or a plurality of pixels in the detection target region set by the setting means , alternating light and dark are repeated based on the difference between the past average luminance value in the first predetermined period and the current input luminance value. There is a fine movement detecting means for detecting the fine movement of the luminance change when the repetition is repeated a predetermined number of times within the second predetermined period and the period of the brightness fluctuation is not substantially constant ,
Edge detection means for detecting edges from the input image and excluding edges that are stationary for a third predetermined period and edges that are continuous for a certain number of pixels in the same direction;
Counting means for counting the number of the person counting areas in which the number of pixel units in which the fine movement is detected by the fine movement detecting means and the edge is detected by the edge detecting means is equal to or greater than a predetermined threshold as the number of persons; A person detection apparatus comprising:
前記計数手段が計数した前記人数と当該人数が計上された領域とを対応付けて時系列に記憶する記憶手段と、
前記記憶手段に記憶された時系列の前記人数に基づいて人の滞在時間密度図を生成する生成手段と
をさらに備えたことを特徴とする請求項8または9に記載の人物検出装置。
Storage means for storing the number of persons counted by the counting means and the area in which the number of persons is counted in association with each other in time series;
The person detecting apparatus according to claim 8, further comprising: generating means for generating a person staying time density diagram based on the number of people in time series stored in the storage means.
JP2007317021A 2007-12-07 2007-12-07 Human detection device Expired - Fee Related JP5060264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007317021A JP5060264B2 (en) 2007-12-07 2007-12-07 Human detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007317021A JP5060264B2 (en) 2007-12-07 2007-12-07 Human detection device

Publications (2)

Publication Number Publication Date
JP2009140307A JP2009140307A (en) 2009-06-25
JP5060264B2 true JP5060264B2 (en) 2012-10-31

Family

ID=40870837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007317021A Expired - Fee Related JP5060264B2 (en) 2007-12-07 2007-12-07 Human detection device

Country Status (1)

Country Link
JP (1) JP5060264B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5562090B2 (en) * 2010-03-29 2014-07-30 パナソニック株式会社 Object judgment device
JP5857674B2 (en) 2010-12-22 2016-02-10 株式会社リコー Image processing apparatus and image processing system
JP5887067B2 (en) * 2011-05-20 2016-03-16 東芝テリー株式会社 Omnidirectional image processing system
JP5971678B2 (en) * 2011-11-01 2016-08-17 株式会社東芝 Information output device, detection device, program, and information output method
JP6177708B2 (en) * 2014-02-25 2017-08-09 株式会社メガチップス Moving object detection device, moving object detection method, and control program
JP6584123B2 (en) * 2015-04-23 2019-10-02 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7281198B2 (en) * 2018-01-31 2023-05-25 Groove X株式会社 Autonomous behavioral robot that acts based on experience
JP7154045B2 (en) * 2018-06-14 2022-10-17 キヤノン株式会社 Image processing device, imaging device, image processing method
WO2023175647A1 (en) * 2022-03-14 2023-09-21 三菱電機株式会社 Person detection device, person detection method and person detection program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251193A (en) * 1999-03-02 2000-09-14 Canon Inc Device and method for processing video image and storage medium
JP2001175868A (en) * 1999-12-22 2001-06-29 Nec Corp Method and device for human detection
JP4402505B2 (en) * 2004-04-27 2010-01-20 グローリー株式会社 Waiting time guidance system and method
JP4619082B2 (en) * 2004-09-30 2011-01-26 セコム株式会社 Image determination device

Also Published As

Publication number Publication date
JP2009140307A (en) 2009-06-25

Similar Documents

Publication Publication Date Title
JP5060264B2 (en) Human detection device
JP5603403B2 (en) Object counting method, object counting apparatus, and object counting program
US8041077B2 (en) Method of motion detection and autonomous motion tracking using dynamic sensitivity masks in a pan-tilt camera
Bloisi et al. Independent multimodal background subtraction.
CN105957110B (en) Apparatus and method for detection object
US7982774B2 (en) Image processing apparatus and image processing method
CN105577983B (en) Apparatus and method for detecting motion mask
JP4811653B2 (en) Object detection device
US8718379B2 (en) Method and apparatus for image capturing tampering detection
US20130271667A1 (en) Video processing apparatus and video processing method
JPWO2018061976A1 (en) Image processing device
US20160210756A1 (en) Image processing system, image processing method, and recording medium
US9165192B2 (en) Apparatus and method for separating foreground from background
CN105069813B (en) A kind of method and device of stable detection moving target
JP4963297B2 (en) Person counting device and person counting method
JP2013101419A (en) Image signal processor
JP7125843B2 (en) Fault detection system
WO2017035025A1 (en) Engagement analytic system and display system responsive to user&#39;s interaction and/or position
CN101727673A (en) Method and unit for motion detection based on a difference histogram
CN103049748A (en) Behavior-monitoring method and behavior-monitoring system
JP5142416B2 (en) Object detection device
CN104349125B (en) A kind of area monitoring method and equipment
JP6058720B2 (en) Information output device, detection device, program, and information output method
JP4828265B2 (en) Image sensor
KR101015646B1 (en) Face detecting apparatus and face detection using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120803

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees