JP5137863B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5137863B2
JP5137863B2 JP2009010044A JP2009010044A JP5137863B2 JP 5137863 B2 JP5137863 B2 JP 5137863B2 JP 2009010044 A JP2009010044 A JP 2009010044A JP 2009010044 A JP2009010044 A JP 2009010044A JP 5137863 B2 JP5137863 B2 JP 5137863B2
Authority
JP
Japan
Prior art keywords
similarity
discriminator
person
classifier
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009010044A
Other languages
Japanese (ja)
Other versions
JP2010170202A (en
Inventor
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009010044A priority Critical patent/JP5137863B2/en
Publication of JP2010170202A publication Critical patent/JP2010170202A/en
Application granted granted Critical
Publication of JP5137863B2 publication Critical patent/JP5137863B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から検出対象物を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects a detection target from an image.

画像内に検出対象物に対応した画像領域が含まれるか否かを検出する物体検出装置が知られている。   An object detection device that detects whether an image area corresponding to a detection target is included in an image is known.

対象物体の存否を事前学習させた識別器に画像を入力し、画像中の対象物体を検出する物体検出装置が提案されている。例えば、特許文献1には、パーティクルフィルタを用いて人物を追跡する人物追跡装置であって、カスケード型識別器を用いて、カスケードの通過段数を人らしさの指標とする技術が開示されている。   There has been proposed an object detection device that inputs an image to a discriminator that has previously learned whether or not the target object exists and detects the target object in the image. For example, Patent Document 1 discloses a technique for tracking a person using a particle filter, and using a cascade type discriminator and using the number of passing stages of the cascade as an indicator of humanity.

また、特許文献2には、正常な監視対象を予め学習した正常学習データと撮像データとに基づいて監視対象が正常であるか否かを判定する正常判定部と、異常な監視対象を予め学習した異常学習データと撮像データとに基づいて監視対象が異常であるか否かを判定する異常判定部とを備え、正常判定部の判定結果と異常判定部の判定結果とに基づいて監視対象が正常であるか異常であるかを判定する異常検出装置が開示されている。   Patent Document 2 discloses a normal determination unit that determines whether or not a monitoring target is normal based on normal learning data and imaging data obtained by learning a normal monitoring target in advance and an abnormal monitoring target in advance. An abnormality determination unit that determines whether or not the monitoring target is abnormal based on the abnormal learning data and the imaging data, and the monitoring target is determined based on the determination result of the normal determination unit and the determination result of the abnormality determination unit An abnormality detection device that determines whether the operation is normal or abnormal is disclosed.

また、特許文献3には、時系列に連続したフレームから構成された映像からカットを取得し、フレームから抽出された特徴ベクトルに基づいて逐次学習を行い、特徴ベクトルの統計的な分布に基づいて識別に最適な識別空間に特徴ベクトルを写像するための変換パラメータを求め、その変換パラメータにより特徴ベクトルを識別空間に写像して非定常なカットを検出する非定常画像検出装置が開示されている。   In Patent Document 3, a cut is obtained from a video composed of time-sequential frames, learning is performed sequentially based on feature vectors extracted from the frames, and based on a statistical distribution of feature vectors. A non-stationary image detection device is disclosed that obtains a conversion parameter for mapping a feature vector in an identification space that is optimal for identification, and detects a non-stationary cut by mapping the feature vector to the identification space based on the conversion parameter.

特開2008−26974号公報JP 2008-26974 A 特開2008−234551号公報JP 2008-234551 A 特開2007−299250号公報JP 2007-299250 A

ところで、従来の物体検出装置は、検出対象物を事前学習しているため、あらゆる設置環境の変動を考慮した学習がなされていなければ正確に検出対象物を検出することができない。設置環境の変動としては、昼から夜にかけて段々と日が暮れていくにつれて物体検出装置の周囲の明るさが変動するような時間的に緩慢な変動と、照明がオン・オフされて物体検出装置の周囲の明るさが変動するような時間的に急激な変動とがある。このような時間的な変動要因による誤検出や失報を低減する必要がある。   By the way, since the conventional object detection apparatus learns the detection target in advance, the detection target cannot be accurately detected unless learning is performed in consideration of the variation of any installation environment. As the fluctuation of the installation environment, the object detection device is turned on and off when the illumination is turned on and off, and the fluctuation of brightness around the object detection device changes as the sun goes down from day to night. There is a sudden change in time such that the brightness of the surroundings changes. It is necessary to reduce false detection and misreporting due to such temporal variation factors.

本発明は、上記問題を鑑みてなされたものであり、設置環境の時間的な変動にも対応した物体検出装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an object detection apparatus that can cope with temporal changes in the installation environment.

本発明の1つの態様は、監視領域を撮像した画像から検出対象物を検出する物体検出装置であって、前記画像を取得する画像取得部と、前記画像取得部から入力された前記画像から検出窓が設定されている検出窓領域画像を取り込み、前記検出窓領域画像と検出対象物とが類似している度合いを示す類似度を算出し、前記類似度に基づいて前記検出窓領域画像に検出対象物が存在しているか否かを予め学習した情報に基づいて判定する固定識別器と、前記検出窓領域画像から算出した情報により更新される第1の辞書データを用いて、検出対象物が存在しているか否かを判定する緩慢学習識別器と、前記第1の辞書データより短い時間で過去の更新内容の影響が小さくなるように前記検出窓領域画像から算出した情報により更新される第2の辞書データを用いて、検出対象物が存在しているか否かを判定する急変学習識別器と、前記緩慢学習識別器及び前記急変学習識別器からの出力に基づき検出対象物が存在するか否かを判定する判定手段と、を有することを特徴とする。   One aspect of the present invention is an object detection device that detects a detection target from an image obtained by imaging a monitoring area, and that is detected from an image acquisition unit that acquires the image and the image that is input from the image acquisition unit. A detection window area image in which a window is set is captured, a similarity indicating the degree of similarity between the detection window area image and a detection target is calculated, and the detection window area image is detected based on the similarity. Using a fixed discriminator that determines whether or not an object exists based on information learned in advance and first dictionary data that is updated with information calculated from the detection window region image, the detection object is A slow learning discriminator that determines whether or not it exists, and a first that is updated with information calculated from the detection window region image so that the influence of past update contents is reduced in a shorter time than the first dictionary data. 2 Whether or not the detection target exists based on the output from the sudden change learning discriminator and the slow learning discriminator that determines whether or not the detection target exists And determining means for determining.

ここで、前記緩慢学習識別器及び前記急変学習識別器は、前記固定識別器にて検出対象物が存在していると判定された検出窓領域画像に対してのみ判定を行うことが好適である。   Here, it is preferable that the slow learning discriminator and the sudden change learning discriminator perform the determination only on the detection window region image determined by the fixed discriminator that the detection target exists. .

また、前記判定手段は、前記緩慢学習識別器及び前記急変学習識別器で検出対象物が存在すると判定された場合に検出対象物が存在すると判定することが好適である。   In addition, it is preferable that the determination unit determines that the detection target exists when the slow learning classifier and the sudden change learning classifier determine that the detection target exists.

また、前記緩慢学習識別器及び前記急変学習識別器は、前記判定手段にて検出対象物が存在しないと判定されたときに算出された類似度のみにて前記第1の辞書データ及び前記第2の辞書データを更新することが好適である。   In addition, the slow learning discriminator and the sudden change learning discriminator may be configured such that the first dictionary data and the second data are only calculated based on the similarity calculated when the determination unit determines that the detection target does not exist. It is preferable to update the dictionary data.

本発明によれば、事前学習により物体を検出する物体検出装置において設置環境の時間的な変動にも対応して検出対象物の検出を行うことができる。   According to the present invention, the object to be detected can be detected in response to the temporal variation of the installation environment in the object detection device that detects an object by prior learning.

本発明の実施の形態における物体検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the object detection apparatus in embodiment of this invention. 物体の検出処理を説明する図である。It is a figure explaining the detection process of an object. 第1の実施の形態における識別器の構成を示す図である。It is a figure which shows the structure of the discriminator in 1st Embodiment. 第1の実施の形態における類似度ヒストグラムの例を示す図である。It is a figure which shows the example of the similarity histogram in 1st Embodiment. 第1の実施の形態における類似度ヒストグラムの更新方法を説明する図である。It is a figure explaining the update method of the similarity histogram in 1st Embodiment. 第1の実施の形態における物体検出装置での処理を示すフローチャートである。It is a flowchart which shows the process in the object detection apparatus in 1st Embodiment. 第1の実施の形態における物体検出装置での検出窓領域の位置設定処理を示すフローチャートである。It is a flowchart which shows the position setting process of the detection window area | region in the object detection apparatus in 1st Embodiment. 第1の実施の形態における物体検出装置での識別処理を示すフローチャートである。It is a flowchart which shows the identification process in the object detection apparatus in 1st Embodiment. 第1の実施の形態における物体検出装置での更新処理を示すフローチャートである。It is a flowchart which shows the update process in the object detection apparatus in 1st Embodiment. 第1の実施の形態における物体検出装置での判定処理を示すフローチャートである。It is a flowchart which shows the determination process in the object detection apparatus in 1st Embodiment. 第2の実施の形態における識別器の構成を示す図である。It is a figure which shows the structure of the discriminator in 2nd Embodiment. 第2の実施の形態における特徴量の例を示す図である。It is a figure which shows the example of the feature-value in 2nd Embodiment. 第2の実施の形態における物体検出装置での識別処理を示すフローチャートである。It is a flowchart which shows the identification process in the object detection apparatus in 2nd Embodiment. 第2の実施の形態における物体検出装置での更新処理を示すフローチャートである。It is a flowchart which shows the update process in the object detection apparatus in 2nd Embodiment. 第2の実施の形態における物体検出装置での初期設定処理を示すフローチャートである。It is a flowchart which shows the initial setting process in the object detection apparatus in 2nd Embodiment.

<第1の実施の形態>
本発明の実施の形態における物体検出装置1は、図1に示すように、画像取得部2、信号処理部3、記憶部4及び出力部5を含んで構成される。物体検出装置1は、所定の監視空間を撮像した監視画像を取得し、画像内に撮像された人や物等の検出対象物を検出する。画像取得部2、信号処理部3、記憶部4及び出力部5は互いに情報伝達可能に接続される。
<First Embodiment>
As shown in FIG. 1, the object detection apparatus 1 according to the embodiment of the present invention includes an image acquisition unit 2, a signal processing unit 3, a storage unit 4, and an output unit 5. The object detection device 1 acquires a monitoring image obtained by imaging a predetermined monitoring space, and detects a detection target such as a person or an object captured in the image. The image acquisition unit 2, the signal processing unit 3, the storage unit 4, and the output unit 5 are connected so as to be able to transmit information to each other.

なお、本実施の形態では、画像内に写った人を検出対象物とする例について説明する。ただし、これに限定されるものではなく、流通化に置かれる商品等の物品、通行する車等を検出する場合等にも適用することができる。   In this embodiment, an example in which a person shown in an image is a detection target will be described. However, the present invention is not limited to this, and the present invention can also be applied to the case of detecting articles such as commodities placed in distribution, vehicles passing through, and the like.

画像取得部2は、CCD素子やC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される所謂監視カメラを含む。また、画像取得部2は、インターネットのネットワークを介して画像を取得するものであってもよい。画像取得部2は、撮像した画像を信号処理部3へ送信する。画像を取得する間隔は一定の時間間隔でなくてもよい。   The image acquisition unit 2 includes a so-called surveillance camera configured to include an imaging element such as a CCD element or a C-MOS element, an optical system component, an analog / digital converter, and the like. The image acquisition unit 2 may acquire an image via an Internet network. The image acquisition unit 2 transmits the captured image to the signal processing unit 3. The interval at which the images are acquired may not be a fixed time interval.

画像は、例えば、幅320ピクセル、高さ240ピクセル、各ピクセルがR(赤)、G(緑)、B(青)をそれぞれ256階調で表現したカラー画像である。   The image is, for example, a color image having a width of 320 pixels, a height of 240 pixels, and each pixel expressing R (red), G (green), and B (blue) with 256 gradations.

信号処理部3は、CPU、DSP、MCU、IC等の演算回路を含んで構成される。信号処理部3は、画像取得部2、記憶部4及び出力部5と情報伝達可能に接続される。信号処理部3は、検出窓領域選択手段30、検出窓制御手段32、固定識別器34、学習識別器36、識別器更新手段37、判定手段38等の各手段での処理を記述したプログラムを記憶部4から読み出して実行することによりコンピュータを各手段として機能させる。   The signal processing unit 3 includes an arithmetic circuit such as a CPU, DSP, MCU, or IC. The signal processing unit 3 is connected to the image acquisition unit 2, the storage unit 4, and the output unit 5 so as to be able to transmit information. The signal processing unit 3 is a program that describes the processing in each means such as the detection window region selection means 30, the detection window control means 32, the fixed discriminator 34, the learning discriminator 36, the discriminator update means 37, and the judgment means 38. The computer is caused to function as each means by reading out from the storage unit 4 and executing it.

信号処理部3は、図2に示すように、画像取得部2より入力画像200から検出対象物を検出する。説明の都合上、画像200の左上を原点X=0,Y=0とし、横方向にX軸、縦方向にY軸とし、X軸は右方向、Y軸は下方向に正に増加するものとする。入力画像200には、領域203,204の位置に検出対象物(人)が写っており、矩形201,202は検出窓領域を示している。   As illustrated in FIG. 2, the signal processing unit 3 detects a detection target from the input image 200 from the image acquisition unit 2. For convenience of explanation, the upper left corner of the image 200 is the origin X = 0, Y = 0, the horizontal direction is the X axis, the vertical direction is the Y axis, the X axis is the right direction, and the Y axis is positively increased downward. And In the input image 200, a detection object (person) is shown at the positions of the areas 203 and 204, and rectangles 201 and 202 indicate detection window areas.

物体検出装置1は、検出窓領域を少しずつずらしながら走査し、検出窓領域に人が写っている否かを判定する。矢印は、検出窓領域をずらす際の左上の座標を示すものであり、検出窓領域は画像200全体を漏れなく探索するように走査する。領域203,204にある矩形は、検出処理の結果、人であると判定された検出窓領域(人候補領域)を示す。人が写っている画像領域付近では、人であると判定される検出窓領域が複数出てくる場合があるが、検出窓領域をまとめる処理を行うことで最終的な検出窓領域(図2中の太線:人領域)を得る。ただし、検出窓領域は、基準となる背景と入力画像とを差分処理し、差分後の画像をラベリングした後の各ラベルを検出窓領域としてもよいし、画像全体を検出窓領域としてもよい。また、領域205にある矩形は、検出対象物である人に似た洋服が掛ったハンガーが写された領域を示している。   The object detection apparatus 1 scans while gradually shifting the detection window area, and determines whether a person is captured in the detection window area. The arrow indicates the upper left coordinates when the detection window area is shifted, and the detection window area is scanned so as to search the entire image 200 without omission. The rectangles in the areas 203 and 204 indicate detection window areas (person candidate areas) that are determined to be human as a result of the detection process. In the vicinity of an image region where a person is shown, there may be a plurality of detection window regions that are determined to be humans. However, the final detection window region (in FIG. (Thick line: human area). However, the detection window area may be obtained by subjecting the reference background and the input image to difference processing, and labeling each image after the difference as the detection window area, or the entire image as the detection window area. A rectangle in the region 205 indicates a region where a hanger with clothes similar to a person who is a detection target is captured.

検出窓領域選択手段30は、検出窓領域の幅と高さを決定する。画像内に様々な大きさで写る人に対応するため検出窓領域の幅と高さを変更しながら、検出窓領域を走査して画像内に人が写っているか否かを判定する。なお、検出窓領域の幅と高さは、検出対象物の画像上での大きさを考慮して、予め記憶部4に1又は複数を記憶している。ただし、予め幅と高さを記憶していなくとも、所定の規則に従って決定してもよい。   The detection window area selection means 30 determines the width and height of the detection window area. The detection window area is scanned to determine whether or not a person is captured in the image while changing the width and height of the detection window area in order to correspond to people captured in various sizes in the image. Note that one or a plurality of widths and heights of the detection window region are stored in advance in the storage unit 4 in consideration of the size of the detection object on the image. However, even if the width and height are not stored in advance, they may be determined according to a predetermined rule.

検出窓制御手段32は、検出窓領域をずらす間隔(走査間隔)を決定し、決定した走査間隔に基づいて検出窓領域をずらす。   The detection window control means 32 determines an interval (scanning interval) for shifting the detection window region, and shifts the detection window region based on the determined scanning interval.

固定識別器34は、検出窓領域内の画像がどれだけ人に似ているか、類似度を計算する。固定識別器34は、多数の「人」の画像データ、「人以外」の画像データを用いて予め学習させる。   The fixed discriminator 34 calculates the degree of similarity of how much the image in the detection window area resembles a person. The fixed discriminator 34 learns in advance using a large number of “person” image data and “non-person” image data.

類似度は、図3に示す処理手順で計算される。図1に記載している固定識別器34、学習識別器36、識別器更新手段37の具体例を図3ではカスケード型識別器320、学習識別器330及び識別器更新手段332としてそれぞれ示す。   The similarity is calculated by the processing procedure shown in FIG. Specific examples of the fixed classifier 34, the learning classifier 36, and the classifier update means 37 shown in FIG. 1 are shown as a cascade type classifier 320, a learning classifier 330, and a classifier update means 332, respectively, in FIG.

まず、入力画像から切り出された検出窓領域内の画像がカスケード型識別器320に入力される。カスケード型識別器320は、強識別器321,322,323のような複数の強識別器が直列に並んだ識別器である(ここではN個の強識別器が直列に並んでいる例を示す)。個々の強識別器は、ヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)特徴(Navneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of IEEE Conference Computer Vision and Pattern Recognition 2005)を用いてアダブースト(AdaBoost)で予め学習させる。すなわち、検出対象物である人の様々な画像と人が写っていない画像を大量に用意し、各画像に対して検出対象物の画像であるか否か正解付けを行っておき、これらのデータを用いて両者が識別できるようにアダブーストで学習させる。類似度を計算するときは、各強識別器は、入力された画像からHOG特徴を計算し、アダブーストで選択された特徴量より類似度を計算する。   First, an image in the detection window region cut out from the input image is input to the cascade discriminator 320. The cascade type classifier 320 is a classifier in which a plurality of strong classifiers such as the strong classifiers 321, 322, and 323 are arranged in series (here, an example in which N strong classifiers are arranged in series is shown). ). Individual strong classifiers are Histograms of Oriented Gradients (HOG) features (Navneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of IEEE Conference Computer Vision and Pattern Recognition 2005) To learn in advance with AdaBoost. That is, various images of people who are detection objects and images that do not show people are prepared in large quantities, each image is correctly identified as to whether it is an image of the detection object, and these data To learn with Adaboost so that both can be identified. When calculating the similarity, each strong classifier calculates the HOG feature from the input image, and calculates the similarity from the feature amount selected by Adaboost.

強識別器321〜323はあらかじめ計算する順序が決まっており、最初に計算する強識別器321が1、次に計算する強識別器322が2・・・Nのように各強識別器には計算する順番と同じ番号を割り当てる。   The order in which the strong classifiers 321 to 323 are calculated in advance is determined, and the strong classifier 321 to be calculated first is 1, the next strong classifier 322 to be calculated is 2. Assign the same number as the order of calculation.

各強識別器321〜323は、検出窓領域として切り出された画像を入力とし、類似度を計算する。最先の強識別器321以外の強識別器322,323等は、前段で計算された類似度が閾値より大きい場合のみ(図中Tの矢印)、類似度を計算する。閾値以下の場合(図中Fの矢印)、識別器更新手段332にて学習識別器330の更新を行う。閾値は、例えば0に設定し、0より大きければ人に似ており、0以下であれば人に似ていないと判定する。以下、類似度を算出した強識別器の番号を判定段数という。   Each of the strong discriminators 321 to 323 receives the image cut out as the detection window region and calculates the similarity. The strong classifiers 322, 323, etc. other than the first strong classifier 321 calculate the similarity only when the similarity calculated in the previous stage is larger than the threshold (arrow T in the figure). When the value is equal to or less than the threshold value (arrow F in the figure), the classifier update unit 332 updates the learning classifier 330. The threshold is set to 0, for example, and if it is greater than 0, it is similar to a person, and if it is 0 or less, it is determined that it is not similar to a person. Hereinafter, the number of the strong classifier for which the similarity is calculated is referred to as the number of determination steps.

学習識別器330は、カスケード型識別器320の各強識別器の類似度を入力として、人か否かを判定する。本実施の形態では、学習識別器330は、緩慢変動用識別器と急変動用識別器の2つの識別器を含み、それぞれの識別器では互いに異なる「人以外」の類似度ヒストグラムを用いて判定処理を行う。ただし、使用する「人以外」の類似度ヒストグラムが異なるだけで、他の処理等は同じであるのでここでは区別せずに学習識別器330として説明する。   The learning discriminator 330 uses the similarity of each strong discriminator of the cascade discriminator 320 as an input to determine whether or not the person is a person. In the present embodiment, the learning discriminator 330 includes two discriminators, a slow fluctuation discriminator and a sudden fluctuation discriminator, and each discriminator makes a determination using different “non-human” similarity histograms. Process. However, since only the similarity histogram of “non-human” to be used is different and the other processes are the same, the learning discriminator 330 will be described without distinction.

学習識別器330は、カスケード型識別器320で最後の強識別器323において人と判定(図中Tの矢印)した場合のみ判定を行う。カスケード型識別器320で「人」の可能性が高いときのみ、すなわち最終段の強識別器323で求めた類似度が閾値より大きい場合(図中Tの矢印)に学習識別器330にて判定を行う。学習識別器330は、カスケード型識別器320において判定段数までの強識別器で得られた類似度Sn(nは1〜M:Mは判定段数(1≦M≦N))を入力とする。カスケード型識別器320の各強識別器で求めた類似度を並べてベクトル表現したものを類似度ベクトルS=(1番目の強識別器の類似度,2番目の強識別器の類似度,・・・,M番目の強識別器の類似度)=(S1,S2,・・・,SM)とする。   The learning discriminator 330 performs the determination only when the cascade type discriminator 320 determines that the last strong discriminator 323 is a person (arrow T in the figure). Only when the possibility of “person” is high in the cascade type classifier 320, that is, when the similarity obtained by the strong classifier 323 at the final stage is larger than the threshold (arrow T in the figure), the learning classifier 330 makes the determination. I do. The learning discriminator 330 receives the similarity Sn (n is 1 to M: M is the number of determination stages (1 ≦ M ≦ N)) obtained by the strong classifiers up to the number of determination stages in the cascade classifier 320 as an input. A similarity vector S = (similarity of the first strong classifier, similarity of the second strong classifier,..., A vector representation of the similarities obtained by the strong classifiers of the cascade type classifier 320 arranged side by side. (Similarity of Mth strong classifier) = (S1, S2,..., SM).

類似度ベクトルSが得られたときの「人」である確率P(人|S)、類似度Sが得られたときの「人以外」である確率P(人以外|S)を計算し、P(人|S)>P(人以外|S)なら「人」と判定し、そうでなければ「人以外」と判定する。   Calculating the probability P (person | S) of “person” when the similarity vector S is obtained, and the probability P (non-person | S) of “non-person” when the similarity S is obtained; If P (person | S)> P (non-person | S), it is determined as “person”, otherwise it is determined as “non-person”.

P(人|S)とP(人以外|S)の計算はベイズの定理より数式(1),(2)で求めることができる。

Figure 0005137863
Calculations of P (person | S) and P (non-person | S) can be obtained by the formulas (1) and (2) from Bayes' theorem.
Figure 0005137863

ここで、P(S|人)は、「人」の場合の類似度Sが得られる確率(尤度)、P(S|人以外)は「人以外」の場合の類似度Sが得られる確率(尤度)である。P(人)は「人」がどのくらいの確率で検出窓領域に含まれるかを表した事前確率、同様にP(人以外)は検出窓領域に「人以外」がどのくらいの確率で含まれているかを表した事前確率である。事前に検出窓領域に「人」、「人以外」が含まれる確率はわからないため、事前確率P(人)=P(人以外)=0.5と仮定する。P(人以外|S)=1−P(人|S)という関係があるので、P(人|S)を求めれば、P(人以外|S)は容易に求められる。以下では、P(人|S)を学習識別器330での類似度という。   Here, P (S | People) obtains the probability (likelihood) of obtaining the similarity S in the case of “People”, and P (S | People) obtains the similarity S in the case of “Non-People”. Probability (likelihood). P (person) is a prior probability that indicates the probability of “person” being included in the detection window area, and similarly P (other than person) is included in the detection window area with a probability of “non-person”. It is a prior probability that represents whether or not. Since the probability that “person” and “non-person” are included in the detection window region in advance is not known, it is assumed that the prior probability P (person) = P (non-person) = 0.5. Since P (non-person | S) = 1−P (person | S), if P (person | S) is obtained, P (non-person | S) is easily obtained. Hereinafter, P (person | S) is referred to as the similarity in the learning discriminator 330.

各強識別器の類似度を要素とした確率変数ベクトルsを用意すると、「人」の類似度ベクトルsの分布P(s|人)と「人以外」の類似度ベクトルsの分布P(s|人以外)が求まればP(人|s)を計算できる。類似度ベクトルsは多次元データだが、各強識別器の類似度snは独立であると仮定すると、P(s|人)及びP(s|人以外)は数式(3),(4)で求められる。

Figure 0005137863
When a random variable vector s having the similarity of each strong classifier as an element is prepared, the distribution P (s | person) of the similarity vector s of “person” and the distribution P (s) of the similarity vector s of “non-person”. If (other than people) is obtained, P (people | s) can be calculated. Although the similarity vector s is multi-dimensional data, assuming that the similarity sn of each strong classifier is independent, P (s | people) and P (s | others) are expressed by equations (3) and (4). Desired.
Figure 0005137863

ここで、P(sm|人)はm番目の強識別器の「人」の類似度の分布であり、P(sm|人以外)はm番目の強識別器の「人以外」の類似度の分布である。   Here, P (sm | person) is the distribution of similarity of “m” of the mth strong classifier, and P (sm | other) is the similarity of “mother” of the mth strong classifier. Distribution.

本実施の形態では、全ビン(区切り)の類似度の分布の和が1になるようなヒストグラムで表現する。それぞれのヒストグラムは、記憶部4の類似度ヒストグラム42に格納される。ただし、類似度の分布はヒストグラムに限らず、正規分布や混合正規分布などで表現してもよい。   In the present embodiment, it is expressed by a histogram such that the sum of similarity distributions of all bins (separators) is 1. Each histogram is stored in the similarity histogram 42 of the storage unit 4. However, the similarity distribution is not limited to the histogram, and may be expressed by a normal distribution, a mixed normal distribution, or the like.

「人」の類似度ヒストグラム42は、予め用意した「人」を含む画像である学習用データを用いて各強識別器の類似度の分布を求めることによって構成する。本実施の形態では、「人」の類似度ヒストグラム42については逐次学習を行わないが更新してもよい。「人以外」の類似度ヒストグラム42は、監視カメラを設置した時の最初の数フレームの画像には人が含まれていないと仮定し、そのとき得られる各強識別器の類似度の分布を求めることによって構成する。その後、カスケード型識別器320又は学習識別器330において検出窓領域が「人以外」と判定されたときにカスケード型識別器320で求められた類似度を用いて「人以外」の類似度ヒストグラム42を逐次更新する。   The “person” similarity histogram 42 is configured by obtaining a similarity distribution of each strong classifier using learning data that is an image including “person” prepared in advance. In the present embodiment, the “person” similarity histogram 42 is not sequentially learned but may be updated. The similarity histogram 42 of “non-person” assumes that no person is included in the first few frames when the surveillance camera is installed, and the similarity distribution of the strong classifiers obtained at that time is shown. Configure by asking. Thereafter, when the detection window region is determined to be “non-human” in the cascade type discriminator 320 or the learning discriminator 330, the similarity histogram 42 of “non-human” is used by using the similarity obtained by the cascade type discriminator 320. Are updated sequentially.

カスケード型識別器320の強識別器の数がN=2の場合における類似度ヒストグラム42の例を図4に示す。類似度ヒストグラム401は、1番目の強識別器の類似度s1における「人」の類似度の分布402:P(s1|人)と「人以外」の類似度の分布403:P(s1|人以外)からなる。類似度ヒストグラム411は、2番目の強識別器の類似度s2における「人」の類似度の分布412:P(s2|人)と「人以外」の類似度の分布413:P(s2|人以外)からなる。4つの類似度ヒストグラム402,403,412,413は、全ビンの類似度の分布の合計が1になるようにそれぞれ正規化されている。   FIG. 4 shows an example of the similarity histogram 42 when the number of strong classifiers in the cascade classifier 320 is N = 2. The similarity histogram 401 is a distribution of similarity “person” 402: P (s1 | person) and similarity distribution 403: P (s1 | person) of “non-person” in the similarity s1 of the first strong classifier. Except). The similarity histogram 411 shows the distribution of similarity of “person” 412: P (s2 | person) and the distribution of similarity of “non-person” 413: P (s2 | person) in the similarity s2 of the second strong classifier Except). The four similarity histograms 402, 403, 412, and 413 are normalized so that the sum of the similarity distributions of all bins is 1.

カスケード型識別器320のみで判定する場合、各強識別器で求められた類似度が予め定められた閾値(例えば、0に設定)より大きいと「人」と判定されるが、学習識別器330では得られた各強識別器の類似度と、過去の類似度ヒストグラム42から確率を計算し、適応的に判定できる。   When the determination is made only with the cascade classifier 320, if the degree of similarity obtained by each strong classifier is larger than a predetermined threshold (for example, set to 0), it is determined as “person”. Then, the probability is calculated from the obtained similarity of each strong classifier and the past similarity histogram 42 and can be adaptively determined.

例として、「人」、「人以外」の類似度の分布が図4に示す類似度ヒストグラム401,411で表される場合、1段目の強識別器の類似度がS1=1.0、2段目の強識別器の類似度がS2=1.0であったときについて説明する。1段目及び2段目の強識別器における閾値が0である場合、1段目及び2段目の強識別器のいずれにおいても類似度が閾値を超えているのでカスケード型識別器320では「人」と判定される。一方、学習識別器330では、類似度ベクトルS=(1.0,1.0)が得られたときの「人」である確率:P(人|S=(1.0,1.0))=P(S1=1.0|人)×P(S2=1.0|人)×P(人)/Aと、「人以外」である確率:P(人以外|S=(1.0,1.0))=1−P(人|S=(1.0,1.0))を算出する。ただし、A=P(S|人)×P(人)+P(S|人以外)×P(人以外)である。図4に示すヒストグラム401,411に基づくとP(人|S=(1.0,1.0))<P(人以外|S=(1.0,1.0))となるので、学習識別器330では「人以外」と判定される。   As an example, when the similarity distribution of “person” and “non-person” is represented by the similarity histograms 401 and 411 shown in FIG. 4, the similarity of the first strong classifier is S1 = 1.0, A case where the similarity of the second-stage strong classifier is S2 = 1.0 will be described. When the threshold values in the first and second stage strong classifiers are 0, the similarity exceeds the threshold value in both the first and second stage strong classifiers. It is determined as “person”. On the other hand, in the learning discriminator 330, the probability of “person” when the similarity vector S = (1.0, 1.0) is obtained: P (person | S = (1.0, 1.0) ) = P (S1 = 1.0 | People) × P (S2 = 1.0 | People) × P (People) / A and the probability of “Non-People”: P (Non-People | S = (1. 0, 1.0)) = 1−P (person | S = (1.0, 1.0)). However, A = P (S | person) × P (person) + P (S | other than person) × P (other than person). Based on the histograms 401 and 411 shown in FIG. 4, P (person | S = (1.0,1.0)) <P (non-person | S = (1.0,1.0)). The discriminator 330 determines “other than human”.

物体検出装置の設置環境の特性にあわせた類似度ヒストグラムを構築できれば、カスケード型識別器320からの類似度の算出結果に基づいて学習識別器330においてより確度の高い判定を行うことができる。   If a similarity histogram matching the characteristics of the installation environment of the object detection device can be constructed, the learning discriminator 330 can make a more accurate determination based on the similarity calculation result from the cascade discriminator 320.

学習識別器330で判定後、学習識別器330を識別器更新手段332により更新する。また、類似度管理手段334において類似度及び検出窓領域の大きさ(幅及び高さ)と中心座標を関連付けて判定情報履歴40として記憶部4に記憶させる。   After the determination by the learning discriminator 330, the learning discriminator 330 is updated by the discriminator update unit 332. Further, the similarity management unit 334 associates the similarity, the size (width and height) of the detection window region, and the center coordinates, and stores them in the storage unit 4 as the determination information history 40.

識別器更新手段332は、学習識別器330の類似度ヒストグラムを更新する。本実施の形態では、各強識別器で求められた類似度が閾値以下(図3中Fの矢印)の場合に識別器更新手段332にて学習識別器330の更新を行う。また、カスケード型識別器320にて、強識別器で求められた類似度が閾値を超えていても(図3中Tの矢印)、学習識別器330にて「人以外」と判定(図3中Fの矢印)された場合にも、識別器更新手段332にて学習識別器330の更新を行う。すなわち、「人以外」の類似度ヒストグラム42のみを更新の対象とし、「人」の類似度ヒストグラム42は更新しない。   The discriminator update unit 332 updates the similarity histogram of the learning discriminator 330. In the present embodiment, the learning classifier 330 is updated by the classifier updating means 332 when the degree of similarity obtained by each strong classifier is equal to or less than a threshold value (arrow F in FIG. 3). In addition, even if the similarity determined by the strong classifier exceeds the threshold value in the cascade classifier 320 (the arrow T in FIG. 3), the learning classifier 330 determines “other than human” (FIG. 3). In the case of the middle F arrow), the classifier update unit 332 updates the learning classifier 330. That is, only the “non-person” similarity histogram 42 is updated, and the “person” similarity histogram 42 is not updated.

識別器更新手段332は、一時刻前までに得られた類似度ヒストグラム42を現時刻に得られたデータで更新する。識別器更新手段332による更新処理には、例えば図5に示すように、αブレンディングが用いられる。図5は、学習識別器330のn番目の「人以外」の類似度ヒストグラム42を更新する処理を示しており、前時刻までの更新前の類似度ヒストグラム501及び現時刻で得られたデータによる更新された類似度ヒストグラム502を表している。   The discriminator update unit 332 updates the similarity histogram 42 obtained up to one time ago with the data obtained at the current time. For example, as shown in FIG. 5, α blending is used for the update process by the discriminator update unit 332. FIG. 5 shows a process of updating the n-th “non-human” similarity histogram 42 of the learning discriminator 330, based on the similarity histogram 501 before the update up to the previous time and the data obtained at the current time. An updated similarity histogram 502 is shown.

検出窓領域に人の画像が含まれているか否かを判定した際、カスケード型識別器320では「人」と判定され学習識別器330では「人以外」と判定されたとする。このときのn番目の強識別器の類似度が0.8のときのn番目の強識別器に対応する類似度ヒストグラム501の更新方法を示す。まず、更新前の類似度ヒストグラム501の各ビンを(1.0−α)倍する。その後、現時刻に得られた類似度0.8に相当するビンにα分の重みを足す(図中、ビン503の斜線部分)。αは予め定められたパラメータである。αが大きいと過去の情報の影響がより早く小さくなり、αが小さいと過去の情報の影響をより長く受けるものとなる。初めて更新を行う際、すなわち類似度ヒストグラム501が空の状態の場合、得られたデータが該当するビンの値を1とする。ただし、このようにすると最初に得られたデータの影響が大きいため、更新回数が少ないうちはαを比較的大きな値に設定し、更新回数が多くなるにつれてだんだん小さな値に設定するなどしてもよい。   When it is determined whether or not an image of a person is included in the detection window area, it is determined that the cascade discriminator 320 determines “person” and the learning discriminator 330 determines “other than human”. A method of updating the similarity histogram 501 corresponding to the nth strong classifier when the similarity of the nth strong classifier is 0.8 is shown. First, each bin of the similarity histogram 501 before update is multiplied by (1.0−α). Thereafter, a weight corresponding to α is added to the bin corresponding to the similarity of 0.8 obtained at the current time (the hatched portion of the bin 503 in the figure). α is a predetermined parameter. When α is large, the influence of past information is reduced earlier, and when α is small, the influence of past information is longer. When updating for the first time, that is, when the similarity histogram 501 is empty, the bin value corresponding to the obtained data is set to 1. However, since the influence of the first obtained data is large in this way, α may be set to a relatively large value while the number of updates is small, and may be set to a smaller value as the number of updates increases. Good.

本実施の形態では、緩慢変動用識別器と急変動用識別器についてそれぞれ「人以外」の類似度ヒストグラム42を使用する。緩慢変動用識別器における「人以外」の類似度ヒストグラム42の更新処理での更新パラメータαは、急変動用識別器における「人以外」の類似度ヒストグラム42の更新処理での更新パラメータαより小さい値とする。ただし、0<(緩慢変動用識別器における更新パラメータα)<(急変動用識別器における更新パラメータα)<1を満たすようにする。緩慢変動用識別器では、更新パラメータαが小さいので「人以外」の類似度ヒストグラム42において過去の更新内容の影響が急変動用識別器よりも長く残り、長時間に亘ってゆっくりと変動する環境の変化に対応することができる。一方、急変動用識別器では、更新パラメータαが大きいので「人以外」の類似度ヒストグラム42において緩慢変動用識別器より短い時間で過去の更新内容の影響が小さくなり、短時間で急激に変動する環境の変化に対応することができる。   In the present embodiment, “non-human” similarity histograms 42 are used for the slow fluctuation classifier and the sudden fluctuation classifier, respectively. The update parameter α in the update process of the “non-person” similarity histogram 42 in the slow fluctuation classifier is smaller than the update parameter α in the update process of the “non-person” similarity histogram 42 in the sudden change classifier. Value. However, 0 <(update parameter α in the discriminator for slow fluctuations) <(update parameter α in the discriminator for sudden fluctuations) <1. In the slowly varying discriminator, since the update parameter α is small, the influence of the past update contents remains longer than the suddenly changing classifier in the similarity histogram 42 of “non-human”, and the environment changes slowly over a long time. Can respond to changes in On the other hand, since the update parameter α is large in the sudden change discriminator, the influence of the past update content becomes smaller in the similarity histogram 42 of “non-human” in a shorter time than the slow fluctuation discriminator, and rapidly changes in a short time. Can respond to changes in the environment.

ここで、図1に戻って、判定手段38は、判定情報履歴40として記憶されている検出窓領域の大きさ(幅、高さ)と中心座標、学習識別器330の類似度(緩慢変動用識別器で求められた類似度と急変動用識別器で求められた類似度)を用いて、最終的に画像内のどこに人が写っているかを決定する。判定情報履歴40に含まれるデータの中で、学習識別器330(緩慢変動用識別器及び急変動用識別器の両方)の類似度が閾値(例えば、0.8に設定)以上の検出窓領域を人候補領域として抽出する。人候補領域がない場合は入力画像中に人領域はないということで終了する。   Here, referring back to FIG. 1, the determination unit 38 determines the size (width, height) and center coordinates of the detection window region stored as the determination information history 40, the similarity of the learning discriminator 330 (for slow fluctuation). Using the similarity obtained by the discriminator and the similarity obtained by the abrupt change discriminator, it is finally determined where the person is shown in the image. Among the data included in the determination information history 40, a detection window region in which the similarity of the learning discriminator 330 (both the slow fluctuation discriminator and the sudden fluctuation discriminator) is equal to or higher than a threshold (for example, set to 0.8). Are extracted as candidate areas. If there is no human candidate area, the process ends because there is no human area in the input image.

人候補領域があった場合、検出窓領域の大きさと中心座標を用いて、一定以上(例えば、検出窓領域の面積の半分以上)の領域が重なっている人候補領域を纏める。纏めた人候補領域の中で学習識別器330の類似度が一番高い検出窓領域を人領域として選択する。纏めた領域毎に選択された検出窓領域を人領域とし、出力部5に選択された検出窓領域の情報を出力する。   When there is a human candidate area, the human candidate areas that overlap a certain area (for example, more than half of the area of the detection window area) are collected using the size and center coordinates of the detection window area. The detection window region having the highest similarity of the learning discriminator 330 is selected as the human region among the grouped human candidate regions. The detection window area selected for each collected area is set as a human area, and information on the detection window area selected is output to the output unit 5.

記憶部4は、ROMやRAM等のメモリ装置で構成される。記憶部4は、信号処理部3からアクセス可能に接続される。記憶部4は、各種プログラム、各種データを記憶することができ、信号処理部3からの要求に応じてこれらの情報を読み書きする。記憶部4は、類似度管理手段334として機能し、判定情報履歴40として検出窓領域の大きさ(幅、高さ)と中心座標及び学習識別器330の類似度(緩慢変動用識別器で求められた類似度と急変動用識別器で求められた類似度)の3つの情報を関連付けて記憶する。また、カスケード型識別器320に含まれる強識別器毎に、各強識別器の番号に対応付けて「人」と「人以外」の類似度ヒストグラム42を記憶する。なお、「人以外」の類似度ヒストグラム42については、緩慢変動用識別器と急変動用識別器とについて2種類の類似度ヒストグラム42を記憶する。かかる類似度ヒストグラム42が辞書データに相当し、緩慢変動用識別器の類似度ヒストグラムが第1の辞書データ、急変動用識別器の類似度ヒストグラムが第2の辞書データにそれぞれ相当する。   The storage unit 4 is configured by a memory device such as a ROM or a RAM. The storage unit 4 is connected so as to be accessible from the signal processing unit 3. The storage unit 4 can store various programs and various data, and reads and writes these pieces of information in response to requests from the signal processing unit 3. The storage unit 4 functions as the similarity management unit 334, and as the determination information history 40, the size (width, height) of the detection window region, the center coordinates, and the similarity of the learning discriminator 330 (obtained by the slow fluctuation discriminator). Three types of information (similarity obtained by the rapid change discriminator) and stored in association with each other. For each strong classifier included in the cascade classifier 320, a similarity histogram 42 of “person” and “non-person” is stored in association with the number of each strong classifier. For the similarity histogram 42 of “non-human”, two types of similarity histograms 42 are stored for the slow fluctuation discriminator and the sudden fluctuation discriminator. The similarity histogram 42 corresponds to dictionary data, the similarity histogram of the slow fluctuation classifier corresponds to the first dictionary data, and the similarity histogram of the sudden fluctuation classifier corresponds to the second dictionary data.

出力部5は、報知音を出力する音響出力手段や入力画像を表示する表示手段を含んで構成することができる。判定手段38で人領域が検出された場合、スピーカー、ブザー等の音響出力手段で警報を鳴らしたり、ディスプレイ等の外部表示装置に入力画像を表示したりする。また、出力部5は、コンピュータをネットワークや電話回線に接続するためのインターフェースを含んでもよい。この場合、出力部5は、電話回線やインターネット等の情報伝達手段を介して、センタ装置(図示しない)に入力画像や人領域の情報を送出する。なお、センタ装置は、画像内の検出対象物を監視するセンタ等に設置されるホストコンピュータである。   The output unit 5 can be configured to include a sound output unit that outputs a notification sound and a display unit that displays an input image. When the determination unit 38 detects a human area, an alarm is sounded by a sound output unit such as a speaker or a buzzer, or an input image is displayed on an external display device such as a display. The output unit 5 may include an interface for connecting the computer to a network or a telephone line. In this case, the output unit 5 sends an input image and human area information to a center device (not shown) via information transmission means such as a telephone line or the Internet. The center device is a host computer installed in a center or the like that monitors a detection target in an image.

以下、物体検出装置1における処理について、図1の機能ブロック図並びに図6のフローチャートを参照しつつ説明する。   Hereinafter, the processing in the object detection apparatus 1 will be described with reference to the functional block diagram of FIG. 1 and the flowchart of FIG.

ステップS10では、画像取得部2において画像を取得し、信号処理部3に画像が送信される。画像の取得タイミングは決まった時間間隔とする。   In step S <b> 10, an image is acquired by the image acquisition unit 2, and the image is transmitted to the signal processing unit 3. The image acquisition timing is a fixed time interval.

ステップS20では、検出窓領域の大きさ(幅と高さ)を決定する。検出窓領域の大きさを予め設定した複数の大きさに順次変更しつつ、各大きさの検出窓領域で画像全体を走査する。また、本実施の形態では検出窓領域は矩形としたので大きさとして幅と高さのみを決定すればよいが、検出窓領域は任意の形状であってよく、その場合には形状と大きさを決定する。この処理は検出窓領域選択手段30にて行われる。   In step S20, the size (width and height) of the detection window region is determined. The entire image is scanned with each size of the detection window region while sequentially changing the size of the detection window region to a plurality of preset sizes. In this embodiment, since the detection window region is rectangular, it is only necessary to determine the width and height as the size. However, the detection window region may have an arbitrary shape, and in that case, the shape and size are determined. To decide. This processing is performed by the detection window region selecting means 30.

ステップS30からステップS50の処理は、ステップS20で設定した検出窓領域の大きさで画像全体を走査し終わるまで繰り返す。   The processing from step S30 to step S50 is repeated until the entire image has been scanned with the size of the detection window region set in step S20.

ステップS30では、検出窓領域の位置を決定する。この処理は検出窓制御手段32で行う。この処理は、図7に示すフローチャートに沿って行われる。なお、検出窓領域の左上の座標を開始点と呼び、決定すべき検出窓領域の開始点を(SX,SY)、前回の検出窓領域の開始点を(BX,BY)とする。   In step S30, the position of the detection window area is determined. This process is performed by the detection window control means 32. This process is performed according to the flowchart shown in FIG. The upper left coordinate of the detection window area is called a start point, the start point of the detection window area to be determined is (SX, SY), and the previous start point of the detection window area is (BX, BY).

ステップS301では、検出窓領域の大きさが変更されたか否かの判定を行う。検出窓領域の大きさが変更された直後の場合は、ステップS305において検出窓領域の開始点(SX,SY)を(0,0)に設定してステップS40に移行する。検出窓領域の大きさ変更後、初めての処理でない場合にはステップS302へ移行する。   In step S301, it is determined whether or not the size of the detection window area has been changed. If the size of the detection window area has just been changed, the start point (SX, SY) of the detection window area is set to (0, 0) in step S305, and the process proceeds to step S40. If it is not the first process after the size of the detection window area is changed, the process proceeds to step S302.

ステップS302では、前回の検出窓領域の開始点(BX,BY)を読み出す。ステップS303では、ステップS302で読み出した前回の検出窓領域の開始点(BX,BY)から画像の右端まで走査したか否かを判定する。前記の検出窓領域で画像の右端まで走査が終了した場合、すなわち検出窓領域の右端BX+W(但し、Wは検出窓領域の幅)が画像の右端に一致した場合にはステップS306において検出窓領域の開始点を(SX,SY)=(0,BY+q)と設定し、ステップS40へ移行する。ただし、qは予め定めた定数とする。例えば、入力画像が幅320ピクセル、高さ240ピクセルの場合にはq=4ピクセルに設定する。右端まで走査していない場合にはステップS304に移行する。   In step S302, the start point (BX, BY) of the previous detection window area is read. In step S303, it is determined whether scanning has been performed from the start point (BX, BY) of the previous detection window area read in step S302 to the right end of the image. When scanning to the right edge of the image is completed in the detection window area, that is, when the right edge BX + W (W is the width of the detection window area) of the detection window area coincides with the right edge of the image, the detection window area in step S306 Is set to (SX, SY) = (0, BY + q), and the process proceeds to step S40. However, q is a predetermined constant. For example, when the input image has a width of 320 pixels and a height of 240 pixels, q = 4 pixels is set. If not scanned to the right end, the process proceeds to step S304.

ステップS304では、X方向に検出窓領域をpピクセルずらし、Y方向にはずらさないように検出窓領域の開始点を(SX,SY)を決定する。すなわち、検出窓領域の開始点(SX,SY)=(BX+p,BY)とする。ただし、pは予め定めた定数とする。例えば、入力画像が幅320ピクセル、高さ240ピクセルの場合にはp=4ピクセルに設定する。その後、ステップS40に移行する。   In step S304, the detection window area is shifted by p pixels in the X direction, and (SX, SY) is determined as the start point of the detection window area so as not to be shifted in the Y direction. That is, the detection window region start point (SX, SY) = (BX + p, BY). However, p is a predetermined constant. For example, when the input image has a width of 320 pixels and a height of 240 pixels, p = 4 pixels is set. Thereafter, the process proceeds to step S40.

ステップS40では、ステップS30にて設定された検出窓領域内の画像がどれだけ人に似ているかを示す類似度を求める。これは、図3に示したカスケード型識別器320及び学習識別器330の識別処理である。識別処理について図8のフローチャートを用いて説明する。   In step S40, a similarity indicating how much the image in the detection window region set in step S30 resembles a person is obtained. This is the discrimination processing of the cascade type discriminator 320 and the learning discriminator 330 shown in FIG. The identification process will be described with reference to the flowchart of FIG.

ステップS401では、現在の検出窓領域からHOG特徴量を計算する。ただし、この処理はステップS10とステップS20との間で、入力画像の各ピクセルのエッジの強度と角度を計算し、エッジの角度毎のインテグラル画像を作成しておくことでより高速に計算することが可能になる。   In step S401, the HOG feature amount is calculated from the current detection window region. However, this process is faster between steps S10 and S20 by calculating the edge strength and angle of each pixel of the input image and creating an integral image for each edge angle. It becomes possible.

ステップS402では、すべての強識別器を調査し終わったか否かの判定を行う。すべての強識別器で調査し終わった場合はステップS406に移行し、終わっていない場合にはステップS403に移行し、次の強識別器での調査を行う。ステップS403では、検出窓領域内の画像が人に似ているか否かを判定するための類似度を計算する。   In step S402, it is determined whether or not all strong classifiers have been investigated. If all the strong classifiers have been investigated, the process proceeds to step S406. If not, the process proceeds to step S403, and the next strong classifier is investigated. In step S403, the similarity for determining whether the image in the detection window area is similar to a person is calculated.

ステップS404では、ステップS403において計算した類似度を判定した強識別器の番号と共に一時的な記憶領域に記憶する。これはステップS407における学習識別器330での類似度計算やステップS50の更新処理にて用いられる。   In step S404, the similarity calculated in step S403 is stored in the temporary storage area together with the number of the strong classifier that has been determined. This is used in similarity calculation in the learning discriminator 330 in step S407 and update processing in step S50.

ステップS405では、ステップS403において計算した類似度が予め設定した閾値より大きいか否かを判定する。閾値より大きい場合にはステップS402に移行し、閾値以下の場合には後述する学習識別器330の類似度をステップS501の閾値以下の値として記憶させ、ステップS50に移行する。   In step S405, it is determined whether the similarity calculated in step S403 is greater than a preset threshold value. If it is greater than the threshold value, the process proceeds to step S402. If it is less than the threshold value, the similarity of a learning discriminator 330 described later is stored as a value equal to or less than the threshold value in step S501, and the process proceeds to step S50.

ステップS406からS409が学習識別器330の処理である。ステップS406では、カスケード型識別器320の判定段数までの強識別器の類似度ヒストグラム42の中で、更新回数が基準値以上である緩慢変動用識別器及び急変動用識別器における「人以外」の類似度ヒストグラム42を抽出する。これは、更新回数が少ない類似度ヒストグラム42を使用すると、学習識別器330で算出される類似度の信頼性が低くなるためである。そこで、基準値以上更新されている類似度ヒストグラム42と、それに対応するステップS404で記憶された強識別器の類似度を用いて学習識別器330での類似度を算出する。   Steps S406 to S409 are processing of the learning discriminator 330. In step S406, “non-human” in the slowly varying classifier and the suddenly varying classifier whose number of updates is equal to or higher than the reference value in the similarity histogram 42 of the strong classifiers up to the number of determination stages of the cascade classifier 320. The similarity histogram 42 is extracted. This is because if the similarity histogram 42 with a small number of updates is used, the reliability of the similarity calculated by the learning discriminator 330 becomes low. Therefore, the similarity in the learning discriminator 330 is calculated using the similarity histogram 42 updated more than the reference value and the corresponding similarity of the strong discriminator stored in step S404.

ステップS407では、緩慢変動用識別器にて類似度を計算する。類似度ヒストグラム42から「人」の類似度ヒストグラムと緩慢変動用識別器の「人以外」の類似度ヒストグラムを読み出し、数式(1)のP(人|S)を用いて類似度を算出する。   In step S407, the similarity is calculated by the slow fluctuation discriminator. The similarity histogram of “person” and the similarity histogram of “non-person” of the slow fluctuation discriminator are read from the similarity histogram 42, and the similarity is calculated using P (person | S) in the equation (1).

ステップS408では、急変動用識別器にて類似度を計算する。類似度ヒストグラム42から「人」の類似度ヒストグラムと急変動用識別器の「人以外」の類似度ヒストグラムを読み出し、数式(1)のP(人|S)を用いて類似度を算出する。   In step S408, the similarity is calculated by the sudden change discriminator. The similarity histogram of “person” and the similarity histogram of “non-person” of the sudden change discriminator are read out from the similarity histogram 42, and the similarity is calculated using P (person | S) in the equation (1).

ステップS409では、ステップS407及びS408において緩慢変動用識別器及び急変動用識別器で算出された類似度を検出窓領域の大きさ(幅と高さ)と中心座標とに関連付けて判定情報履歴40として記憶部4に記憶し、ステップS50へ移行する。   In step S409, the determination information history 40 is obtained by associating the similarity calculated by the slow fluctuation discriminator and the sudden fluctuation discriminator in steps S407 and S408 with the size (width and height) of the detection window region and the center coordinates. Is stored in the storage unit 4 and the process proceeds to step S50.

ステップS50では、類似度ヒストグラムの更新処理を行う。これは識別器更新手段37にてなされる。更新処理は、図9のフローチャートに沿って行われる。本実施の形態では、「人以外」の類似度ヒストグラム42を更新し、「人」の類似度ヒストグラム42は更新しない。   In step S50, similarity histogram update processing is performed. This is done by the discriminator update means 37. The update process is performed according to the flowchart of FIG. In the present embodiment, the similarity histogram 42 of “non-person” is updated, and the similarity histogram 42 of “person” is not updated.

ステップS501では、ステップS407において緩慢変動用識別器で算出された類似度が閾値より大きく、ステップS408において急変動用識別器で算出された算出された類似度が閾値より大きい条件を両方満たす場合は「人」である可能性が高いので類似度ヒストグラム42の更新処理は行わず、ステップS60へ移行する。緩慢変動用識別器に対する閾値と急変動用識別器に対する閾値とは同じであってもよいし、異なっていてもよい。   In step S501, when the similarity calculated by the slow change discriminator in step S407 is larger than the threshold, and the calculated similarity calculated by the sudden change discriminator in step S408 satisfies both conditions larger than the threshold. Since there is a high possibility of being a “person”, the similarity histogram 42 is not updated, and the process proceeds to step S60. The threshold value for the slowly varying classifier and the threshold value for the suddenly varying classifier may be the same or different.

ステップS502では、カスケード型識別器320に含まれる各強識別器に対応する「人以外」の類似度ヒストグラム42を図8のステップS404にて記憶した類似度にて更新する。したがって、今回の判定に使用した強識別器に対応する「人以外」の類似度ヒストグラム42だけ更新する。ここでは、緩慢変動用識別器についての「人以外」の類似度ヒストグラム42及び急変動用識別器についての「人以外」の類似度ヒストグラム42の両方を更新する。更新方法は、識別器更新手段332の説明の通りである。更新処理後、ステップS60へ移行する。   In step S502, the “non-human” similarity histogram 42 corresponding to each strong classifier included in the cascade classifier 320 is updated with the similarity stored in step S404 of FIG. Therefore, only the “non-human” similarity histogram 42 corresponding to the strong classifier used for the current determination is updated. Here, both the “non-human” similarity histogram 42 for the slow fluctuation classifier and the “non-human” similarity histogram 42 for the rapid fluctuation classifier are updated. The update method is as described for the discriminator update means 332. After the update process, the process proceeds to step S60.

ステップS60では、すべての大きさの検出窓領域について検出処理が終了したか否かを判定する。すべての大きさの検出窓領域について調査が終わった場合はステップS70に処理を移行させ、そうでない場合はステップS20に処理を戻す。   In step S60, it is determined whether or not the detection process has been completed for detection window regions of all sizes. If the inspection is completed for all detection window regions, the process proceeds to step S70, and if not, the process returns to step S20.

ステップS70では、ステップS50で求めた判定情報履歴40に記憶されている各検出窓領域の大きさ(幅と高さ)と中心座標及び学習識別器330の類似度から最終的に人が写っている位置を決定する。この処理は判定手段38でなされる。判定処理は、図10のフローチャートに沿って行われる。   In step S70, a person is finally captured from the size (width and height) of each detection window region stored in the determination information history 40 obtained in step S50, the center coordinates, and the similarity of the learning discriminator 330. Determine the position. This processing is performed by the determination means 38. The determination process is performed according to the flowchart of FIG.

ステップS701〜S702の処理はステップS50で求めた判定情報履歴40として記憶されているすべての検出窓領域について行う。ステップS701では、緩慢変動用識別器で算出された類似度が閾値(例えば、0.8)より大きく、急変動用識別器で算出された算出された類似度が閾値(例えば、0.8)より大きい条件を両方満たすか否かを判定し、条件を満たす場合にはステップS702に移行し、そうでない場合には次の検出窓領域について判定を行う。ステップS702では、ステップS701で条件を満たした検出窓領域を人候補領域に追加する。   The processing of steps S701 to S702 is performed for all detection window regions stored as the determination information history 40 obtained in step S50. In step S701, the similarity calculated by the slow fluctuation discriminator is larger than a threshold (for example, 0.8), and the calculated similarity calculated by the sudden fluctuation discriminator is the threshold (for example, 0.8). It is determined whether or not both larger conditions are satisfied. If the conditions are satisfied, the process proceeds to step S702. If not, the next detection window region is determined. In step S702, the detection window area that satisfies the condition in step S701 is added to the human candidate area.

判定情報履歴40に記憶された情報に対してステップS701〜S702を繰り返すことで求められた人候補領域は、図2に示すように、人が写っている領域の近くに領域203,204のように複数抽出される場合がある。ステップS703〜S705では、複数の人候補領域から人領域を最終的に選択する。   As shown in FIG. 2, candidate candidate areas obtained by repeating steps S701 to S702 on the information stored in the determination information history 40 are areas 203 and 204 near the area where the person is shown. May be extracted multiple times. In steps S703 to S705, a human region is finally selected from a plurality of human candidate regions.

ステップS703では、人候補領域として抽出された検出窓領域の大きさと中心座標を用いて、一定以上(例えば、検出窓領域の面積の半分以上)の領域が重なっている人候補領域をグループとして纏める。ステップS704では、ステップS703で作成されたグループ毎に人候補領域の中で学習識別器330の類似度が一番高い検出窓領域を人領域として選択する。ステップS705では、ステップS704で選択された検出窓領域を人領域とし、ステップS80に移行する。   In step S703, using the size and center coordinates of the detection window area extracted as the human candidate area, the human candidate areas that overlap a certain area (for example, more than half the area of the detection window area) are grouped together. . In step S704, the detection window region having the highest similarity of the learning discriminator 330 is selected as a human region among the human candidate regions for each group created in step S703. In step S705, the detection window area selected in step S704 is set as a human area, and the process proceeds to step S80.

ステップS80では、ステップS70において判定された人領域を基に、人領域が1つでもあれば、判定された人領域の検知窓情報を画像と共に異常信号として出力する。この処理は出力部5にてなされる。
[初期設定時の処理]
監視カメラ設置時の初期設定の処理について以下に説明する。初期設定時には、監視カメラの撮像領域内に人がいないという仮定のもと、各強識別器に対応する「人以外」の類似度ヒストグラム42の登録を行う。初期設定処理は、監視カメラを設置してから予め定めた枚数の画像を処理して終了するものとする。
In step S80, if there is at least one human area based on the human area determined in step S70, the detection window information of the determined human area is output as an abnormal signal together with the image. This processing is performed by the output unit 5.
[Initial settings]
The initial setting process when the surveillance camera is installed will be described below. At the time of initial setting, the similarity histogram 42 of “non-human” corresponding to each strong classifier is registered under the assumption that there is no person in the imaging area of the surveillance camera. It is assumed that the initial setting process is completed after a predetermined number of images are processed after the monitoring camera is installed.

初期設定処理は、図6の検知処理時のフローチャートにおけるステップS70及びS80を除き、ステップS40及びS50を若干変更した処理となる。また、ステップS40及びS50の処理は相違点のみを説明する。   The initial setting process is a process in which steps S40 and S50 are slightly changed except for steps S70 and S80 in the flowchart of the detection process of FIG. Further, only differences between the processes of steps S40 and S50 will be described.

ステップS40では、図8においてステップS401からS405までの処理を行い、ステップS402ですべての強識別器で調査し終わっていた場合(ステップS402のYES)はステップS406〜S409の処理を行わず、ステップS50へ移行する。すなわち、ステップS406〜S409の学習識別器による処理を省略している点が相違している。   In step S40, the processing from step S401 to S405 in FIG. 8 is performed, and if the investigation has been completed for all strong classifiers in step S402 (YES in step S402), the processing in steps S406 to S409 is not performed. The process proceeds to S50. That is, it is different in that the processing by the learning discriminator in steps S406 to S409 is omitted.

ステップS50では、初期設定処理では人は監視空間にいないという仮定なので、ステップS501の判定処理を行わない。ステップS502では、ステップS40で得られた判定段数までの強識別器の類似度を用いて、対応する強識別器の緩慢変動用識別器及び急変動用識別器の「人以外」の類似度ヒストグラム42の両方を更新し、その後、ステップS60へ移行する。   In step S50, since it is assumed that no person is in the monitoring space in the initial setting process, the determination process in step S501 is not performed. In step S502, using the similarity of the strong classifiers up to the number of determination stages obtained in step S40, the similarity histogram of “non-human” of the classifier for slow fluctuation and the classifier for sudden fluctuation of the corresponding strong classifier. 42 is updated, and then the process proceeds to step S60.

また、画像を取得する毎に「人以外」の類似度ヒストグラム42を逐次更新せず、所定の枚数の画像に対するカスケード型識別器320で算出された類似度を記憶しておき、一括して類似度ヒストグラム42を作成するものとしてもよい。   In addition, the similarity histogram 42 of “non-human” is not sequentially updated every time an image is acquired, but the similarity calculated by the cascade discriminator 320 for a predetermined number of images is stored, and similarities are collectively obtained. The degree histogram 42 may be created.

<第2の実施の形態>
第2の実施の形態における物体検出装置は固定識別器と学習識別器との判定を並列に行い、それぞれの判定結果を統合する。第2の実施の形態では、第1の実施の形態における固定識別器34、学習識別器36、識別器更新手段37及び判定手段38での処理が異なるのでこれらについて説明する。また、記憶部4において、第1の実施の形態では、類似度ヒストグラム42を記憶しているが、第2の実施の形態では学習識別器用特徴量分布42として説明する。
<Second Embodiment>
The object detection apparatus according to the second embodiment performs the determination of the fixed classifier and the learning classifier in parallel, and integrates the respective determination results. In the second embodiment, processing in the fixed discriminator 34, the learning discriminator 36, the discriminator update unit 37, and the determination unit 38 in the first embodiment is different and will be described. In the storage unit 4, the similarity histogram 42 is stored in the first embodiment, but in the second embodiment, it will be described as the learning discriminator feature amount distribution 42.

固定識別器34は、検出窓領域内の画像がどれだけ人に似ているかを示す類似度を求める。これは第1の実施の形態と同じ処理である。図1に記載している固定識別器34、学習識別器36及び識別器更新手段37の具体例を図11ではカスケード型識別器620、学習識別器632及び識別器更新手段636としてそれぞれ示す。   The fixed discriminator 34 obtains a similarity indicating how much the image in the detection window area resembles a person. This is the same processing as in the first embodiment. Specific examples of the fixed classifier 34, the learning classifier 36, and the classifier update means 37 shown in FIG. 1 are shown as a cascade type classifier 620, a learning classifier 632, and a classifier update means 636, respectively.

図11のカスケード型識別器620は、複数の強識別器621〜623から構成され、検出窓領域として切り出された画像を入力とし、類似度を計算する。最先の強識別器621以外の強識別器622,623等は、前段で計算された類似度が閾値より大きい場合のみ(図中Tの矢印)、類似度を計算する。閾値は、例えば0に設定し、強識別器621〜623で求めた類似度が0より大きければ人に似ており、0以下であれば人に似ていないと判定する。そして、最終段の強識別器323において求めた類似度が閾値より大きい場合(図中Tの矢印)、又は、各強識別器で求めた類似度が閾値以下の場合(図中Fの矢印)に、判定情報履歴手段630にカスケード型識別器620の判定段数と類似度を出力する。判定情報履歴手段630は、出力された判定段数及び類似度を検出窓領域の大きさ及び中心座標に関連付けて判定情報履歴40して記憶部4に記憶させる。   The cascade type discriminator 620 in FIG. 11 includes a plurality of strong discriminators 621 to 623, and uses an image cut out as a detection window region as an input to calculate the similarity. Strong discriminators 622, 623, etc. other than the strongest discriminator 621 calculate the similarity only when the similarity calculated in the previous stage is larger than the threshold (arrow T in the figure). For example, the threshold is set to 0, and if the similarity obtained by the strong classifiers 621 to 623 is greater than 0, it is similar to a person, and if it is 0 or less, it is determined not to be similar to a person. When the similarity obtained by the strong classifier 323 at the final stage is larger than the threshold (arrow T in the figure), or when the similarity obtained by each strong classifier is less than or equal to the threshold (arrow F in the figure). In addition, the determination stage number and similarity of the cascade discriminator 620 are output to the determination information history unit 630. The determination information history unit 630 associates the output determination step number and similarity with the size and center coordinates of the detection window region and stores the determination information history 40 in the storage unit 4.

学習識別器632は、第1の実施の形態と異なり、画像を受けて人か否かを判定する。学習識別器632は、入力される検出窓領域の画像からエッジに関する特徴量を抽出する。まず、検出窓領域の画像からエッジ画像を作成する。エッジ画像は、予め監視画像全体について求めておいてもよい。例えば、図12に示すように、検出窓領域を横2分割、縦4分割の計8つの矩形領域に分割し、各領域についてエッジの方向に関するヒストグラムを作成する。例えば、エッジの方向を9方向に設定し、各領域におけるエッジの方向毎にエッジの強度で重み付けしたヒストグラム702を作成する。なお、互いに180度反転しているエッジは同一方向とみなすので、ヒストグラム702が採り得る方向は0度〜180度となり、9方向に割り当てると20度刻みとなる。   Unlike the first embodiment, the learning discriminator 632 receives an image and determines whether it is a person. The learning discriminator 632 extracts a feature amount related to the edge from the input image of the detection window region. First, an edge image is created from the image of the detection window area. The edge image may be obtained for the entire monitoring image in advance. For example, as shown in FIG. 12, the detection window area is divided into a total of eight rectangular areas divided into two horizontal parts and four vertical parts, and a histogram relating to the edge direction is created for each area. For example, the edge direction is set to nine directions, and a histogram 702 in which the edge strength is weighted for each edge direction in each region is created. Note that since the edges that are inverted by 180 degrees are regarded as the same direction, the directions that the histogram 702 can take are 0 to 180 degrees, and when assigned to 9 directions, the increments are 20 degrees.

このように、各領域においてヒストグラム702を作成する。ヒストグラム702のビンは9方向×8領域で72次元のベクトルを構成する。最後に72次元ベクトルのノルムが1になるように正規化する。このように作成したベクトルを検出窓領域の特徴量Xとして用いる。   Thus, the histogram 702 is created in each region. The bins of the histogram 702 form a 72-dimensional vector with 9 directions × 8 regions. Finally, normalization is performed so that the norm of the 72-dimensional vector is 1. The vector created in this way is used as the feature amount X of the detection window region.

学習識別器632は、特徴量Xに基づいて検出窓領域が「人」を含むか、「人以外」であるかを判定する。得られた特徴量Xから人か否かを判定するには、特徴量Xが得られたときの「人」である確率P(人|X)、特徴量Xが得られたときの「人以外」である確率P(人以外|X)を計算し、P(人|X)>P(人以外|X)なら「人」と判定し、そうでなければ「人以外」と判定する。   The learning discriminator 632 determines whether the detection window area includes “person” or “other than person” based on the feature amount X. In order to determine whether or not a person is a person from the obtained feature quantity X, the probability P (person | X) that is “person” when the feature quantity X is obtained, and the “person” when the feature quantity X is obtained. The probability P (non-human | X) that is “non-human” is calculated, and if P (person | X)> P (non-human | X), it is determined as “human”, otherwise it is determined as “non-human”.

P(人|X)とP(人以外|X)の計算はベイズの定理より数式(5),(6)で求めることができる。

Figure 0005137863
The calculation of P (person | X) and P (non-person | X) can be obtained by the formulas (5) and (6) from Bayes' theorem.
Figure 0005137863

ここで、P(X|人)は、「人」の場合の特徴量Xが得られる確率(尤度)、P(X|人以外)は「人以外」の場合の特徴量Xが得られる確率(尤度)である。P(人)は「人」がどのくらいの確率で検出窓領域に含まれるかを表した事前確率、同様にP(人以外)は検出窓領域に「人以外」がどのくらいの確率で含まれているかを表した事前確率である。事前に検出窓領域に「人」が含まれる確率はわからないため、事前確率P(人)=P(人以外)=0.5と仮定する。P(人以外|X)=1−P(人|X)という関係があるので、P(人|X)を求めれば、P(人以外|X)は容易に求められる。以下では、P(人|X)を学習識別器632での類似度という。   Here, P (X | person) is the probability (likelihood) that the feature quantity X is obtained for “person”, and P (X | other) is the feature quantity X for “non-person”. Probability (likelihood). P (person) is a prior probability that indicates the probability of “person” being included in the detection window area, and similarly P (other than person) is included in the detection window area with a probability of “non-person”. It is a prior probability that represents whether or not. Since the probability that “person” is included in the detection window region is not known in advance, it is assumed that the prior probability P (person) = P (other than person) = 0.5. Since P (non-person | X) = 1−P (person | X), if P (person | X) is obtained, P (non-person | X) can be easily obtained. Hereinafter, P (person | X) is referred to as the similarity in the learning discriminator 632.

本実施の形態では、P(X|人)とP(X|人以外)の分布を混合正規分布で表現する。「人」の特徴量分布P(X|人)は、予め用意された「人」の学習データから特徴量を計算し、混合正規分布のパラメータをEM(Expectation−Maximization)アルゴリズム(A.P. Dempster, N.M.Laird, and D.B. Rubin. "Maximum likelihood from incomplete data via the EM algorithm", Journal of the Royal Statistical Society, Series B, 39(1),1-38,1977)を用いて作成する。「人以外」の特徴量分布P(X|人以外)は、監視カメラの設置時に「人」がいないという仮定のもと撮像した複数の画像から特徴量を算出し、EMアルゴリズムによって混合正規分布のパラメータを求める。   In the present embodiment, the distribution of P (X | people) and P (X | people) is expressed as a mixed normal distribution. The feature quantity distribution P (X | person) of “person” calculates the feature quantity from prepared learning data of “person”, and uses the EM (Expectation-Maximization) algorithm (AP Dempster, NM) Laird, and DB Rubin. “Maximum likelihood from incomplete data via the EM algorithm”, Journal of the Royal Statistical Society, Series B, 39 (1), 1-38, 1977). The feature quantity distribution P (X | non-person) of “non-human” calculates the feature quantity from a plurality of images taken on the assumption that there is no “person” at the time of installation of the surveillance camera, and the mixed normal distribution by the EM algorithm Determine the parameters.

図11の学習識別器632で類似度を求めた後、学習類似度管理手段634にて検出窓領域の大きさ(幅、高さ)と中心座標及び学習識別器632で求められた類似度を関連付けて判定情報履歴40として記憶部4に記憶させる。   After the similarity is obtained by the learning discriminator 632 in FIG. 11, the size (width, height) of the detection window region and the center coordinates and the similarity obtained by the learning discriminator 632 are obtained by the learning similarity management unit 634. The determination information history 40 is associated and stored in the storage unit 4.

次に、カスケード型識別器620の類似度と判定段数及び学習識別器632の類似度の結果から識別器更新手段636にて学習識別器632の更新を行う。本実施の形態では、識別器更新手段636は、カスケード型識別器620の判定段数と類似度及び学習識別器632の類似度に基づいて「人以外」である可能性が高いときのみ、「人以外」の特徴量分布P(X|人以外)を更新する。ただし、「人」の可能性が高いときのみ、「人」の特徴量分布P(X|人)を更新してもよい。   Next, the discriminator update unit 636 updates the learning discriminator 632 based on the similarity of the cascade discriminator 620, the number of determination stages, and the result of the similarity of the learning discriminator 632. In the present embodiment, the discriminator update unit 636 only selects “person” based on the number of determination stages and the similarity of the cascade discriminator 620 and the similarity of the learning discriminator 632. "Non-other" feature quantity distribution P (X | other than people) is updated. However, the feature amount distribution P (X | person) of “person” may be updated only when the possibility of “person” is high.

「人以外」の特徴量分布P(X|人以外)は混合正規分布でモデル化されており、「人以外」と判定されたデータが1つ得られる度に特徴量分布P(X|人以外)を逐次型EMアルゴリズム(Radford Neal, R.M. and G.E. Hinton(1998) "A new view of the EM algorithm that justifies incremental, sparse and other variants", Learning in Graphical Models, pp.355-368. Kluwer Academic Publishers)を用いて更新を行う。   The “non-human” feature quantity distribution P (X | non-human) is modeled as a mixed normal distribution, and the feature quantity distribution P (X | human) is obtained each time one piece of data determined as “non-human” is obtained. Radford Neal, RM and GE Hinton (1998) "A new view of the EM algorithm that justifies incremental, sparse and other variants", Learning in Graphical Models, pp.355-368. Kluwer Academic Publishers ) To update.

なお、本実施の形態では、学習識別器632は緩慢変動用識別器及び急変動用識別器を含んでおり、それぞれについて「人以外」の特徴量分布P(X|人以外)が設定される。緩慢変動用識別器と急変動用識別器についてそれぞれに対応する「人以外」の学習識別器用特徴量分布42を使用する。ここで、緩慢変動用識別器における「人以外」の特徴量分布P(X|人以外)の更新間隔は、急変動用識別器における「人以外」の特徴量分布P(X|人以外)の更新間隔より長く設定する。緩慢変動用識別器では更新間隔が急変動用識別器より長いので「人以外」の特徴量分布P(X|人以外)において過去の更新内容の影響が急変動用識別器よりも長く残り、長時間に亘ってゆっくりと変動する環境の変化に対応することができる。一方、急変動用識別器では更新間隔が緩慢変動用識別器より短いので「人以外」の特徴量分布P(X|人以外)において緩慢変動用識別器より短い時間で過去の更新内容の影響が小さくなり、短時間で急激に変動する環境の変化に対応することができる。   In the present embodiment, the learning discriminator 632 includes a slow fluctuation discriminator and a sudden fluctuation discriminator, and a feature amount distribution P (X | non human) is set for each of them. . For the discriminator for slow fluctuation and the discriminator for sudden fluctuation, the feature quantity distribution 42 for learning discriminators other than “person” is used. Here, the update interval of the “non-human” feature quantity distribution P (X | non-person) in the slow fluctuation classifier is the “non-human” feature quantity distribution P (X | non-person) in the sudden change classifier. Set longer than the update interval. The slow fluctuation discriminator has a longer update interval than the sudden fluctuation discriminator, so that the influence of past update contents remains longer than the sudden fluctuation discriminator in the feature distribution P (X | non human) of “non-human”. It is possible to cope with environmental changes that slowly change over a long period of time. On the other hand, the update interval of the sudden change classifier is shorter than that of the slow change discriminator. Therefore, the influence of the past update contents in the feature amount distribution P (X | non person) of “non-human” in a shorter time than the slow change discriminator. It is possible to cope with environmental changes that fluctuate rapidly in a short time.

判定手段38は、判定情報履歴40として記憶されている検出窓領域の大きさ(幅、高さ)と中心座標、カスケード型識別器620の判定段数と類似度及び学習識別器632の類似度を用いて、最終的に画像内のどこに人が写っているかを決定する。   The determination unit 38 determines the size (width, height) and center coordinates of the detection window region stored as the determination information history 40, the number of determination stages and the similarity of the cascade type classifier 620, and the similarity of the learning classifier 632. To finally determine where the person is in the image.

判定情報履歴40に含まれるデータの中で、カスケード型識別器620の判定段数が最終段であり、類似度が閾値(例えば、0に設定)より大きく、学習識別器632の緩慢変動用識別器で算出された類似度が閾値(例えば、0.8に設定)以上、学習識別器632の急変動用識別器で算出された類似度が閾値(例えば、0.8に設定)以上の総ての条件を満たす検出窓領域を人候補領域として抽出する。人候補領域がない場合は入力画像中に人領域はないということで終了する。   Among the data included in the determination information history 40, the number of determination stages of the cascade type discriminator 620 is the final stage, the similarity is larger than a threshold (for example, set to 0), and the discriminator for slow fluctuations of the learning discriminator 632 All of the similarity calculated in step S is equal to or greater than a threshold (for example, set to 0.8), and the similarity calculated by the rapid change classifier of the learning classifier 632 is equal to or greater than the threshold (for example, set to 0.8). The detection window area satisfying the above condition is extracted as a human candidate area. If there is no human candidate area, the process ends because there is no human area in the input image.

人候補領域があった場合、検出窓領域の大きさと中心座標を用いて、一定以上(例えば、検出窓領域の面積の半分以上)の領域が重なっている人候補領域を纏める。纏めた人候補領域の中でカスケード型識別器620で算出された類似度が一番高い検出窓領域を人領域として選択する。纏めた領域毎に選択された検出窓領域を人領域とし、出力部5に選択された検出窓領域の情報を出力する。なお、人領域としての選択は、カスケード型識別器620の類似度を用いることなく、学習識別器632の類似度を用いてもよい。   When there is a human candidate area, the human candidate areas that overlap a certain area (for example, more than half of the area of the detection window area) are collected using the size and center coordinates of the detection window area. A detection window region having the highest similarity calculated by the cascade discriminator 620 is selected as a human region among the grouped human candidate regions. The detection window area selected for each collected area is set as a human area, and information on the detection window area selected is output to the output unit 5. The selection as a human region may use the similarity of the learning discriminator 632 without using the similarity of the cascade discriminator 620.

記憶部4は、ROMやRAM等のメモリ装置で構成される。記憶部4は、信号処理部3からアクセス可能に接続される。記憶部4は、各種プログラム、各種データを記憶することができ、信号処理部3からの要求に応じてこれらの情報を読み書きする。記憶部4は、学習類似度管理手段634として機能し、判定情報履歴40及び学習識別器用特徴量分布42を記憶する。判定情報履歴40は、検出窓領域の大きさ(幅、高さ)と中心座標、カスケード型識別器620の判定段数と類似度、及び学習識別器632の類似度(緩慢変動用識別器で算出された類似度及び急変動用識別器で算出された類似度)の情報を関連付けて記憶したものである。学習識別器用特徴量分布42は、人の特徴量分布P(X|人)と人以外の特徴量分布P(X|人以外)である。具体的には、「人」との混合正規分布に関するパラメータ、すなわち各正規分布の混合比、平均値、共分散行列が記憶されている。また、「人以外」の混合正規分布に関するパラメータとしては、緩慢変動用識別器の混合正規分布の混合比、平均値、共分散行列及び急変動用識別器の混合正規分布の混合比、平均値、共分散行列が記憶されている。かかる学習識別器用特徴量分布42が辞書データに相当し、緩慢変動用識別器の学習識別器用特徴量分布が第1の辞書データ、急変動用識別器の学習識別器用特徴量分布が第2の辞書データにそれぞれ相当する。   The storage unit 4 is configured by a memory device such as a ROM or a RAM. The storage unit 4 is connected so as to be accessible from the signal processing unit 3. The storage unit 4 can store various programs and various data, and reads and writes these pieces of information in response to requests from the signal processing unit 3. The storage unit 4 functions as the learning similarity management unit 634 and stores the determination information history 40 and the learning discriminator feature amount distribution 42. The determination information history 40 includes the size (width, height) and center coordinates of the detection window region, the number of determination stages and the similarity of the cascade type discriminator 620, and the similarity of the learning discriminator 632 (calculated by the discriminator for slow fluctuation). Information of similarity and the similarity calculated by the sudden change classifier) are stored in association with each other. The learning identifier feature quantity distribution 42 is a human feature quantity distribution P (X | person) and a non-person feature quantity distribution P (X | other person). Specifically, parameters relating to the mixed normal distribution with “people”, that is, the mixing ratio, average value, and covariance matrix of each normal distribution are stored. In addition, as parameters related to the mixed normal distribution of “non-human”, the mixing ratio, average value, covariance matrix of the classifier for slow fluctuation, and the mixing ratio, average value of the mixture normal distribution of the classifier for sudden fluctuation A covariance matrix is stored. The learning discriminator feature quantity distribution 42 corresponds to the dictionary data, the slow discriminating classifier feature quantity distribution is the first dictionary data, and the sudden fluctuation discriminator feature quantity distribution is the second. It corresponds to each dictionary data.

以下、本実施の形態における処理について説明する。本実施の形態における処理は、図6のフローチャートに示す処理とほぼ同じであるので、相違するステップS40,S50,S70のみについて説明する。   Hereinafter, the process in this Embodiment is demonstrated. Since the processing in the present embodiment is almost the same as the processing shown in the flowchart of FIG. 6, only different steps S40, S50, and S70 will be described.

ステップS40にて、ステップS30で設定された検出窓領域内の画像がどれだけ人に似ているかを示す類似度を求める。これは、図11に示したカスケード型識別器620及び学習識別器632における処理であり、図13のフローチャートを用いて説明する。ステップS451からS455がカスケード型識別器620における処理であり、ステップS456からS459が学習識別器632における処理である。   In step S40, a similarity indicating how much the image in the detection window area set in step S30 resembles a person is obtained. This is processing in the cascade discriminator 620 and learning discriminator 632 shown in FIG. 11, and will be described with reference to the flowchart of FIG. Steps S451 to S455 are processing in the cascade discriminator 620, and steps S456 to S459 are processing in the learning discriminator 632.

ステップS451では、現在の検出窓領域からHOG特徴量を抽出する。ただし、この処理はステップS10とステップS20との間で、入力画像の各ピクセルのエッジの強度と角度を計算し、エッジの角度毎のインテグラル画像を作成しておくことでより高速に計算することが可能になる。   In step S451, the HOG feature amount is extracted from the current detection window region. However, this process is faster between steps S10 and S20 by calculating the edge strength and angle of each pixel of the input image and creating an integral image for each edge angle. It becomes possible.

ステップS452では、すべての強識別器を調査し終わったか否かの判定を行う。すべての強識別器で調査し終わった場合はステップS455に移行し、終わっていない場合にはステップS453に移行し、次の強識別器での調査を行う。ステップS453では、検出窓領域内の画像が人に似ているか否かを判定するための類似度を計算する。   In step S452, it is determined whether or not all strong classifiers have been investigated. If all strong classifiers have been investigated, the process proceeds to step S455, and if not complete, the process proceeds to step S453, and the next strong classifier is investigated. In step S453, the similarity for determining whether the image in the detection window area is similar to a person is calculated.

ステップS454では、ステップS453において計算した類似度が予め設定した閾値(例えば、0に設定)より大きいか否かを判定する。閾値より大きい場合にはステップS452に移行し、閾値以下の場合にはステップS455に移行する。   In step S454, it is determined whether the similarity calculated in step S453 is greater than a preset threshold (for example, set to 0). If it is greater than the threshold value, the process proceeds to step S452, and if it is less than the threshold value, the process proceeds to step S455.

ステップS455では、ステップS453において最後に計算した類似度及びその判定段数を検出窓領域の大きさ(幅、高さ)と中心座標に関連付けて判定情報履歴40として記憶部4に記憶する。ここで、最後に計算された類似度が固定識別器の類似度となる。また、ステップS459では、学習識別器632の類似度も共に記憶される。   In step S455, the similarity calculated last in step S453 and the number of determination steps thereof are stored in the storage unit 4 as the determination information history 40 in association with the size (width, height) of the detection window region and the center coordinates. Here, the similarity calculated last becomes the similarity of the fixed classifier. In step S459, the similarity of the learning discriminator 632 is also stored.

ステップS456では、学習識別器632で用いられる特徴量Xを求める。これは上記で説明した通りである。   In step S456, the feature quantity X used in the learning discriminator 632 is obtained. This is as described above.

ステップS457では、ステップS456で求めた特徴量Xに基づいて学習識別器632の緩慢変動用識別器の類似度を算出する。類似度P(人|X)は数式(5)により求めることができ、人以外の特徴量分布P(X|人以外)としては緩慢変動用識別器の混合正規分布のパラメータを用いる。   In step S457, the similarity of the slowly varying discriminator of the learning discriminator 632 is calculated based on the feature amount X obtained in step S456. The degree of similarity P (person | X) can be obtained from Equation (5), and the parameter of the mixed normal distribution of the classifier for slow fluctuation is used as the feature amount distribution P (X | other than person) other than people.

ステップS458では、ステップS456で求めた特徴量Xに基づいて学習識別器632の急変動用識別器の類似度を算出する。類似度P(人|X)は数式(5)により求めることができ、人以外の特徴量分布P(X|人以外)としては急変動用識別器の混合正規分布のパラメータを用いる。   In step S458, the similarity of the discriminator for sudden change of the learning discriminator 632 is calculated based on the feature amount X obtained in step S456. The degree of similarity P (person | X) can be obtained from Equation (5), and the parameter of the mixed normal distribution of the classifier for sudden change is used as the feature quantity distribution P (X | other than person) other than people.

ステップS459では、ステップS457及びS458で算出された緩慢変動用識別器及び急変動用識別器の類似度をステップS455で記憶した固定識別器の類似度に関連付けて判定情報履歴40として記憶部4に記憶する。その後、処理をステップS50に移行する。   In step S459, the similarity between the slow change discriminator and the sudden change discriminator calculated in steps S457 and S458 is associated with the similarity of the fixed discriminator stored in step S455 as the determination information history 40 in the storage unit 4. Remember. Thereafter, the process proceeds to step S50.

ステップS50では、学習識別器用特徴量分布の更新を行う。これは識別器更新手段636にて行われる。更新処理は、図14に示すフローチャートに沿って行われる。本実施の形態では、「人以外」の特徴量分布を更新し、「人」の特徴量分布は更新しない。   In step S50, the learning discriminator feature quantity distribution is updated. This is performed by the discriminator update means 636. The update process is performed according to the flowchart shown in FIG. In the present embodiment, the feature quantity distribution of “non-person” is updated, and the feature quantity distribution of “person” is not updated.

ステップS551では、「人以外」であるか否かの判定を行う。「人以外」とは、カスケード型識別器620の判定段数が閾値T1(1≦T1≦N)以下であり、カスケード型識別器620の類似度が閾値T2より小さいという条件を両方満たす場合はステップS552へ移行し、そうでない場合にはステップS60へ移行する。   In step S551, it is determined whether or not it is “other than a person”. “Non-human” is a step when both the conditions that the number of determination stages of the cascade classifier 620 is equal to or smaller than the threshold T1 (1 ≦ T1 ≦ N) and the similarity of the cascade classifier 620 is smaller than the threshold T2 are satisfied. The process proceeds to S552, and if not, the process proceeds to step S60.

ステップS552では、学習識別器632の緩慢変動用識別器の類似度が閾値T3より小さい、学習識別器632の急変動用識別器の類似度が閾値T4より小さいという条件のいずれか一方を満たす場合はステップS553へ移行し、そうでない場合にはステップS60へ移行する。   In step S552, when the similarity of the classifier for slow fluctuation of the learning classifier 632 is smaller than the threshold value T3, or the condition that the similarity of the classifier for sudden fluctuation of the learning classifier 632 is smaller than the threshold value T4 is satisfied Shifts to step S553, otherwise shifts to step S60.

ステップS551及びS552における判定は、「人以外」である場合に学習識別器用特徴量分布42を更新するためのものである。   The determinations in steps S551 and S552 are for updating the learning discriminator feature quantity distribution 42 in the case of “other than human”.

ステップS553では、「人以外」の特徴量分布42を更新する。現時刻の検出窓領域から得られた特徴量Xを用いて緩慢変動用識別器に対応する「人以外」の混合正規分布P(X|人以外)及び急変動用識別器に対応する「人以外」の混合正規分布P(X|人以外)を逐次型EMアルゴリズムを用いて更新する。   In step S553, the feature amount distribution 42 of “non-human” is updated. Using the feature amount X obtained from the detection window region at the current time, the mixed normal distribution P (X | other than people) corresponding to the classifier for slow fluctuation and the person corresponding to the classifier for sudden fluctuation corresponding to the classifier for slow fluctuation. The mixed normal distribution P (except for X | people) is updated using the sequential EM algorithm.

ただし、急変動用識別器に対応する「人以外」の混合正規分布P(X|人以外)は緩慢変動用識別器に対応する「人以外」の混合正規分布P(X|人以外)よりも短い周期で更新する。例えば、急変動用識別器に対応する「人以外」の混合正規分布P(X|人以外)は毎回更新し、緩慢変動用識別器に対応する「人以外」の混合正規分布P(X|人以外)は前回更新した時刻からある一定時間以上経過していない場合は更新しない。その後、ステップS60へ移行する。   However, the mixed normal distribution P (X |) other than the “non-human” corresponding to the sudden change classifier is more than the mixed normal distribution P (X | other) than the “non-human” corresponding to the slow fluctuation classifier. Also update in a short cycle. For example, the mixed normal distribution P (X |) other than the person corresponding to the sudden change classifier is updated every time, and the mixed normal distribution P (X |) other than the person corresponding to the slow fluctuation classifier is updated. The person other than the person does not update if a certain period of time has not passed since the last update. Thereafter, the process proceeds to step S60.

ステップS70では、ステップS50で求められた判定情報履歴40に基づいて最終的に人が写っている領域を決定する。この処理は判定手段38にて行われる。ステップS70での処理は、図10に示したフローチャートに沿った第1の実施の形態における処理とステップS701の条件のみが異なる。ステップS701では、カスケード型識別器620の判定段数が最終段であり、カスケード型識別器620の類似度が閾値より大きく、緩慢変動用識別器の類似度が閾値より大きく、急変動用識別器の類似度が閾値より大きい条件を総て満たすときのみステップS702において人候補領域とする。   In step S70, an area in which a person is finally captured is determined based on the determination information history 40 obtained in step S50. This processing is performed by the determination means 38. The process in step S70 differs from the process in the first embodiment along the flowchart shown in FIG. 10 only in the condition in step S701. In step S701, the number of determination stages of the cascade discriminator 620 is the final stage, the similarity of the cascade discriminator 620 is greater than the threshold, the similarity of the slow fluctuation discriminator is greater than the threshold, Only when all the conditions that the degree of similarity is greater than the threshold value are satisfied, it is determined as a human candidate region in step S702.

[初期設定時の処理]
本実施の形態における監視カメラ設置時の初期設定の処理について以下に説明する。初期設定時には、監視カメラの撮像領域内に人がいないという仮定のもと、「人以外」の学習識別器用特徴量分布42:P(X|人以外)を作成する。「人」の学習識別器用特徴量分布P(X|人)は予め収集した学習データから混合正規分布の各正規分布の混合比、平均、共分散行列を求めて作成する。
[Initial settings]
The initial setting process when the surveillance camera is installed in the present embodiment will be described below. At the time of initial setting, on the assumption that there is no person in the imaging area of the surveillance camera, the feature distribution for learning discriminator 42: P (X | other than person) of “non-person” is created. The feature quantity distribution P (X | person) for the learning discriminator “person” is created by obtaining the mixture ratio, average, and covariance matrix of each normal distribution of the mixed normal distribution from previously collected learning data.

初期設定処理は、監視カメラを設置してから予め定めた枚数の画像から特徴量Xを求めて、それらの特徴量Xから「人以外」の学習識別器用特徴量分布P(X|人以外)を作成して終了するものとする。なお、初期設定で作成した「人以外」の学習識別器用特徴量分布P(X|人以外)を、緩慢変動用識別器の特徴量分布P(X|人以外)及び急変動用識別器の特徴量分布P(X|人以外)とする。   In the initial setting process, a feature quantity X is obtained from a predetermined number of images after the monitoring camera is installed, and the feature quantity distribution P for learning discriminator P (X | non-person) is determined from these feature quantities X. And finish. It should be noted that the feature distribution P for learning discriminators other than “human” (X | other than human) created in the initial setting is used as the feature distribution P for slow fluctuation discriminators P (X | other than human) and the discriminator for sudden fluctuations. It is assumed that the feature quantity distribution P (X | other than people).

初期設定処理は、図15のフローチャートに沿って行われる。ステップS101からS103は、ステップS10からS30と同じである。ステップS104は、学習識別器用特徴量を作成し、記憶部4の一時記憶用領域に記憶する。ステップS105は、ステップS60と同じである。   The initial setting process is performed according to the flowchart of FIG. Steps S101 to S103 are the same as steps S10 to S30. In step S <b> 104, a feature quantity for learning discriminator is created and stored in the temporary storage area of the storage unit 4. Step S105 is the same as step S60.

ステップS106では、所定の枚数の画像を処理したか否かの判定を行い、所定の枚数の画像を処理した場合はステップS107へ移行し、そうでない場合にはステップS102へ戻る。   In step S106, it is determined whether or not a predetermined number of images have been processed. If a predetermined number of images have been processed, the process proceeds to step S107. Otherwise, the process returns to step S102.

ステップS107では、ステップS104において蓄積した特徴量Xを「人以外」の特徴量分布42:P(X|人以外)を推定するために用いる。特徴量分布P(X|人以外)は、予め定めた数の正規分布の和からなる混合正規分布で表されるものとし、各正規分布の混合比、平均、分散をEMアルゴリズムによって求める。   In step S107, the feature amount X accumulated in step S104 is used to estimate the feature amount distribution 42: P (X | non-person) of “non-person”. The feature amount distribution P (X | other than people) is assumed to be represented by a mixed normal distribution composed of a sum of a predetermined number of normal distributions, and the mixture ratio, average, and variance of each normal distribution are obtained by an EM algorithm.

また、上記実施の形態では、物体検出装置1の各部の機能を1つのコンピュータで実現する態様を説明したがこれに限定されるものではない。物体検出装置1の各部の機能は一般的なコンピュータをプログラムにより制御することによって実現できるものであり、これらの装置の各機能を適宜組み合わせて1つのコンピュータで処理させてもよいし、各機能をネットワーク等で接続された複数のコンピュータで分散処理させてもよい。   Moreover, although the said embodiment demonstrated the aspect which implement | achieves the function of each part of the object detection apparatus 1 with one computer, it is not limited to this. The functions of each part of the object detection device 1 can be realized by controlling a general computer by a program, and the functions of these devices may be appropriately combined and processed by a single computer. Distributed processing may be performed by a plurality of computers connected via a network or the like.

1 物体検出装置、2 画像取得部、3 信号処理部、4 記憶部、5 出力部、30 検出窓領域選択手段、32 検出窓制御手段、34 固定識別器、36 学習識別器、37 識別器更新手段、38 判定手段、40 判定情報履歴、42 学習識別器用特徴量分布(類似度ヒストグラム)、200 入力画像、201,202 矩形、203,204 領域、310 検出窓切出手段、320 カスケード型識別器、321,322,323 強識別器、330 学習識別器、332 識別器更新手段、334 類似度管理手段、401,411 類似度ヒストグラム、402,403 分布、411 類似度ヒストグラム、412,413 分布、501,502,503 ヒストグラム、620 固定識別器、621,622,623 強識別器、630 判定情報履歴手段、632 学習識別器、634 学習類似度管理手段、636 識別器更新手段、702 ヒストグラム。   DESCRIPTION OF SYMBOLS 1 Object detection apparatus, 2 Image acquisition part, 3 Signal processing part, 4 Memory | storage part, 5 Output part, 30 Detection window area | region selection means, 32 Detection window control means, 34 Fixed discriminator, 36 Learning discriminator, 37 Discriminator update Means, 38 judgment means, 40 judgment information history, 42 learning feature distribution (similarity histogram), 200 input image, 201, 202 rectangle, 203, 204 area, 310 detection window cutting means, 320 cascade type discriminator , 321, 322, 323 strong classifier, 330 learning classifier, 332 classifier update unit, 334 similarity management unit, 401,411 similarity histogram, 402,403 distribution, 411 similarity histogram, 412, 413 distribution, 501 , 502, 503 Histogram, 620 Fixed classifier, 621, 622, 623 Strong classifier, 6 30 judgment information history means, 632 learning discriminator, 634 learning similarity management means, 636 discriminator update means, 702 histogram.

Claims (4)

監視領域を撮像した画像から検出対象物を検出する物体検出装置であって、
前記画像を取得する画像取得部と、
前記画像取得部から入力された前記画像から検出窓が設定されている検出窓領域画像を取り込み、前記検出窓領域画像と検出対象物とが類似している度合いを示す類似度を算出し、前記類似度に基づいて前記検出窓領域画像に検出対象物が存在しているか否かを予め学習した情報に基づいて判定する固定識別器と、
前記検出窓領域画像から算出した情報により更新される第1の辞書データを用いて、検出対象物が存在しているか否かを判定する緩慢学習識別器と、
前記第1の辞書データより短い時間で過去の更新内容の影響が小さくなるように前記検出窓領域画像から算出した情報により更新される第2の辞書データを用いて、検出対象物が存在しているか否かを判定する急変学習識別器と、
前記緩慢学習識別器及び前記急変学習識別器からの出力に基づき検出対象物が存在するか否かを判定する判定手段と、
を有することを特徴とする物体検出装置。
An object detection device for detecting a detection target from an image obtained by imaging a monitoring area,
An image acquisition unit for acquiring the image;
Taking a detection window area image in which a detection window is set from the image input from the image acquisition unit, calculating a similarity indicating a degree of similarity between the detection window area image and a detection object, A fixed classifier that determines whether or not a detection target exists in the detection window region image based on similarity based on information learned in advance;
A slow learning discriminator that determines whether or not a detection target exists using the first dictionary data updated with information calculated from the detection window region image;
Using the second dictionary data updated by the information calculated from the detection window area image so that the influence of past update contents is reduced in a shorter time than the first dictionary data, the detection target exists. A sudden change learning classifier that determines whether or not
Determining means for determining whether or not a detection target exists based on outputs from the slow learning classifier and the sudden change learning classifier;
An object detection apparatus comprising:
前記緩慢学習識別器及び前記急変学習識別器は、前記固定識別器にて検出対象物が存在していると判定された検出窓領域画像に対してのみ判定を行うことを特徴とする請求項1に記載の物体検出装置。   2. The slow learning discriminator and the sudden change learning discriminator make a determination only on a detection window region image determined by the fixed discriminator that a detection target exists. The object detection apparatus described in 1. 前記判定手段は、前記緩慢学習識別器及び前記急変学習識別器で検出対象物が存在すると判定された場合に検出対象物が存在すると判定することを特徴とする請求項1又は2に記載の物体検出装置。   3. The object according to claim 1, wherein the determination unit determines that a detection target exists when it is determined by the slow learning classifier and the sudden change learning classifier that the detection target exists. Detection device. 前記緩慢学習識別器及び前記急変学習識別器は、検出対象物が存在しないと判定されたときに算出された類似度のみにて前記第1の辞書データ及び前記第2の辞書データを更新されることを特徴とする請求項1から3の何れか1つに記載の物体検出装置。   The slow learning discriminator and the sudden change learning discriminator update the first dictionary data and the second dictionary data only with the similarity calculated when it is determined that the detection target does not exist. The object detection device according to claim 1, wherein the object detection device is an object detection device.
JP2009010044A 2009-01-20 2009-01-20 Object detection device Active JP5137863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009010044A JP5137863B2 (en) 2009-01-20 2009-01-20 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009010044A JP5137863B2 (en) 2009-01-20 2009-01-20 Object detection device

Publications (2)

Publication Number Publication Date
JP2010170202A JP2010170202A (en) 2010-08-05
JP5137863B2 true JP5137863B2 (en) 2013-02-06

Family

ID=42702318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009010044A Active JP5137863B2 (en) 2009-01-20 2009-01-20 Object detection device

Country Status (1)

Country Link
JP (1) JP5137863B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5675233B2 (en) * 2010-09-09 2015-02-25 キヤノン株式会社 Information processing apparatus, recognition method thereof, and program
JP5795250B2 (en) * 2011-12-08 2015-10-14 Kddi株式会社 Subject posture estimation device and video drawing device
CN104620285B (en) * 2012-09-14 2017-04-12 本田技研工业株式会社 Object identifier
JP6061713B2 (en) * 2013-02-08 2017-01-18 本田技研工業株式会社 Inspection apparatus, inspection method and program
JP6326622B2 (en) * 2014-03-25 2018-05-23 株式会社明電舎 Human detection device
JP6406886B2 (en) * 2014-06-11 2018-10-17 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP7314939B2 (en) * 2018-07-02 2023-07-26 コニカミノルタ株式会社 Image recognition program, image recognition device, learning program, and learning device
CN109614848B (en) 2018-10-24 2021-07-20 百度在线网络技术(北京)有限公司 Human body recognition method, device, equipment and computer readable storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350188A (en) * 1999-06-08 2000-12-15 Sony Corp Background image update device and its method
JP2008262331A (en) * 2007-04-11 2008-10-30 Toshiba Corp Object tracking device and object tracking method

Also Published As

Publication number Publication date
JP2010170202A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
JP5137863B2 (en) Object detection device
TWI430186B (en) Image processing apparatus and image processing method
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
KR101607224B1 (en) Dynamic object classification
TWI651697B (en) Parking space vacancy detection method and detection model establishment method thereof
US8230272B2 (en) Methods and systems for detection of anomalies in digital data streams
US9047505B2 (en) Collating device
US9330336B2 (en) Systems, methods, and media for on-line boosting of a classifier
US8488878B2 (en) Sky detection system used in image extraction device and method using sky detection system
US20060221181A1 (en) Video ghost detection by outline
US20150012472A1 (en) Systems, methods, and media for updating a classifier
JP5290227B2 (en) Object detection device and learning device thereof
JP5253195B2 (en) Object detection device
KR102391853B1 (en) System and Method for Processing Image Informaion
JP5290229B2 (en) Learning device and object detection device
CN110197185B (en) Method and system for monitoring space under bridge based on scale invariant feature transform algorithm
JP6851221B2 (en) Image monitoring device
JP2010140315A (en) Object detection device
JP6266468B2 (en) Object detection device
JP5253194B2 (en) Object detection device
JP2019061407A (en) Object detection device
JP5407897B2 (en) Image classification method, apparatus, and program
JP5137862B2 (en) Object detection device
JP6784254B2 (en) Retained object detection system, retained object detection method and program
JP2012146040A (en) Detecting system of abnormal situation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121113

R150 Certificate of patent or registration of utility model

Ref document number: 5137863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250