JP5253194B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5253194B2
JP5253194B2 JP2009010029A JP2009010029A JP5253194B2 JP 5253194 B2 JP5253194 B2 JP 5253194B2 JP 2009010029 A JP2009010029 A JP 2009010029A JP 2009010029 A JP2009010029 A JP 2009010029A JP 5253194 B2 JP5253194 B2 JP 5253194B2
Authority
JP
Japan
Prior art keywords
discriminator
detection window
image
similarity
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009010029A
Other languages
Japanese (ja)
Other versions
JP2010170199A (en
Inventor
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009010029A priority Critical patent/JP5253194B2/en
Publication of JP2010170199A publication Critical patent/JP2010170199A/en
Application granted granted Critical
Publication of JP5253194B2 publication Critical patent/JP5253194B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像から検出対象物を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects a detection target from an image.

画像内に検出対象物に対応した画像領域が含まれるか否かを検出する物体検出装置が知られている。   An object detection device that detects whether an image area corresponding to a detection target is included in an image is known.

従来、入力された画像からリアルタイムに異常画像を学習し、監視対象を撮影した画像における異常を検出する物体検出装置が提案されている。例えば、特許文献1には、連続して入力された映像に対して逐次学習を行い、かつ、リアルタイムに非定常映像を検出する検出装置であって、非定常度合いを判定する辞書データを教師なし学習法にて随時学習し更新する検出装置が開示されている。   Conventionally, there has been proposed an object detection apparatus that learns an abnormal image from an input image in real time and detects an abnormality in an image obtained by photographing a monitoring target. For example, Patent Document 1 discloses a detection device that performs sequential learning on continuously input images and detects unsteady images in real time, and uses unsupervised dictionary data to determine the degree of unsteadiness. A detection device that learns and updates at any time using a learning method is disclosed.

特開2007−299250号公報JP 2007-299250 A

従来技術では、画像全体を物体検出装置の学習の単位としているため、画像の部分領域ごとに適した学習をすることができない。例えば、ハンガーが掛けられた画像が映っている領域と壁だけが映っている領域とを有する画像など、異なる物体の画像を含む複数の部分領域を有する1つの画像から学習を行う場合であっても、部分領域ごとに区別することなく画像全体を単位として学習を行う。このような学習の結果を用いると、画像内の検出対象物の検出の精度の向上に限界がある。   In the prior art, since the entire image is used as a learning unit of the object detection device, it is not possible to perform learning suitable for each partial region of the image. For example, when learning is performed from one image having a plurality of partial areas including images of different objects, such as an image having an area where a hung image is reflected and an area where only a wall is reflected. Also, learning is performed in units of the entire image without distinction for each partial region. When such a learning result is used, there is a limit in improving the accuracy of detection of the detection target in the image.

本発明は、画像の領域に応じた更新を可能にした識別器を用いた物体検出装置を提供することを目的とする。   An object of the present invention is to provide an object detection apparatus using a discriminator that can be updated in accordance with an image area.

本発明の一態様の物体検出装置は、監視領域を撮影した画像から検出対象物を検出する物体検出装置であって、前記画像を取得する画像取得部と、前記画像取得部から入力された前記画像において順次設定される検出窓から検出窓領域画像を取り込む検出窓領域選択手段と、前記検出窓の設定位置に対応する識別器を設定する識別器設定手段と、前記検出窓領域画像に検出対象物が存在するか否かを判定する前記識別器と、前記識別器設定手段にて設定している識別器を当該検出窓領域画像にて算出した情報に基づき更新する識別器更新手段と、を有することを特徴とする。   An object detection apparatus according to an aspect of the present invention is an object detection apparatus that detects a detection target from an image obtained by capturing a monitoring region, and the image acquisition unit that acquires the image and the input from the image acquisition unit A detection window area selecting means for taking in a detection window area image from detection windows set sequentially in the image; a discriminator setting means for setting a discriminator corresponding to a setting position of the detection window; and a detection target in the detection window area image The discriminator for determining whether or not an object exists, and the discriminator update means for updating the discriminator set by the discriminator setting means based on information calculated in the detection window region image, It is characterized by having.

前記識別器は、前記検出窓領域画像に検出対象物が存在するか否かを判定する強識別器を直列に複数段接続したカスケード型識別器を有し、識別器更新手段は前記強識別器を用いない段がある場合に前記カスケード型識別器の使用段数を減少させてもよい。   The discriminator includes a cascade discriminator in which strong discriminators that determine whether or not a detection target exists in the detection window region image are connected in series, and the discriminator update unit includes the strong discriminator. If there is a stage that does not use, the number of stages used by the cascade discriminator may be reduced.

前記識別器は、前記監視領域を撮影した画像から前記検出窓の設定位置に応じて学習した情報を用いて前記検出窓領域画像に検出対象物が存在するか否かを判定する学習識別器を前記カスケード型識別器の後段に有し、前記識別器更新手段は、前記カスケード型識別器の判定結果と前記学習識別器の判定結果とが一致しない場合に前記カスケード型識別器の使用段数を増加させてもよい。   The discriminator includes a learning discriminator that determines whether or not a detection target exists in the detection window region image using information learned according to a set position of the detection window from an image obtained by photographing the monitoring region. The discriminator update means increases the number of stages of use of the cascade discriminator when the determination result of the cascade discriminator and the determination result of the learning discriminator do not match. You may let them.

また、前記識別器は、前記監視領域を撮影した画像から前記検出窓の設定位置に応じて学習した情報を用いて前記検出窓領域画像に検出対象物が存在するか否かを判定する学習識別器を有し、前記識別器更新手段は、前記検出窓領域画像を用いて前記学習識別器の学習を行ってもよい。   The discriminator is a learning discriminator that determines whether or not a detection target exists in the detection window area image using information learned according to a set position of the detection window from an image obtained by photographing the monitoring area. The discriminator update means may perform learning of the learning discriminator using the detection window region image.

また、順次設定される前記検出窓の設定位置は、予め前記画像を複数の領域に分割した分割領域のいずれかに対応させられ、前記識別器設定手段は、前記検出窓の設定位置に対応する前記分割領域ごとに同一の前記識別器を設定することが好適である。   Further, the setting position of the detection window that is sequentially set corresponds to one of the divided areas obtained by dividing the image into a plurality of areas in advance, and the classifier setting unit corresponds to the setting position of the detection window. It is preferable to set the same classifier for each of the divided areas.

本発明によると、画像の領域に応じた更新を可能にした識別器を用いた物体検出装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the object detection apparatus using the discriminator which enabled the update according to the area | region of an image can be provided.

本発明の実施の形態における物体検出装置の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of the object detection apparatus in embodiment of this invention. 物体の検出処理を説明する図である。It is a figure explaining the detection process of an object. 識別器の構成例を示す図である。It is a figure which shows the structural example of a discriminator. 類似度ヒストグラムの例を示す図である。It is a figure which shows the example of a similarity histogram. 類似度ヒストグラムの更新方法を説明する図である。It is a figure explaining the update method of a similarity histogram. 物体検出装置での処理の例を示すフローチャートである。It is a flowchart which shows the example of the process in an object detection apparatus. 物体検出装置での検出窓領域の位置設定処理の例を示すフローチャートである。It is a flowchart which shows the example of the position setting process of a detection window area | region in an object detection apparatus. 物体検出装置での識別処理の例を示すフローチャートである。It is a flowchart which shows the example of the identification process in an object detection apparatus. 物体検出装置での更新処理の例を示すフローチャートである。It is a flowchart which shows the example of the update process in an object detection apparatus. 物体検出装置での判定処理の例を示すフローチャートである。It is a flowchart which shows the example of the determination process in an object detection apparatus. 物体検出装置で初期設定時に行われる識別器の更新処理の例を示すフローチャートである。It is a flowchart which shows the example of the update process of the discriminator performed at the time of initialization by an object detection apparatus.

本発明の実施の形態における物体検出装置1は、図1に示すように、画像取得部2、信号処理部3、記憶部4及び出力部5を含んで構成される。物体検出装置1は、所定の監視空間を撮像した監視画像を取得し、画像内に撮像された人や物等の検出対象物を検出する。画像取得部2、信号処理部3、記憶部4及び出力部5は互いに情報伝達可能に接続される。   As shown in FIG. 1, the object detection apparatus 1 according to the embodiment of the present invention includes an image acquisition unit 2, a signal processing unit 3, a storage unit 4, and an output unit 5. The object detection device 1 acquires a monitoring image obtained by imaging a predetermined monitoring space, and detects a detection target such as a person or an object captured in the image. The image acquisition unit 2, the signal processing unit 3, the storage unit 4, and the output unit 5 are connected so as to be able to transmit information to each other.

なお、本実施の形態では、画像内に写った人を検出対象物とする例について説明する。ただし、これに限定されるものではなく、流通化に置かれる商品等の物品、通行する車等を検出する場合等にも適用することができる。   In this embodiment, an example in which a person shown in an image is a detection target will be described. However, the present invention is not limited to this, and the present invention can also be applied to the case of detecting articles such as commodities placed in distribution, vehicles passing through, and the like.

画像取得部2は、CCD素子やC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される所謂監視カメラを含む。また、画像取得部2は、インターネットのネットワークを介して画像を取得するものであってもよい。画像取得部2は、撮像した画像を信号処理部3へ送信する。画像を取得する間隔は一定の時間間隔でなくてもよい。   The image acquisition unit 2 includes a so-called surveillance camera configured to include an imaging element such as a CCD element or a C-MOS element, an optical system component, an analog / digital converter, and the like. The image acquisition unit 2 may acquire an image via an Internet network. The image acquisition unit 2 transmits the captured image to the signal processing unit 3. The interval at which the images are acquired may not be a fixed time interval.

画像は、例えば、幅320ピクセル、高さ240ピクセル、各ピクセルがR(赤)、G(緑)、B(青)をそれぞれ256階調で表現したカラー画像である。   The image is, for example, a color image having a width of 320 pixels, a height of 240 pixels, and each pixel expressing R (red), G (green), and B (blue) with 256 gradations.

信号処理部3は、CPU、DSP、MCU、IC等の演算回路を含んで構成される。信号処理部3は、画像取得部2、記憶部4及び出力部5と情報伝達可能に接続される。信号処理部3は、検出窓領域選択手段30、検出窓制御手段32、固定識別器34、学習識別器36、識別器更新手段37、判定手段38、識別器設定手段39等の各手段での処理を記述したプログラムを記憶部4から読み出して実行することによりコンピュータを各手段として機能させる。   The signal processing unit 3 includes an arithmetic circuit such as a CPU, DSP, MCU, or IC. The signal processing unit 3 is connected to the image acquisition unit 2, the storage unit 4, and the output unit 5 so as to be able to transmit information. The signal processing unit 3 includes a detection window region selection unit 30, a detection window control unit 32, a fixed classifier 34, a learning classifier 36, a classifier update unit 37, a determination unit 38, a classifier setting unit 39, and the like. By reading a program describing the processing from the storage unit 4 and executing it, the computer is caused to function as each means.

図2を参照し、信号処理部3は、画像取得部2より得られた入力画像200から検出対象物を検出する。説明の都合上、画像200の左上を原点X=0,Y=0とし、横方向にX軸、縦方向にY軸とし、X軸は右方向、Y軸は下方向に正に増加するものとする。入力画像200には、領域203,204の位置に検出対象物(人)が写っており、矩形201,202は検出窓領域を示している。   With reference to FIG. 2, the signal processing unit 3 detects a detection target from the input image 200 obtained from the image acquisition unit 2. For convenience of explanation, the upper left corner of the image 200 is the origin X = 0, Y = 0, the horizontal direction is the X axis, the vertical direction is the Y axis, the X axis is the right direction, and the Y axis is positively increased downward. And In the input image 200, a detection object (person) is shown at the positions of the areas 203 and 204, and rectangles 201 and 202 indicate detection window areas.

物体検出装置1は、検出窓領域を少しずつずらしながら走査し、検出窓領域に人が写っている否かを判定する。矢印は、検出窓領域をずらす際の左上の座標を示すものであり、検出窓領域は画像200全体を漏れなく探索するように走査する。領域203,204にある矩形は、検出処理の結果、人であると判定された検出窓領域(人候補領域)を示す。人が写っている画像領域付近では、人であると判定される検出窓領域が複数出てくる場合があるが、検出窓領域をまとめる処理を行うことで最終的な検出窓領域(図2中の太線:人領域)を得る。また、領域205にある矩形は、検出対象物である人に似た洋服が掛かったハンガーが写された領域を示している。   The object detection apparatus 1 scans while gradually shifting the detection window area, and determines whether a person is captured in the detection window area. The arrow indicates the upper left coordinates when the detection window area is shifted, and the detection window area is scanned so as to search the entire image 200 without omission. The rectangles in the areas 203 and 204 indicate detection window areas (person candidate areas) that are determined to be human as a result of the detection process. In the vicinity of an image region where a person is shown, there may be a plurality of detection window regions that are determined to be humans. However, the final detection window region (in FIG. (Thick line: human area). Further, a rectangle in the area 205 indicates an area where a hanger with clothes similar to a person who is a detection target is captured.

検出窓領域選択手段30は、検出窓領域の幅と高さを決定する。画像内に様々な大きさで写る人に対応するため検出窓領域の幅と高さを変更しながら、検出窓領域を走査して画像内に人が写っているか否かを判定する。なお、検出窓領域の幅と高さは、検出対象物の画像上での大きさを考慮して、予め記憶部4に1又は複数を記憶している。ただし、予め幅と高さを記憶していなくとも、所定の規則に従って決定してもよい。   The detection window area selection means 30 determines the width and height of the detection window area. The detection window area is scanned to determine whether or not a person is captured in the image while changing the width and height of the detection window area in order to correspond to people captured in various sizes in the image. Note that one or a plurality of widths and heights of the detection window region are stored in advance in the storage unit 4 in consideration of the size of the detection object on the image. However, even if the width and height are not stored in advance, they may be determined according to a predetermined rule.

検出窓制御手段32は、検出窓領域をずらす間隔(走査間隔)を決定し、決定した走査間隔に基づいて検出窓領域をずらす。   The detection window control means 32 determines an interval (scanning interval) for shifting the detection window region, and shifts the detection window region based on the determined scanning interval.

固定識別器34は、検出窓領域内の画像がどれだけ人に似ているか、類似度を計算する。固定識別器34は、多数の「人」の画像データ、「人以外」の画像データを用いて予め学習させる。   The fixed discriminator 34 calculates the degree of similarity of how much the image in the detection window area resembles a person. The fixed discriminator 34 learns in advance using a large number of “person” image data and “non-person” image data.

類似度は、図3に示す処理手順で計算される。図1に記載している固定識別器34、学習識別器36、識別器更新手段37の具体例を図3ではカスケード型識別器320、学習識別器330及び識別器更新手段332としてそれぞれ示す。   The similarity is calculated by the processing procedure shown in FIG. Specific examples of the fixed classifier 34, the learning classifier 36, and the classifier update means 37 shown in FIG. 1 are shown as a cascade type classifier 320, a learning classifier 330, and a classifier update means 332, respectively, in FIG.

まず、入力画像から切り出された検出窓領域内の画像が、カスケード型識別器320に入力される。カスケード型識別器320は、強識別器321,322,323のような複数の強識別器が直列に並んだ識別器である(ここではN個の強識別器が直列に並んでいる例を示す)。個々の強識別器は、ヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)特徴(Navneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of IEEE Conference Computer Vision and Pattern Recognition 2005)を用いてアダブースト(AdaBoost)で予め学習させる。すなわち、検出対象物である人の様々な画像と人が写っていない画像を大量に用意し、各画像に対して検出対象物の画像であるか否か正解付けを行っておき、これらのデータを用いて両者が識別できるようにアダブーストで学習させる。類似度を計算するときは、各強識別器は、入力された画像からHOG特徴を計算し、アダブーストで選択された特徴量より類似度を計算する。   First, an image in the detection window region cut out from the input image is input to the cascade discriminator 320. The cascade type classifier 320 is a classifier in which a plurality of strong classifiers such as the strong classifiers 321, 322, and 323 are arranged in series (here, an example in which N strong classifiers are arranged in series is shown). ). Individual strong classifiers are Histograms of Oriented Gradients (HOG) features (Navneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of IEEE Conference Computer Vision and Pattern Recognition 2005) To learn in advance with AdaBoost. That is, various images of people who are detection objects and images that do not show people are prepared in large quantities, each image is correctly identified as to whether it is an image of the detection object, and these data To learn with Adaboost so that both can be identified. When calculating the similarity, each strong classifier calculates the HOG feature from the input image, and calculates the similarity from the feature amount selected by Adaboost.

強識別器321〜323はあらかじめ計算する順序が決まっており、最初に計算する強識別器321が1、次に計算する強識別器322が2・・・Nのように各強識別器には計算する順番と同じ番号を割り当てる。   The order in which the strong classifiers 321 to 323 are calculated in advance is determined, and the strong classifier 321 to be calculated first is 1, the next strong classifier 322 to be calculated is 2. Assign the same number as the order of calculation.

各強識別器321〜323は、検出窓領域として切り出された画像を入力とし、類似度を計算する。最先の強識別器321以外の強識別器322,323等は、前段で計算された類似度が閾値より大きい場合のみ(図中Tの矢印)、類似度を計算する。閾値以下の場合(図中Fの矢印)、識別器更新手段332にて学習識別器330の更新を行う。閾値は、例えば0に設定し、0より大きければ人に似ており、0以下であれば人に似ていないと判定する。以下、類似度を算出した強識別器の個数を判定段数という。   Each of the strong discriminators 321 to 323 receives the image cut out as the detection window region and calculates the similarity. The strong classifiers 322, 323, etc. other than the first strong classifier 321 calculate the similarity only when the similarity calculated in the previous stage is larger than the threshold (arrow T in the figure). When the value is equal to or less than the threshold value (arrow F in the figure), the classifier update unit 332 updates the learning classifier 330. The threshold is set to 0, for example, and if it is greater than 0, it is similar to a person, and if it is 0 or less, it is determined that it is not similar to a person. Hereinafter, the number of strong classifiers for which the similarity is calculated is referred to as the number of determination stages.

学習識別器330は、カスケード型識別器320の各強識別器の類似度を入力として、人か否かを判定する。   The learning discriminator 330 uses the similarity of each strong discriminator of the cascade discriminator 320 as an input to determine whether or not the person is a person.

学習識別器330は、カスケード型識別器320で最後の強識別器において人と判定(図中Tの矢印)した場合のみ判定を行う。本実施の形態の例では、「最後の強識別器」とは、記憶部4に記憶された使用段数44の値が表す番号の強識別器である。カスケード型識別器320で「人」の可能性が高いときのみ、すなわち最終段の強識別器で求めた類似度が閾値より大きい場合(図中Tの矢印)に学習識別器330にて判定を行う。学習識別器330は、カスケード型識別器320において判定段数までの強識別器で得られた類似度Sn(nは1〜M:Mは判定段数(1≦M≦N))を入力とする。カスケード型識別器320の各強識別器で求めた類似度を並べてベクトル表現したものを類似度ベクトルS=(1番目の強識別器の類似度,2番目の強識別器の類似度,・・・,M番目の強識別器の類似度)=(S1,S2,・・・,SM)とする。   The learning discriminator 330 performs the determination only when the cascade type discriminator 320 determines that the last strong discriminator is a person (arrow T in the figure). In the example of the present embodiment, the “last strong classifier” is a strong classifier having a number represented by the value of the used stage number 44 stored in the storage unit 4. The learning discriminator 330 makes a determination only when the possibility of “person” is high in the cascade discriminator 320, that is, when the similarity obtained by the strong discriminator at the final stage is larger than the threshold (arrow T in the figure). Do. The learning discriminator 330 receives the similarity Sn (n is 1 to M: M is the number of determination stages (1 ≦ M ≦ N)) obtained by the strong classifiers up to the number of determination stages in the cascade classifier 320 as an input. A similarity vector S = (similarity of the first strong classifier, similarity of the second strong classifier,..., A vector representation of the similarities obtained by the strong classifiers of the cascade type classifier 320 arranged side by side. (Similarity of Mth strong classifier) = (S1, S2,..., SM).

類似度ベクトルSが得られたときの「人」である確率P(人|S)、類似度Sが得られたときの「人以外」である確率P(人以外|S)を計算し、P(人|S)>P(人以外|S)なら「人」と判定し、そうでなければ「人以外」と判定する。   Calculating the probability P (person | S) of “person” when the similarity vector S is obtained, and the probability P (non-person | S) of “non-person” when the similarity S is obtained; If P (person | S)> P (non-person | S), it is determined as “person”, otherwise it is determined as “non-person”.

P(人|S)とP(人以外|S)の計算はベイズの定理より数式(1),(2)で求めることができる。

Figure 0005253194
Calculations of P (person | S) and P (non-person | S) can be obtained by the formulas (1) and (2) from Bayes' theorem.
Figure 0005253194

ここで、P(S|人)は、「人」の場合の類似度Sが得られる確率(尤度)、P(S|人以外)は「人以外」の場合の類似度Sが得られる確率(尤度)である。P(人)は「人」がどのくらいの確率で検出窓領域に含まれるかを表した事前確率、同様にP(人以外)は検出窓領域に「人以外」がどのくらいの確率で含まれているかを表した事前確率である。事前に検出窓領域に「人」、「人以外」が含まれる確率はわからないため、事前確率P(人)=P(人以外)=0.5と仮定する。P(人以外|S)=1−P(人|S)という関係があるので、P(人|S)を求めれば、P(人以外|S)は容易に求められる。以下では、P(人|S)を学習識別器330での類似度という。   Here, P (S | People) obtains the probability (likelihood) of obtaining the similarity S in the case of “People”, and P (S | People) obtains the similarity S in the case of “Non-People”. Probability (likelihood). P (person) is a prior probability that indicates the probability of “person” being included in the detection window area, and similarly P (other than person) is included in the detection window area with a probability of “non-person”. It is a prior probability that represents whether or not. Since the probability that “person” and “non-person” are included in the detection window region in advance is not known, it is assumed that the prior probability P (person) = P (non-person) = 0.5. Since P (non-person | S) = 1−P (person | S), if P (person | S) is obtained, P (non-person | S) is easily obtained. Hereinafter, P (person | S) is referred to as the similarity in the learning discriminator 330.

各強識別器の類似度を要素とした確率変数ベクトルsを用意すると、「人」の類似度ベクトルsの分布P(s|人)と「人以外」の類似度ベクトルsの分布P(s|人以外)が求まればP(人|s)を計算できる。類似度ベクトルsは多次元データだが、各強識別器の類似度snは独立であると仮定すると、P(s|人)及びP(s|人以外)は数式(3),(4)で求められる。

Figure 0005253194
When a random variable vector s having the similarity of each strong classifier as an element is prepared, the distribution P (s | person) of the similarity vector s of “person” and the distribution P (s) of the similarity vector s of “non-person”. If (other than people) is obtained, P (people | s) can be calculated. Although the similarity vector s is multi-dimensional data, assuming that the similarity sn of each strong classifier is independent, P (s | people) and P (s | others) are expressed by equations (3) and (4). Desired.
Figure 0005253194

ここで、P(sm|人)はm番目の強識別器の「人」の類似度の分布であり、P(sm|人以外)はm番目の強識別器の「人以外」の類似度の分布である。   Here, P (sm | person) is the distribution of similarity of “m” of the mth strong classifier, and P (sm | other) is the similarity of “mother” of the mth strong classifier. Distribution.

本実施の形態では、全ビン(区切り)の類似度の分布の和が1になるようなヒストグラムで、「人」の類似度の分布及び「人以外」の類似度の分布を表現する。それぞれのヒストグラムは、記憶部4の類似度ヒストグラム42に格納される。ただし、類似度の分布はヒストグラムに限らず、正規分布や混合正規分布などで表現してもよい。   In the present embodiment, the distribution of similarity of “person” and the distribution of similarity of “non-person” are expressed by a histogram such that the sum of the distributions of similarity of all bins (separators) is 1. Each histogram is stored in the similarity histogram 42 of the storage unit 4. However, the similarity distribution is not limited to the histogram, and may be expressed by a normal distribution, a mixed normal distribution, or the like.

「人」の類似度ヒストグラム42は、予め用意した「人」を含む画像である学習用データを用いて各強識別器の類似度の分布を求めることによって構成する。本実施の形態では、「人」の類似度ヒストグラム42については逐次学習を行わないが更新してもよい。「人以外」の類似度ヒストグラム42は、監視カメラを設置した時の最初の数フレームの画像には人が含まれていないと仮定し、そのとき得られる各強識別器の類似度の分布を求めることによって構成する。その後、カスケード型識別器320又は学習識別器330において検出窓領域が「人以外」と判定されたときにカスケード型識別器320で求められた類似度を用いて「人以外」の類似度ヒストグラム42を逐次更新する。   The “person” similarity histogram 42 is configured by obtaining a similarity distribution of each strong classifier using learning data that is an image including “person” prepared in advance. In the present embodiment, the “person” similarity histogram 42 is not sequentially learned but may be updated. The similarity histogram 42 of “non-person” assumes that no person is included in the first few frames when the surveillance camera is installed, and the similarity distribution of the strong classifiers obtained at that time is shown. Configure by asking. Thereafter, when the detection window region is determined to be “non-human” in the cascade type discriminator 320 or the learning discriminator 330, the similarity histogram 42 of “non-human” is used by using the similarity obtained by the cascade type discriminator 320. Are updated sequentially.

カスケード型識別器320の強識別器の数がN=2の場合における類似度ヒストグラム42の例を図4に示す。類似度ヒストグラム401は、1番目の強識別器の類似度s1における「人」の類似度の分布402:P(s1|人)と「人以外」の類似度の分布403:P(s1|人以外)からなる。類似度ヒストグラム411は、2番目の強識別器の類似度s2における「人」の類似度の分布412:P(s2|人)と「人以外」の類似度の分布413:P(s2|人以外)からなる。4つの類似度ヒストグラム402,403,412,413は、全ビンの類似度の分布の合計が1になるようにそれぞれ正規化されている。   FIG. 4 shows an example of the similarity histogram 42 when the number of strong classifiers in the cascade classifier 320 is N = 2. The similarity histogram 401 is a distribution of similarity “person” 402: P (s1 | person) and similarity distribution 403: P (s1 | person) of “non-person” in the similarity s1 of the first strong classifier. Except). The similarity histogram 411 shows the distribution of similarity of “person” 412: P (s2 | person) and the distribution of similarity of “non-person” 413: P (s2 | person) in the similarity s2 of the second strong classifier Except). The four similarity histograms 402, 403, 412, and 413 are normalized so that the sum of the similarity distributions of all bins is 1.

カスケード型識別器320のみで判定する場合、各強識別器で求められた類似度が予め定められた閾値(例えば、0に設定)より大きいと「人」と判定されるが、学習識別器330では得られた各強識別器の類似度と、過去の類似度ヒストグラム42から確率を計算し、適応的に判定できる。   When the determination is made only with the cascade classifier 320, if the degree of similarity obtained by each strong classifier is larger than a predetermined threshold (for example, set to 0), it is determined as “person”. Then, the probability is calculated from the obtained similarity of each strong classifier and the past similarity histogram 42 and can be adaptively determined.

例として、「人」、「人以外」の類似度の分布が図4に示す類似度ヒストグラム401,411で表される場合、1段目の強識別器の類似度がS1=1.0、2段目の強識別器の類似度がS2=1.0であったときについて説明する。1段目及び2段目の強識別器における閾値が0である場合、1段目及び2段目の強識別器のいずれにおいても類似度が閾値を超えているのでカスケード型識別器320では「人」と判定される。一方、学習識別器330では、類似度ベクトルS=(1.0,1.0)が得られたときの「人」である確率:P(人|S=(1.0,1.0))=P(S1=1.0|人)×P(S2=1.0|人)×P(人)/Aと、「人以外」である確率:P(人以外|S=(1.0,1.0))=1−P(人|S=(1.0,1.0))を算出する。ただし、A=P(S|人)×P(人)+P(S|人以外)×P(人以外)である。図4に示すヒストグラム401,411に基づくとP(人|S=(1.0,1.0))<P(人以外|S=(1.0,1.0))となるので、学習識別器330では「人以外」と判定される。   As an example, when the similarity distribution of “person” and “non-person” is represented by the similarity histograms 401 and 411 shown in FIG. 4, the similarity of the first strong classifier is S1 = 1.0, A case where the similarity of the second-stage strong classifier is S2 = 1.0 will be described. When the threshold values in the first and second stage strong classifiers are 0, the similarity exceeds the threshold value in both the first and second stage strong classifiers. It is determined as “person”. On the other hand, in the learning discriminator 330, the probability of “person” when the similarity vector S = (1.0, 1.0) is obtained: P (person | S = (1.0, 1.0) ) = P (S1 = 1.0 | People) × P (S2 = 1.0 | People) × P (People) / A and the probability of “Non-People”: P (Non-People | S = (1. 0, 1.0)) = 1−P (person | S = (1.0, 1.0)). However, A = P (S | person) × P (person) + P (S | other than person) × P (other than person). Based on the histograms 401 and 411 shown in FIG. 4, P (person | S = (1.0,1.0)) <P (non-person | S = (1.0,1.0)). The discriminator 330 determines “other than human”.

物体検出装置の設置環境の特性にあわせた類似度ヒストグラムを構築できれば、カスケード型識別器320からの類似度の算出結果に基づいて学習識別器330においてより確度の高い判定を行うことができる。   If a similarity histogram matching the characteristics of the installation environment of the object detection device can be constructed, the learning discriminator 330 can make a more accurate determination based on the similarity calculation result from the cascade discriminator 320.

学習識別器330で判定後、学習識別器330を識別器更新手段332により更新する。また、類似度管理手段334において類似度及び検出窓領域の大きさ(幅及び高さ)と中心座標を関連付けて判定情報履歴40として記憶部4に記憶させる。   After the determination by the learning discriminator 330, the learning discriminator 330 is updated by the discriminator update unit 332. Further, the similarity management unit 334 associates the similarity, the size (width and height) of the detection window region, and the center coordinates, and stores them in the storage unit 4 as the determination information history 40.

識別器更新手段332は、判定結果に応じて学習識別器330の類似度ヒストグラムを更新する。本実施の形態では、各強識別器で求められた類似度が閾値以下(図3中の矢印F)の場合に識別器更新手段332にて学習識別器330の更新を行う。また、カスケード型識別器320にて強識別器で求められた類似度が閾値を超えていても(図3中Tの矢印)、学習識別器330にて「人以外」と判定(図3中Fの矢印)された場合にも、学習識別器330の更新を行う。すなわち、「人以外」の類似度ヒストグラム42のみを更新の対象とし、「人」の類似度ヒストグラム42は更新しない。また、カスケード型識別器320の何段目の強識別器まで使用するかを表す使用段数について、カスケード型識別器320と学習識別器330の判定結果より更新する。更新後の使用段数は、使用段数44として記憶部4に記憶される。   The discriminator update unit 332 updates the similarity histogram of the learning discriminator 330 according to the determination result. In the present embodiment, the learning classifier 330 updates the learning classifier 330 when the similarity obtained by each strong classifier is equal to or less than a threshold value (arrow F in FIG. 3). Further, even when the similarity obtained by the strong discriminator in the cascade discriminator 320 exceeds the threshold value (arrow T in FIG. 3), the learning discriminator 330 determines “other than human” (in FIG. 3). The learning discriminator 330 is also updated in the case of F). That is, only the “non-person” similarity histogram 42 is updated, and the “person” similarity histogram 42 is not updated. Further, the number of used stages indicating how many strong classifiers of the cascade classifier 320 are used is updated from the determination results of the cascade classifier 320 and the learning classifier 330. The updated used stage number is stored in the storage unit 4 as the used stage number 44.

識別器更新手段332は、一時刻前までに得られた類似度ヒストグラム42を現時刻に得られたデータで更新する。識別器更新手段332による更新処理には、例えば図5に示すように、αブレンディングが用いられる。図5は、学習識別器330のn番目の「人以外」の類似度ヒストグラム42を更新する処理を示しており、前時刻までの更新前の類似度ヒストグラム501及び現時刻で得られたデータによる更新された類似度ヒストグラム502を表している。   The discriminator update unit 332 updates the similarity histogram 42 obtained up to one time ago with the data obtained at the current time. For example, as shown in FIG. 5, α blending is used for the update process by the discriminator update unit 332. FIG. 5 shows a process of updating the n-th “non-human” similarity histogram 42 of the learning discriminator 330, based on the similarity histogram 501 before the update up to the previous time and the data obtained at the current time. An updated similarity histogram 502 is shown.

検出窓領域に人の画像が含まれているか否かを判定した際、カスケード型識別器320では「人」と判定され学習識別器330では「人以外」と判定されたとする。このときのn番目の強識別器の類似度が0.8のときのn番目の強識別器に対応する類似度ヒストグラム501の更新方法を示す。まず、更新前の類似度ヒストグラム501の各ビンを(1.0−α)倍する。その後、現時刻に得られた類似度0.8に相当するビンにα分の重みを足す(図5中、ビン503の斜線部分)。αは予め定められたパラメータである。αが大きいと過去の情報の影響がより早く小さくなり、αが小さいと過去の情報の影響をより長く受けるものとなる。初めて更新を行う際、すなわち類似度ヒストグラム501が空の状態の場合、得られたデータが該当するビンの値を1とする。ただし、このようにすると最初に得られたデータの影響が大きいため、更新回数が少ないうちはαを比較的大きな値に設定し、更新回数が多くなるにつれてだんだん小さな値に設定するなどしてもよい。   When it is determined whether or not an image of a person is included in the detection window area, it is determined that the cascade discriminator 320 determines “person” and the learning discriminator 330 determines “other than human”. A method of updating the similarity histogram 501 corresponding to the nth strong classifier when the similarity of the nth strong classifier is 0.8 is shown. First, each bin of the similarity histogram 501 before update is multiplied by (1.0−α). Thereafter, a weight corresponding to α is added to the bin corresponding to the similarity of 0.8 obtained at the current time (the hatched portion of the bin 503 in FIG. 5). α is a predetermined parameter. When α is large, the influence of past information is reduced earlier, and when α is small, the influence of past information is longer. When updating for the first time, that is, when the similarity histogram 501 is empty, the bin value corresponding to the obtained data is set to 1. However, since the influence of the first obtained data is large in this way, α may be set to a relatively large value while the number of updates is small, and may be set to a smaller value as the number of updates increases. Good.

識別器更新手段332は、また、カスケード型識別器320と学習識別器330の判定結果によってカスケード型識別器320の使用段数を更新する。本実施の形態では、カスケード型識別器320の使用段数を以下の[例1]に示す方針に従って変更する。   The discriminator update unit 332 also updates the number of stages used by the cascade discriminator 320 according to the determination results of the cascade discriminator 320 and the learning discriminator 330. In the present embodiment, the number of stages used in the cascade discriminator 320 is changed according to the policy shown in [Example 1] below.

[例1]
・カスケード型識別器320の判定結果と学習識別器330の判定結果とが異なる状態がある程度以上続いた場合に、使用段数44の値を1だけ増加させる。本例では、使用段数44の値を1だけ増加させているが、これに限るものではなく、増加をさせることが可能な段数であれば任意に決めてもよい。
・カスケード型識別器320において現在設定されている使用段数44の強識別器が、連続して使用されていない回数(すなわち、カスケード型識別器320の判定段数が連続して使用段数44未満である回数)を数えて、この回数が所定の閾値以上になった場合に、使用段数44の値を1だけ減少させる。ただし、使用段数44の設定値を減少させる数は、1に限らず任意に決定してもよい。
[Example 1]
When the determination result of the cascade discriminator 320 and the determination result of the learning discriminator 330 are different from each other for a certain period, the value of the used stage number 44 is increased by 1. In this example, the value of the number of used stages 44 is increased by 1. However, the present invention is not limited to this, and any number of stages that can be increased may be determined.
The number of the used stage number 44 that is currently set in the cascade classifier 320 is not continuously used (that is, the judgment stage number of the cascade type classifier 320 is continuously less than the used stage number 44). The number of used stages 44 is decreased by 1 when the number of times exceeds a predetermined threshold. However, the number by which the set value of the used stage number 44 is decreased is not limited to 1 and may be arbitrarily determined.

なお、使用段数44の初期値は、例えば、カメラを設置した直後の初期設定時に数フレーム分の入力画像を処理し、処理した際に使用した強識別器の最大段数を用いる。   Note that the initial value of the number of used stages 44 is, for example, the maximum number of stages of the strong classifier used when the input image for several frames is processed at the initial setting immediately after the camera is installed.

ここで、図1に戻って、判定手段38は、判定情報履歴40として記憶されている検出窓領域の大きさ(幅、高さ)と中心座標、学習識別器330の類似度を用いて、最終的に画像内のどこに人が写っているかを決定する。判定情報履歴40に含まれるデータの中で、学習識別器330の類似度が閾値(例えば、0.8に設定)以上の検出窓領域を人候補領域として抽出する。人候補領域がない場合は入力画像中に人領域はないということで終了する。   Here, referring back to FIG. 1, the determination means 38 uses the size (width, height) and center coordinates of the detection window region stored as the determination information history 40, and the similarity of the learning discriminator 330. Finally, determine where the person is in the image. In the data included in the determination information history 40, a detection window region whose similarity of the learning discriminator 330 is equal to or higher than a threshold (for example, set to 0.8) is extracted as a human candidate region. If there is no human candidate area, the process ends because there is no human area in the input image.

人候補領域があった場合、検出窓領域の大きさと中心座標を用いて、一定以上(例えば、検出窓領域の面積の半分以上)の領域が重なっている人候補領域を纏める。纏めた人候補領域の中で学習識別器330の類似度が一番高い検出窓領域を人領域として選択する。纏めた領域毎に選択された検出窓領域を人領域とし、出力部5に選択された検出窓領域の情報を出力する。   When there is a human candidate area, the human candidate areas that overlap a certain area (for example, more than half of the area of the detection window area) are collected using the size and center coordinates of the detection window area. The detection window region having the highest similarity of the learning discriminator 330 is selected as the human region among the grouped human candidate regions. The detection window area selected for each collected area is set as a human area, and information on the detection window area selected is output to the output unit 5.

識別器設定手段39は、検出窓制御手段32で設定された検出窓領域の位置に対応した識別器を、検出窓領域に人の画像が含まれているか否かを判定する処理で用いる識別器として設定する。例えば、識別器設定手段39は、検出窓領域の位置座標に応じて、カスケード型識別器320の使用段数44及び学習識別器330の「人以外」の類似度ヒストグラム42を設定する。当該検出窓領域の画像に対するカスケード型識別器320の類似度算出処理は識別器設定手段39が設定した使用段数44を用いて行われる。同様に、当該検出領域の画像に対する学習識別器330の類似度算出処理は識別器設定手段39が設定した「人以外」の類似度ヒストグラム42を用いて行われる。   The discriminator setting unit 39 uses the discriminator corresponding to the position of the detection window region set by the detection window control unit 32 in the process of determining whether or not a human image is included in the detection window region. Set as. For example, the discriminator setting means 39 sets the used stage number 44 of the cascade discriminator 320 and the “non-human” similarity histogram 42 of the learning discriminator 330 according to the position coordinates of the detection window region. Similarity calculation processing of the cascade discriminator 320 with respect to the image of the detection window area is performed using the number of used stages 44 set by the discriminator setting means 39. Similarly, the similarity calculation process of the learning discriminator 330 for the image in the detection area is performed using the “non-human” similarity histogram 42 set by the discriminator setting means 39.

図2の画像211を例にとり、検出窓領域に対応した識別器の設定について説明する。図2の画像211は、入力画像200に対応し、入力画像200を矩形領域で分割領域1,2,…,12に分割される。各分割領域の位置座標及び大きさは予め記憶部4に記憶させておく。さらに、記憶部4には、分割領域1,2,…,12ごとに、カスケード型識別器320の使用段数44及び学習識別器330の「人以外」の類似度ヒストグラム42が記憶される。識別器設定手段39は、検出窓領域の位置座標に対応する分割領域の「人以外」の類似度ヒストグラム42及び使用段数44を記憶部4から読み出す。カスケード型識別器320及び学習識別器330は、識別器設定手段39が記憶部4から読み出した使用段数44及び「人以外」の類似度ヒストグラム42をそれぞれ用いて各処理を行う。なお、本実施の形態では、「人」の類似度ヒストグラム42はどの分割領域でも同一のものを使用する。   Taking the image 211 in FIG. 2 as an example, the setting of the classifier corresponding to the detection window region will be described. An image 211 shown in FIG. 2 corresponds to the input image 200, and the input image 200 is divided into divided areas 1, 2,. The position coordinates and size of each divided area are stored in the storage unit 4 in advance. Further, the storage unit 4 stores, for each of the divided areas 1, 2,..., 12, the number of used stages 44 of the cascade type classifier 320 and the similarity histogram 42 of “non-human” of the learning classifier 330. The discriminator setting means 39 reads out from the storage unit 4 the similarity histogram 42 and the number of used steps 44 of “non-human” in the divided area corresponding to the position coordinates of the detection window area. The cascade discriminator 320 and the learning discriminator 330 perform each process by using the number of used stages 44 and the “non-human” similarity histogram 42 read from the storage unit 4 by the discriminator setting unit 39. In the present embodiment, the same “person” similarity histogram 42 is used for all divided regions.

また、識別器更新手段332による更新処理においても、検出窓領域の位置座標に対応する分割領域の類似度ヒストグラム42及び使用段数44を更新する。これにより、検出窓領域の位置に対応する分割領域の「人以外」の類似度ヒストグラム42を用いて入力画像200の分割領域ごとの学習識別器330が構築され、更に分割領域ごとにカスケード型識別器320の使用段数44が設定される。よって、分割領域に応じてカスケード型識別器320及び学習識別器330を最適化できる。   Also in the update process by the discriminator update means 332, the similarity histogram 42 and the number of used stages 44 of the divided areas corresponding to the position coordinates of the detection window area are updated. As a result, a learning discriminator 330 for each divided region of the input image 200 is constructed using the similarity histogram 42 of “non-human” of the divided region corresponding to the position of the detection window region, and further, cascade identification is performed for each divided region. The number of used stages 44 of the device 320 is set. Therefore, the cascade discriminator 320 and the learning discriminator 330 can be optimized according to the divided areas.

なお、入力画像200を分割する態様は図2の画像211に例示する態様に限られない。例えば、分割領域の数を図2の画像211と比較して増減させてもよいし、各分割領域の形状を矩形領域としなくてもよい。また例えば、すべての分割領域が同じ大きさを有していなくてもよい。   In addition, the aspect which divides | segments the input image 200 is not restricted to the aspect illustrated to the image 211 of FIG. For example, the number of divided areas may be increased or decreased as compared with the image 211 in FIG. 2, and the shape of each divided area may not be a rectangular area. Further, for example, all the divided regions may not have the same size.

また、識別器設定手段39は、検出窓領域の位置だけでなく、検出窓の大きさ(幅、高さ)も考慮して識別器の設定を行ってもよい。例えば、検出窓の大きさによって異なる態様で入力画像200を分割した分割領域を予め設定しておき、検出窓の大きさと各分割領域との組み合わせごとに、「人以外」の類似度ヒストグラム42及び使用段数44を記憶部4に記憶させておく。識別器設定手段39は、検出窓領域選択手段30が決定した検出窓の大きさと検出窓領域の位置座標に対応する分割領域との組み合わせに対応する「人以外」の類似度ヒストグラム42及び使用段数44を記憶部4から読み出す。そして、読み出された使用段数44及び「人以外」の類似度ヒストグラム42を用いて、カスケード型識別器320及び学習識別器330の各処理が行われる。   The discriminator setting unit 39 may set the discriminator in consideration of not only the position of the detection window region but also the size (width, height) of the detection window. For example, a divided region obtained by dividing the input image 200 in a different manner depending on the size of the detection window is set in advance, and a similarity histogram 42 of “non-human” is obtained for each combination of the size of the detection window and each divided region. The number of used stages 44 is stored in the storage unit 4. The discriminator setting means 39 includes a similarity histogram 42 of “non-human” corresponding to a combination of the size of the detection window determined by the detection window area selection means 30 and the divided area corresponding to the position coordinates of the detection window area, and the number of stages used. 44 is read from the storage unit 4. Then, each processing of the cascade type discriminator 320 and the learning discriminator 330 is performed using the read used stage number 44 and the similarity histogram 42 of “non-human”.

記憶部4は、ROMやRAM等のメモリ装置で構成される。記憶部4は、信号処理部3からアクセス可能に接続される。記憶部4は、各種プログラム、各種データを記憶することができ、信号処理部3からの要求に応じてこれらの情報を読み書きする。記憶部4は、類似度管理手段334として機能し、判定情報履歴40として検出窓領域の大きさ(幅、高さ)と中心座標及び学習識別器330の類似度の3つの情報を関連付けて記憶する。また、カスケード型識別器320に含まれる強識別器毎に、各強識別器の番号に対応付けて「人」と「人以外」の類似度ヒストグラム42を記憶する。さらに、記憶部4は、カスケード型識別器320の現在の使用段数44を記憶する。なお、類似度ヒストグラム42及び使用段数44は、入力画像200を分割した分割領域ごとに記憶される。   The storage unit 4 is configured by a memory device such as a ROM or a RAM. The storage unit 4 is connected so as to be accessible from the signal processing unit 3. The storage unit 4 can store various programs and various data, and reads and writes these pieces of information in response to requests from the signal processing unit 3. The storage unit 4 functions as the similarity management unit 334, and stores, as the determination information history 40, three pieces of information including the size (width and height) of the detection window region, the center coordinates, and the similarity of the learning discriminator 330 in association with each other. To do. For each strong classifier included in the cascade classifier 320, a similarity histogram 42 of “person” and “non-person” is stored in association with the number of each strong classifier. Further, the storage unit 4 stores the current number of used stages 44 of the cascade discriminator 320. Note that the similarity histogram 42 and the number of used stages 44 are stored for each divided region into which the input image 200 is divided.

出力部5は、報知音を出力する音響出力手段や入力画像を表示する表示手段を含んで構成することができる。判定手段38で人領域が検出された場合、スピーカー、ブザー等の音響出力手段で警報を鳴らしたり、ディスプレイ等の外部表示装置に入力画像を表示したりする。また、出力部5は、コンピュータをネットワークや電話回線に接続するためのインターフェースを含んでもよい。この場合、出力部5は、電話回線やインターネット等の情報伝達手段を介して、センタ装置(図示しない)に入力画像や人領域の情報を送出する。なお、センタ装置は、画像内の検出対象物を監視するセンタ等に設置されるホストコンピュータである。   The output unit 5 can be configured to include a sound output unit that outputs a notification sound and a display unit that displays an input image. When the determination unit 38 detects a human area, an alarm is sounded by a sound output unit such as a speaker or a buzzer, or an input image is displayed on an external display device such as a display. The output unit 5 may include an interface for connecting the computer to a network or a telephone line. In this case, the output unit 5 sends an input image and human area information to a center device (not shown) via information transmission means such as a telephone line or the Internet. The center device is a host computer installed in a center or the like that monitors a detection target in an image.

以下、物体検出装置1における処理について、図6のフローチャートを参照して説明する。   Hereinafter, the process in the object detection apparatus 1 will be described with reference to the flowchart of FIG.

ステップS10では、画像取得部2において画像を取得し、信号処理部3に画像が送信される。画像の取得タイミングは決まった時間間隔とする。   In step S <b> 10, an image is acquired by the image acquisition unit 2, and the image is transmitted to the signal processing unit 3. The image acquisition timing is a fixed time interval.

ステップS20では、検出窓領域の大きさ(幅と高さ)を決定する。検出窓領域の大きさを予め設定した複数の大きさに順次変更しつつ、各大きさの検出窓領域で画像全体を走査する。また、本実施の形態では検出窓領域は矩形としたので大きさとして幅と高さのみを決定すればよいが、検出窓領域は任意の形状であってよく、その場合には形状と大きさを決定する。この処理は検出窓領域選択手段30にて行われる。   In step S20, the size (width and height) of the detection window region is determined. The entire image is scanned with each size of the detection window region while sequentially changing the size of the detection window region to a plurality of preset sizes. In this embodiment, since the detection window region is rectangular, it is only necessary to determine the width and height as the size. However, the detection window region may have an arbitrary shape, and in that case, the shape and size are determined. To decide. This processing is performed by the detection window region selecting means 30.

ステップS30からステップS50の処理は、ステップS20で設定した検出窓領域の大きさで画像全体を走査し終わるまで繰り返す。   The processing from step S30 to step S50 is repeated until the entire image has been scanned with the size of the detection window region set in step S20.

ステップS30では、検出窓領域の位置を決定する。この処理は検出窓制御手段32で行う。この処理は、図7に示すフローチャートに沿って行われる。なお、検出窓領域の左上の座標を開始点と呼び、決定すべき検出窓領域の開始点を(SX,SY)、前回の検出窓領域の開始点を(BX,BY)とする。   In step S30, the position of the detection window area is determined. This process is performed by the detection window control means 32. This process is performed according to the flowchart shown in FIG. The upper left coordinate of the detection window area is called a start point, the start point of the detection window area to be determined is (SX, SY), and the previous start point of the detection window area is (BX, BY).

図7を参照し、ステップS301では、検出窓領域の大きさが変更されたか否かの判定を行う。検出窓領域の大きさが変更された直後の場合は、ステップS305において検出窓領域の開始点(SX,SY)を(0,0)に設定してステップS40に移行する。検出窓領域の大きさ変更後、初めての処理でない場合にはステップS302へ移行する。   Referring to FIG. 7, in step S301, it is determined whether or not the size of the detection window region has been changed. If the size of the detection window area has just been changed, the start point (SX, SY) of the detection window area is set to (0, 0) in step S305, and the process proceeds to step S40. If it is not the first process after the size of the detection window area is changed, the process proceeds to step S302.

ステップS302では、前回の検出窓領域の開始点(BX,BY)を読み出す。ステップS303では、ステップS302で読み出した前回の検出窓領域の開始点(BX,BY)から画像の右端まで走査したか否かを判定する。前記の検出窓領域で画像の右端まで走査が終了した場合、すなわち検出窓領域の右端BX+W(但し、Wは検出窓領域の幅)が画像の右端に一致した場合にはステップS306において検出窓領域の開始点を(SX,SY)=(0,BY+q)と設定し、ステップS40へ移行する。ただし、qは予め定めた定数とする。例えば、入力画像が幅320ピクセル、高さ240ピクセルの場合にはq=4ピクセルに設定する。右端まで走査していない場合にはステップS304に移行する。   In step S302, the start point (BX, BY) of the previous detection window area is read. In step S303, it is determined whether scanning has been performed from the start point (BX, BY) of the previous detection window area read in step S302 to the right end of the image. When scanning to the right edge of the image is completed in the detection window area, that is, when the right edge BX + W (W is the width of the detection window area) of the detection window area coincides with the right edge of the image, the detection window area in step S306 Is set to (SX, SY) = (0, BY + q), and the process proceeds to step S40. However, q is a predetermined constant. For example, when the input image has a width of 320 pixels and a height of 240 pixels, q = 4 pixels is set. If not scanned to the right end, the process proceeds to step S304.

ステップS304では、X方向に検出窓領域をpピクセルずらし、Y方向にはずらさないように検出窓領域の開始点(SX,SY)を決定する。すなわち、検出窓領域の開始点(SX,SY)=(BX+p,BY)とする。ただし、pは予め定めた定数とする。例えば、入力画像が幅320ピクセル、高さ240ピクセルの場合にはp=4ピクセルに設定する。その後、ステップS35(図6)に移行する。   In step S304, the detection window region start point (SX, SY) is determined so as to shift the detection window region by p pixels in the X direction and not in the Y direction. That is, the detection window region start point (SX, SY) = (BX + p, BY). However, p is a predetermined constant. For example, when the input image has a width of 320 pixels and a height of 240 pixels, p = 4 pixels is set. Thereafter, the process proceeds to step S35 (FIG. 6).

ステップS35では、識別器設定手段39は、検出窓領域の位置に対応した識別器を設定する。本実施の形態では、入力画像200を予め分割した分割領域のうち検出窓領域の位置座標に対応する分割領域について記憶部4に記憶された「人以外」の類似度ヒストグラム42及び使用段数44を記憶部4から読み出す。また、「人」の類似度ヒストグラム42については検出窓領域の位置座標によらず共通のものを記憶部4から読み出す。   In step S35, the classifier setting unit 39 sets a classifier corresponding to the position of the detection window region. In the present embodiment, the “non-human” similarity histogram 42 and the number of used steps 44 stored in the storage unit 4 for the divided areas corresponding to the position coordinates of the detection window area among the divided areas obtained by dividing the input image 200 in advance. Read from the storage unit 4. The similarity histogram 42 of “people” is read from the storage unit 4 regardless of the position coordinates of the detection window region.

なお、以下の説明において、「人以外」の類似度ヒストグラム42及び使用段数44について述べる場合、特に断りがなければ現在の検出窓領域の位置座標に対応する分割領域についての「人以外」の類似度ヒストグラム42及び使用段数44を指すこととする。   In the following description, when describing the similarity histogram 42 and the number of used stages 44 of “non-human”, the similarity of “non-human” with respect to the divided area corresponding to the position coordinates of the current detection window area unless otherwise specified. The degree histogram 42 and the number of used stages 44 are indicated.

ステップS40では、ステップS30にて設定された検出窓領域内の画像がどれだけ人に似ているかを示す類似度を求める。これは、図3に示したカスケード型識別器320及び学習識別器330の識別処理である。識別処理について図8のフローチャートを用いて説明する。   In step S40, a similarity indicating how much the image in the detection window region set in step S30 resembles a person is obtained. This is the discrimination processing of the cascade type discriminator 320 and the learning discriminator 330 shown in FIG. The identification process will be described with reference to the flowchart of FIG.

ステップS401では、現在の検出窓領域からHOG特徴量を計算する。ただし、この処理はステップS10とステップS20との間で、入力画像の各ピクセルのエッジの強度と角度を計算し、エッジの角度毎のインテグラル画像を作成しておくことでより高速に計算することが可能になる。   In step S401, the HOG feature amount is calculated from the current detection window region. However, this process is faster between steps S10 and S20 by calculating the edge strength and angle of each pixel of the input image and creating an integral image for each edge angle. It becomes possible.

ステップS402からステップS405がカスケード型識別器320の処理である。ステップS402では、使用段数44の値が表す段数分の強識別器を調査し終わったか否かの判定を行う。使用段数44の段数分の強識別器で調査し終わった場合はステップS406に移行し、終わっていない場合にはステップS403に移行し、次の強識別器での調査を行う。ステップS403では、検出窓領域内の画像が人に似ているか否かを判定するための類似度を計算する。   Steps S <b> 402 to S <b> 405 are processing of the cascade discriminator 320. In step S402, it is determined whether or not the number of strong discriminators for the number of stages represented by the value of the used stage number 44 has been investigated. When the investigation is completed with the strong classifiers for the number of used stages 44, the process proceeds to step S406, and when not completed, the process proceeds to step S403, and the next strong classifier is investigated. In step S403, the similarity for determining whether the image in the detection window area is similar to a person is calculated.

ステップS404では、ステップS403において計算した類似度を判定した強識別器の番号と共に一時的な記憶領域に記憶する。これはステップS407における学習識別器330での類似度計算やステップS50の更新処理にて用いられる。   In step S404, the similarity calculated in step S403 is stored in the temporary storage area together with the number of the strong classifier that has been determined. This is used in similarity calculation in the learning discriminator 330 in step S407 and update processing in step S50.

ステップS405では、ステップS403において計算した類似度が予め設定した閾値より大きいか否かを判定する。閾値より大きい場合にはステップS402に移行し、閾値以下の場合には、後述する学習識別器330の類似度をステップS501の閾値以下として記憶させ、ステップS50に移行する。   In step S405, it is determined whether the similarity calculated in step S403 is greater than a preset threshold value. If it is larger than the threshold value, the process proceeds to step S402. If it is equal to or smaller than the threshold value, the similarity of a learning discriminator 330 described later is stored as being equal to or smaller than the threshold value in step S501, and the process proceeds to step S50.

ステップS406からS408が学習識別器330の処理である。ステップS406では、カスケード型識別器320の判定段数までの強識別器の類似度ヒストグラム42の中で、更新回数が基準値以上である「人以外」の類似度ヒストグラム42を抽出する。これは、更新回数が少ない類似度ヒストグラム42を使用すると、学習識別器330で算出される類似度の信頼性が低くなるためである。そこで、基準値以上更新されている類似度ヒストグラム42と、それに対応するステップS404で記憶された強識別器の類似度を用いて学習識別器330での類似度を算出する。   Steps S406 to S408 are processing of the learning discriminator 330. In step S406, among the similarity histograms 42 of the strong classifiers up to the number of determination stages of the cascade classifier 320, the similarity histogram 42 of “non-human” whose update count is equal to or greater than the reference value is extracted. This is because if the similarity histogram 42 with a small number of updates is used, the reliability of the similarity calculated by the learning discriminator 330 becomes low. Therefore, the similarity in the learning discriminator 330 is calculated using the similarity histogram 42 updated more than the reference value and the corresponding similarity of the strong discriminator stored in step S404.

ステップS407では、学習識別器330にて類似度を計算する。類似度の計算は数式(1)のP(人|S)を用いる。ステップS408では、ステップS407で算出された類似度を検出窓領域の大きさ(幅と高さ)と中心座標とに関連付けて判定情報履歴40として記憶部4に記憶し、ステップS50へ移行する。   In step S407, the learning discriminator 330 calculates the similarity. The similarity is calculated using P (person | S) in the formula (1). In step S408, the similarity calculated in step S407 is stored in the storage unit 4 as the determination information history 40 in association with the size (width and height) of the detection window region and the center coordinates, and the process proceeds to step S50.

ステップS50では、類似度ヒストグラム42及び使用段数44の更新処理を行う。これは識別器更新手段37にてなされる。更新処理は、図9のフローチャートに沿って行われる。ステップS501からステップS502までが類似度ヒストグラム42の更新処理であり、ステップS504以降が使用段数44の更新処理である。なお、本実施の形態では、類似度ヒストグラム42の更新処理において、「人以外」の類似度ヒストグラム42を更新し、「人」の類似度ヒストグラム42は更新しない。   In step S50, the similarity histogram 42 and the number of used stages 44 are updated. This is done by the discriminator update means 37. The update process is performed according to the flowchart of FIG. Steps S501 to S502 are the updating process of the similarity histogram 42, and the processes after step S504 are the updating process of the number of used stages 44. In the present embodiment, in the update process of the similarity histogram 42, the similarity histogram 42 of “non-person” is updated, and the similarity histogram 42 of “person” is not updated.

ステップS501では、ステップS407にて学習識別器330で算出された類似度が閾値より大きい場合は「人」である可能性が高いので類似度ヒストグラム42の更新処理は行わず、ステップS508へ移行する。   In step S501, if the similarity calculated by the learning discriminator 330 in step S407 is larger than the threshold value, it is highly likely that the person is “person”, so the similarity histogram 42 is not updated, and the process proceeds to step S508. .

ステップS502では、カスケード型識別器320に含まれる各強識別器に対応する「人以外」の類似度ヒストグラム42を図8のステップS404にて記憶した類似度にて更新する。したがって、今回判定に使用した強識別器に対応する類似度ヒストグラム42のみが更新される。ここでは、「人以外」の類似度ヒストグラム42を更新する。更新方法は、上述の識別器更新手段332の説明の通りである。更新処理後、ステップS504へ移行する。   In step S502, the “non-human” similarity histogram 42 corresponding to each strong classifier included in the cascade classifier 320 is updated with the similarity stored in step S404 of FIG. Accordingly, only the similarity histogram 42 corresponding to the strong classifier used for the current determination is updated. Here, the similarity histogram 42 of “non-human” is updated. The update method is as described above for the classifier update means 332. After the update process, the process proceeds to step S504.

ステップS504において、現在設定されている使用段数44に対応する強識別器が連続して未使用である回数(以下、「連続未使用回数」と呼ぶ)のチェックを行う。連続未使用回数が予め設定された閾値Tun回より大きい場合は、ステップS509において使用段数44の設定値を1だけ減少させる。閾値Tun以下の場合、ステップS505へ移行する。なお、本実施の形態では、現在設定されている使用段数44に対応する強識別器が未使用である連続回数に基づき「1」だけ使用段数44を減少させているが、現在設定されている使用段数44までの各段における強識別器個々の未使用回数が閾値Tun回より大きい強識別器の数だけ使用段数44の設定値を減少させてもよい。   In step S504, the number of times that the strong classifier corresponding to the currently used number of used stages 44 is continuously unused (hereinafter referred to as “continuous unused number of times”) is checked. If the number of consecutive unused times is larger than the preset threshold value Tun times, the set value of the number of used stages 44 is decreased by 1 in step S509. If it is equal to or less than the threshold value Tun, the process proceeds to step S505. In the present embodiment, the number of used stages 44 is decreased by “1” based on the number of consecutive times that the strong classifier corresponding to the currently set used stage number 44 is unused, but is currently set. The set value of the used stage number 44 may be decreased by the number of strong classifiers in which the number of unused individual classifiers in each stage up to the used stage number 44 is larger than the threshold Tun times.

ステップS505において、判定回数が閾値Tjc回より大きく、かつ不一致回数が閾値Terより大きく、かつ現在の使用段数44の値が予め記憶部4に記憶された強識別器の最大番号でない場合は、ステップS506において使用段数44の設定値を1だけ増加させる。ここで、判定回数は、使用段数44が更新されてからカスケード型識別器320で判定処理を行った回数を表す。また、不一致回数は、カスケード型識別器320の判定結果と学習識別器330の判定結果とが不一致である回数である。   If it is determined in step S505 that the number of determinations is greater than the threshold Tjc, the number of mismatches is greater than the threshold Ter, and the value of the current used stage number 44 is not the maximum number of the strong classifier stored in the storage unit 4 in advance, In S506, the set value of the number of used stages 44 is increased by 1. Here, the number of times of determination represents the number of times that the determination processing is performed by the cascade type discriminator 320 after the use stage number 44 is updated. Further, the number of mismatches is the number of times that the determination result of the cascade discriminator 320 and the determination result of the learning discriminator 330 do not match.

不一致回数は、例えば、使用段数44が更新されてからカスケード型識別器320で行われた判定処理のうち、以下の[例2]に示す基準で「不一致」とされた回数であってよい。   The number of mismatches may be, for example, the number of times “mismatch” is made according to the criteria shown in the following [Example 2] in the determination process performed by the cascade type discriminator 320 after the use stage number 44 is updated.

[例2]
・カスケード型識別器320で「人以外」と判定
→ 一致(本実施の形態では、カスケード型識別器320で「人以外」と判定した場合、学習識別器330で判定は行わないが、この場合は一致したとする。)
・カスケード型識別器320で「人」と判定かつ学習識別器330で「人」と判定
→ 一致
・カスケード型識別器320で「人」と判定かつ学習識別器330で「人以外」と判定
→ 不一致
[Example 2]
-Cascade type discriminator 320 determines "other than person" → matches (In this embodiment, when cascade type discriminator 320 determines "other than human", learning discriminator 330 does not make a determination, but in this case Is a match.)
-Cascade discriminator 320 determines "person" and learning discriminator 330 determines "person" → matches-Cascade discriminator 320 determines "person" and learning discriminator 330 determines "other than human" → Disagreement

なお、連続未使用回数、判定回数、及び不一致回数の各値は、現在の検出窓領域の位置座標に対応する分割領域の使用段数44に関連づけて記憶部4に記憶され、識別器更新手段37は、記憶部4を参照して各値の読み出し及び変更(後述)を行う。ステップS505において条件が満たされない場合、ステップS508へ移行する。   Note that the values of the continuous unused count, the determination count, and the mismatch count are stored in the storage unit 4 in association with the number of used steps 44 of the divided region corresponding to the current position coordinates of the detection window region, and the discriminator update means 37 Reads out and changes (described later) each value with reference to the storage unit 4. If the condition is not satisfied in step S505, the process proceeds to step S508.

ステップS507では、ステップS506またはステップS509において使用段数44の値が更新された後、判定回数、連続未使用回数及び不一致回数をそれぞれ0にセットする初期化を行い、ステップS60へ移行する。   In step S507, after the value of the number of used stages 44 is updated in step S506 or step S509, initialization is performed to set the number of determinations, the number of consecutive unused times, and the number of mismatches to 0, respectively, and the process proceeds to step S60.

ステップS508は、使用段数44の値の更新がない場合に行われる処理である。ステップS508では、判定回数を1増加させ、連続未使用回数については、判定段数と使用段数44とが一致すれば初期化(0にセット)し、そうでなければ1増加させる。また、今回のカスケード型識別器320と学習識別器330の判定結果が不一致であれば不一致回数を1増加させ、そうでなければ不一致回数の値を変更しない。ステップS508の後ステップS60へ移行する。   Step S508 is processing performed when the value of the number of used stages 44 is not updated. In step S508, the determination count is incremented by 1, and the continuous unused count is initialized (set to 0) if the determination step count and the use step count 44 match, and if not, it is incremented by one. In addition, if the determination results of the current cascade type discriminator 320 and the learning discriminator 330 do not match, the number of mismatches is incremented by 1. Otherwise, the value of the number of mismatches is not changed. After step S508, the process proceeds to step S60.

再び図6を参照し、ステップS60では、すべての大きさの検出窓領域について検出処理が終了したか否かを判定する。すべての大きさの検出窓領域について調査が終わった場合はステップS70に処理を移行させ、そうでない場合はステップS20に処理を戻す。   Referring to FIG. 6 again, in step S60, it is determined whether or not the detection process has been completed for detection window regions of all sizes. If the inspection is completed for all detection window regions, the process proceeds to step S70, and if not, the process returns to step S20.

ステップS70では、ステップS50で求めた判定情報履歴40に記憶されている各検出窓領域の大きさ(幅と高さ)と中心座標及び学習識別器330の類似度から最終的に人が写っている位置を決定する。この処理は判定手段38でなされる。判定処理は、図10のフローチャートに沿って行われる。   In step S70, a person is finally captured from the size (width and height) of each detection window region stored in the determination information history 40 obtained in step S50, the center coordinates, and the similarity of the learning discriminator 330. Determine the position. This processing is performed by the determination means 38. The determination process is performed according to the flowchart of FIG.

ステップS701〜S702の処理はステップS50で求めた判定情報履歴40として記憶されているすべての検出窓領域について行う。ステップS701では、学習識別器330で求められた学習識別器330の類似度が閾値より大きいか否かを判定し、条件を満たす場合にはステップS702に移行し、そうでない場合には次の検出窓領域について判定を行う。ステップS702では、ステップS701で条件を満たした検出窓領域を人候補領域に追加する。   The processing of steps S701 to S702 is performed for all detection window regions stored as the determination information history 40 obtained in step S50. In step S701, it is determined whether or not the similarity of the learning discriminator 330 obtained by the learning discriminator 330 is greater than a threshold value. If the condition is satisfied, the process proceeds to step S702. Otherwise, the next detection is performed. Judge the window area. In step S702, the detection window area that satisfies the condition in step S701 is added to the human candidate area.

判定情報履歴40に記憶された情報に対してステップS701〜S702を繰り返すことで求められた人候補領域は、図2に示すように、人が写っている領域の近くに領域203,204のように複数抽出される場合がある。ステップS703〜S705では、複数の人候補領域から人領域を最終的に選択する。   As shown in FIG. 2, candidate candidate areas obtained by repeating steps S701 to S702 on the information stored in the determination information history 40 are areas 203 and 204 near the area where the person is shown. May be extracted multiple times. In steps S703 to S705, a human region is finally selected from a plurality of human candidate regions.

ステップS703では、人候補領域として抽出された検出窓領域の大きさと中心座標を用いて、一定以上(例えば、検出窓領域の面積の半分以上)の領域が重なっている人候補領域をグループとして纏める。ステップS704では、ステップS703で作成されたグループ毎に人候補領域の中で学習識別器330の類似度が一番高い検出窓領域を人領域として選択する。ステップS705では、ステップS704で選択された検出窓領域を人領域とし、ステップS80に移行する。   In step S703, using the size and center coordinates of the detection window area extracted as the human candidate area, the human candidate areas that overlap a certain area (for example, more than half the area of the detection window area) are grouped together. . In step S704, the detection window region having the highest similarity of the learning discriminator 330 is selected as a human region among the human candidate regions for each group created in step S703. In step S705, the detection window area selected in step S704 is set as a human area, and the process proceeds to step S80.

ステップS80では、ステップS70において判定された人領域を基に、人領域が1つでもあれば、判定された人領域の検知窓情報を画像と共に異常信号として出力する。この処理は出力部5にてなされる。   In step S80, if there is at least one human area based on the human area determined in step S70, the detection window information of the determined human area is output as an abnormal signal together with the image. This processing is performed by the output unit 5.

監視カメラ設置時の初期設定の処理について以下に説明する。初期設定時には、監視カメラの撮像領域内に人がいないという仮定のもと、入力画像の分割領域ごとに、各強識別器に対応する「人以外」の類似度ヒストグラム42の登録及び使用段数44の初期値の登録を行う。初期設定処理は、監視カメラを設置してから予め定めた枚数の画像を処理して終了するものとする。   The initial setting process when the surveillance camera is installed will be described below. At the time of initial setting, on the assumption that there is no person in the imaging area of the surveillance camera, for each divided area of the input image, the similarity histogram 42 of “non-person” corresponding to each strong classifier 42 and the number of stages used 44 are used. Register the initial value of. It is assumed that the initial setting process is completed after a predetermined number of images are processed after the monitoring camera is installed.

初期設定処理は、図6の検知処理時のフローチャートにおいてステップS70及びS80を除き、ステップS40及びS50を若干変更した処理となる。また、ステップS40及びS50の処理は、相違点のみを説明する。   The initial setting process is a process in which steps S40 and S50 are slightly changed except for steps S70 and S80 in the flowchart of the detection process in FIG. In addition, only differences between the processes of steps S40 and S50 will be described.

ステップS40では、図8においてステップS401からS405までの処理を行い、ステップS402の判定結果がYESである場合はステップS406〜S408の処理を行わず、ステップS50へ移行する。なお、初期設定時には使用段数44が決まっていないため、ステップS402では、予め記憶部4に記憶された使用可能な強識別器の個数の最大値(すなわち、強識別器の最大番号)を使用段数として用いて判定処理を行う。   In step S40, the process from step S401 to S405 in FIG. 8 is performed. If the determination result in step S402 is YES, the process proceeds to step S50 without performing the process in steps S406 to S408. Since the number of used stages 44 is not determined at the time of initial setting, in step S402, the maximum number of usable strong classifiers (ie, the maximum number of strong classifiers) stored in advance in the storage unit 4 is used. Is used as a determination process.

初期設定時の識別器更新処理(ステップS50)について、図11を用いて説明する。   The discriminator update process (step S50) at the time of initial setting will be described with reference to FIG.

ステップS551において、ステップS40において得られた判定段数までの強識別器の類似度を用いて、対応する強識別器の「人以外」の類似度ヒストグラム42を更新する。更新処理後、ステップS552へ移行する。   In step S551, the similarity histogram 42 of “non-human” of the corresponding strong classifier is updated using the similarity of the strong classifier up to the number of determination stages obtained in step S40. After the update process, the process proceeds to step S552.

ステップS552では、今回の処理がカスケード型識別器320における初めての判定処理であるか否かのチェックを行い、初めての判定処理であれば、ステップS554において、今回の判定段数を使用段数44として記憶部4に記憶させる。初めての判定ではない場合はステップS553へ移行する。   In step S552, it is checked whether or not the current process is the first determination process in the cascade discriminator 320. If it is the first determination process, the current determination stage number is stored as the used stage number 44 in step S554. Store in part 4. If it is not the first determination, the process proceeds to step S553.

ステップS553で、今回の判定段数が記憶部4に記憶された使用段数44の値より大きければ、ステップS554において今回の判定段数を使用段数44として記憶部4に記憶させる。今回の判定段数が記憶された使用段数44の値以下の場合、処理はステップS60に移行する。   In step S553, if the current determination step number is larger than the value of the used step number 44 stored in the storage unit 4, the current determination step number is stored in the storage unit 4 as the use step number 44 in step S554. If the current determination step number is less than or equal to the stored use step number 44 value, the process proceeds to step S60.

ステップS552〜S554の処理により、初期設定が完了したカスケード型識別器320で使用された強識別器の段数の最大値が使用段数44の初期値として設定される。   By the processing of steps S552 to S554, the maximum value of the number of stages of the strong classifier used in the cascade type classifier 320 for which the initial setting has been completed is set as the initial value of the used stage number 44.

上述の実施の形態では、物体検出装置1の各部の機能を1つのコンピュータで実現する態様を説明したがこれに限定されるものではない。物体検出装置1の各部の機能は一般的なコンピュータをプログラムにより制御することによって実現できるものであり、これらの装置の各機能を適宜組み合わせて1つのコンピュータで処理させてもよいし、各機能をネットワーク等で接続された複数のコンピュータで分散処理させてもよい。   In the above-described embodiment, the mode in which the function of each unit of the object detection device 1 is realized by one computer has been described, but the present invention is not limited to this. The functions of each part of the object detection device 1 can be realized by controlling a general computer by a program, and the functions of these devices may be appropriately combined and processed by a single computer. Distributed processing may be performed by a plurality of computers connected via a network or the like.

1 物体検出装置、2 画像取得部、3 信号処理部、4 記憶部、5 出力部、30 検出窓領域選択手段、32 検出窓制御手段、34 固定識別器、36 学習識別器、37 識別器更新手段、38 判定手段、39 識別器設定手段、40 判定情報履歴、42 類似度ヒストグラム、44 使用段数、310 検出窓切出手段、320 カスケード型識別器、321,322,323 強識別器、330 学習識別器、332 識別器更新手段、334 類似度管理手段。   DESCRIPTION OF SYMBOLS 1 Object detection apparatus, 2 Image acquisition part, 3 Signal processing part, 4 Memory | storage part, 5 Output part, 30 Detection window area | region selection means, 32 Detection window control means, 34 Fixed discriminator, 36 Learning discriminator, 37 Discriminator update Means, 38 judging means, 39 discriminator setting means, 40 judgment information history, 42 similarity histogram, 44 number of stages used, 310 detection window cutting means, 320 cascade type discriminator, 321, 322, 323 strong discriminator, 330 learning Classifier, 332 Classifier update means, 334 similarity management means.

Claims (4)

監視領域を撮影した画像から検出対象物を検出する物体検出装置であって、
前記画像を取得する画像取得部と、
前記画像取得部から入力された前記画像において順次設定される検出窓から検出窓領域画像を取り込む検出窓領域選択手段と、
前記検出窓の設定位置に対応する識別器を設定する識別器設定手段と、
前記検出窓領域画像に検出対象物が存在するか否かを判定する強識別器を直列に複数段接続したカスケード型識別器を有する前記識別器と、
前記識別器設定手段にて設定している識別器を、前記強識別器を用いない段がある場合に前記カスケード型識別器の使用段数を減少させて更新する識別器更新手段と、
を有することを特徴とした物体検出装置。
An object detection device for detecting a detection target from an image obtained by photographing a monitoring area,
An image acquisition unit for acquiring the image;
A detection window region selection means for capturing a detection window region image from detection windows sequentially set in the image input from the image acquisition unit;
A discriminator setting means for setting a discriminator corresponding to the set position of the detection window;
The discriminator having a cascade type discriminator in which a plurality of strong discriminators that determine whether or not a detection target exists in the detection window region image is connected in series .
A discriminator updating unit configured to update the discriminator set by the discriminator setting unit by reducing the number of used stages of the cascade discriminator when there is a stage not using the strong discriminator ;
An object detection device characterized by comprising:
前記識別器は、前記監視領域を撮影した画像から前記検出窓の設定位置に応じて学習した情報を用いて前記検出窓領域画像に検出対象物が存在するか否かを判定する学習識別器を前記カスケード型識別器の後段に有し、
前記識別器更新手段は、前記カスケード型識別器の判定結果と前記学習識別器の判定結果とが一致しない場合に前記カスケード型識別器の使用段数を増加させることを特徴とした請求項に記載の物体検出装置。
The discriminator includes a learning discriminator that determines whether or not a detection target exists in the detection window region image using information learned according to a set position of the detection window from an image obtained by photographing the monitoring region. It has in the latter part of the cascade type discriminator,
The identifier update unit, according to claim 1, characterized in that increasing the number of used stages of the cascade classifier when the judgment result of the cascade classifier and a determination result of the learning classifier does not match Object detection device.
前記識別器は、前記監視領域を撮影した画像から前記検出窓の設定位置に応じて学習した情報を用いて前記検出窓領域画像に検出対象物が存在するか否かを判定する学習識別器を前記カスケード型識別器の後段に有し、
前記識別器更新手段は、前記検出窓領域画像を用いて前記学習識別器の学習を行うことを特徴とした請求項1に記載の物体検出装置。
The discriminator, determining learning classifier whether the detection target in the detection window region image exists by using the information learned in accordance with the set position of the detection window from images taken the monitoring area It has in the latter part of the cascade type discriminator ,
2. The object detection apparatus according to claim 1, wherein the classifier update unit performs learning of the learning classifier using the detection window region image.
順次設定される前記検出窓の設定位置は、予め前記画像を複数の領域に分割した分割領域のいずれかに対応させられ、
前記識別器設定手段は、前記検出窓の設定位置に対応する前記分割領域ごとに同一の前記識別器を設定することを特徴とした請求項1乃至請求項の何れか一項に記載の物体検出装置。

The setting position of the detection window set sequentially is associated with any of the divided areas obtained by dividing the image into a plurality of areas in advance.
The identifier setting means, the object according to any one of the detection window claims 1 to to and sets the same the classifier for each of the divided areas corresponding to the set position of the 3 Detection device.

JP2009010029A 2009-01-20 2009-01-20 Object detection device Expired - Fee Related JP5253194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009010029A JP5253194B2 (en) 2009-01-20 2009-01-20 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009010029A JP5253194B2 (en) 2009-01-20 2009-01-20 Object detection device

Publications (2)

Publication Number Publication Date
JP2010170199A JP2010170199A (en) 2010-08-05
JP5253194B2 true JP5253194B2 (en) 2013-07-31

Family

ID=42702316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009010029A Expired - Fee Related JP5253194B2 (en) 2009-01-20 2009-01-20 Object detection device

Country Status (1)

Country Link
JP (1) JP5253194B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6160196B2 (en) 2013-04-15 2017-07-12 オムロン株式会社 Discriminator update device, discriminator update program, information processing device, and discriminator update method
JP6197952B2 (en) 2014-05-12 2017-09-20 富士通株式会社 Product information output method, product information output program and control device
EP3259737B1 (en) * 2015-02-18 2020-04-15 Siemens Healthcare Diagnostics Inc. Locality-based detection of tray slot types and tube types in a vision system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309920A (en) * 2004-04-23 2005-11-04 Alliance Group Inc Majority vote device, its learning method and multi-class identification device
JP4807170B2 (en) * 2006-07-10 2011-11-02 株式会社ニコン Pattern detection method, pattern detection program, pattern detection apparatus, and imaging apparatus

Also Published As

Publication number Publication date
JP2010170199A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
CN110660066B (en) Training method of network, image processing method, network, terminal equipment and medium
JP5385182B2 (en) Object detection device
JP5137863B2 (en) Object detection device
CN107111872B (en) Information processing apparatus, information processing method, and storage medium
KR101033098B1 (en) Apparatus for Realtime Face Detection
US8488878B2 (en) Sky detection system used in image extraction device and method using sky detection system
US20180300885A1 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
EP3430897A1 (en) Monitoring device, monitoring method, and monitoring program
JP6095817B1 (en) Object detection device
JP5264457B2 (en) Object detection device
KR20170038144A (en) Attention detection apparatus and attention detection method
US20210142064A1 (en) Image processing apparatus, method of processing image, and storage medium
KR20150136225A (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JP5253195B2 (en) Object detection device
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP5253194B2 (en) Object detection device
JP2006222899A (en) Image processing apparatus and image processing method
JP5137862B2 (en) Object detection device
CN107958202B (en) Human body detection apparatus, control method of human body detection apparatus, and storage medium
JP7243372B2 (en) Object tracking device and object tracking method
JP2019061407A (en) Object detection device
US20190279477A1 (en) Monitoring system and information processing apparatus
JP2007004721A (en) Object detecting device and object detecting method
JP6855175B2 (en) Image processing equipment, image processing methods and programs
JP6784254B2 (en) Retained object detection system, retained object detection method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Ref document number: 5253194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees