JP2011210181A - Learning device and object detection device - Google Patents
Learning device and object detection device Download PDFInfo
- Publication number
- JP2011210181A JP2011210181A JP2010079656A JP2010079656A JP2011210181A JP 2011210181 A JP2011210181 A JP 2011210181A JP 2010079656 A JP2010079656 A JP 2010079656A JP 2010079656 A JP2010079656 A JP 2010079656A JP 2011210181 A JP2011210181 A JP 2011210181A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- image
- learning
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、入力画像中に撮像されている対象物を検知する対象物検知装置、及びその学習に用いる学習装置に関する。 The present invention relates to an object detection device that detects an object imaged in an input image, and a learning device used for learning thereof.
近年、監視カメラの画像やデジタルスチルカメラの画像から人や顔などの存在を検知する研究が盛んに行われている。検知処理には、パターンマッチング装置や識別器による探索的手法が用いられる。すなわち、画像内の各所に窓を設定して各窓画像をパターンマッチング装置や識別器に入力し、これらが出力する検出結果を集計して集計値が高い位置に対象物を検知する。 In recent years, active research has been conducted to detect the presence of people, faces, and the like from images from surveillance cameras and digital still cameras. In the detection process, a search method using a pattern matching device or a classifier is used. That is, windows are set at various locations in the image, the window images are input to a pattern matching device and a discriminator, and the detection results output by these are totaled to detect an object at a position where the total value is high.
画像の対象物はその全体が撮像されているとは限らず、対象物の一部が他の物体に隠蔽されている場合もある。一部隠蔽状態にある対象物を検知するために、従来、対象物を複数の部位に分けて各部位を検出し、それら部位の検出結果を統合判定することが行われている。 The object of the image is not necessarily captured as a whole, and a part of the object may be concealed by another object. In order to detect an object in a partially concealed state, conventionally, the object is divided into a plurality of parts, each part is detected, and the detection results of these parts are integrally determined.
例えば、特許文献1に記載の従来技術では、比較的小さな所定サイズのブロックを対象物の部位として設定する。また対象物である人について頭・胴・脚というように比較的大きな部位を設定する従来技術がある。
For example, in the prior art described in
従来技術における部位の設定は、部位の大きさにより生じる検出の信頼性と隠蔽耐性とのトレードオフを考慮せずに行われていた。 The site setting in the prior art has been performed without considering the tradeoff between detection reliability and concealment resistance caused by the size of the site.
すなわち部位を大きくした場合、当該部位が検出できた場合には検出結果の信頼性が高いが、当該部位が隠蔽を受け易くなるため隠蔽耐性が低くなり、検出漏れが生じる可能性が高くなるという問題がある。 That is, when the part is enlarged, the reliability of the detection result is high when the part can be detected, but the part is easy to be concealed, so the concealment resistance is low and the possibility of detection omission increases. There's a problem.
逆に、部位を小さくした場合には、隠蔽を受けにくくなり当該部位の検出漏れは減るが、マッチング等に用いる情報が少なくなる分、当該部位以外の像との間で偶発的に検出が成立する誤検出の可能性が高くなり、検出結果の信頼性が低くなるという問題がある。 Conversely, if the part is made smaller, concealment is difficult and detection omission of the part is reduced, but detection by chance is established with an image other than the part because information used for matching is reduced. There is a problem that the possibility of erroneous detection increases and the reliability of the detection result decreases.
また信頼性と大きさとの関係は検知対象物の部位によって異なる。そのため従来の部位設定では、各部位の検出結果が一律な信頼性を有さず、隠蔽状況によって統合判定の信頼性が変わるという問題があった。 Further, the relationship between reliability and size differs depending on the part of the detection target. Therefore, in the conventional part setting, there is a problem that the detection result of each part does not have uniform reliability, and the reliability of the integrated determination changes depending on the concealment situation.
以上のように、従来技術においては、検出の信頼性と隠蔽耐性とのトレードオフを考慮せずに部位の大きさが設定されていたために、一部隠蔽状態にある対象物を高精度に検知することが難しかった。 As described above, in the conventional technology, the size of the part is set without considering the trade-off between detection reliability and concealment tolerance, so a target that is partially concealed can be detected with high accuracy. It was difficult to do.
本発明は上記問題点を解決するためになされたものであり、一部隠蔽状態にある対象物を高精度に検知できる対象物検知装置、及び当該対象物検知装置の構築に用いる学習装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides an object detection device capable of detecting an object in a partially concealed state with high accuracy, and a learning device used for constructing the object detection device. The purpose is to do.
本発明に係る学習装置は、対象物の検知に用いられる当該対象物の部位の情報を生成するものであって、前記対象物の標本画像及び非対象物の標本画像を予め記憶している標本画像記憶部と、前記標本画像内に所定の部位基準点を設定すると共に、当該部位基準点を内包し大きさが互いに異なる部位を順次生成する部位候補生成部と、前記部位ごとに、前記標本画像のうち少なくとも前記対象物の標本画像における当該部位の画像特徴を用いて当該部位の有無を識別するための識別基準を学習する学習部と、前記各部位の前記識別基準により前記各標本画像における当該部位の有無を識別して識別率を求め、前記識別率が所定の目標値を超える部位を有効と判定する識別率判定部と、前記識別率判定部により有効と判定された前記部位のうち前記大きさが最小の部位と、当該部位の前記識別基準とを含めた部位情報を生成する部位情報生成部と、を備える。 A learning apparatus according to the present invention generates information on a part of an object used for detection of the object, and stores a sample image of the object and a sample image of a non-object in advance. An image storage unit, a region candidate generation unit that sets a predetermined region reference point in the specimen image, sequentially generates regions that include the region reference point and have different sizes, and the sample for each region A learning unit that learns an identification criterion for identifying the presence / absence of the part using at least an image feature of the part in the specimen image of the object in the image, and each specimen image according to the identification reference of each part An identification rate determination unit that determines the identification rate by identifying the presence / absence of the region, determines that the region where the identification rate exceeds a predetermined target value is valid, and among the regions determined to be effective by the identification rate determination unit It comprises the minimum of site serial magnitude, the site information generating unit that generates a site information including said identification criteria of the site, the.
他の本発明に係る学習装置においては、前記部位候補生成部が、前記部位基準点を囲む前記大きさの標本枠を設定して当該標本枠内の一部領域又は全部領域を前記部位として生成する。 In another learning device according to the present invention, the part candidate generation unit sets a sample frame of the size surrounding the part reference point, and generates a partial region or a whole region in the sample frame as the part. To do.
別の本発明に係る学習装置においては、前記部位候補生成部が、前記画像特徴の分析単位である局所領域を前記標本画像内に複数設定して前記標本枠が囲む前記局所領域の個数を増減させることにより前記大きさを制御し、当該標本枠が囲む前記局所領域の集まりを前記部位として生成する。 In another learning device according to the present invention, the part candidate generation unit sets a plurality of local regions, which are analysis units of the image features, in the sample image, and increases or decreases the number of the local regions surrounded by the sample frame. Thus, the size is controlled, and a collection of the local regions surrounded by the sample frame is generated as the part.
本発明に係る学習装置の好適な態様においては、前記部位候補生成部が、前記標本画像を予め定められた等間隔で細分して前記局所領域を設定する。 In a preferred aspect of the learning apparatus according to the present invention, the region candidate generation unit subdivides the sample image at predetermined equal intervals to set the local region.
本発明に係る学習装置の他の好適な態様においては、前記部位候補生成部が、前記対象物の標本画像から前記対象物の特徴点を複数抽出し、当該各特徴点が抽出された位置に前記局所領域を設定する。 In another preferred aspect of the learning apparatus according to the present invention, the part candidate generation unit extracts a plurality of feature points of the target object from the sample image of the target object, and the feature points are extracted at positions where the feature points are extracted. The local area is set.
本発明に係る学習装置のさらに他の好適な態様においては、前記部位候補生成部が、前記標本画像内にランダム点を生成し、当該各ランダム点が生成された位置に前記局所領域を設定する。 In still another preferred aspect of the learning device according to the present invention, the part candidate generation unit generates a random point in the sample image, and sets the local region at a position where the random point is generated. .
本発明に係る学習装置の別の好適な態様においては、前記部位候補生成部が、前記局所領域が設定された位置それぞれに前記部位基準点を設定する。 In another preferable aspect of the learning device according to the present invention, the part candidate generation unit sets the part reference point at each position where the local region is set.
本発明に係る対象物検知装置は、上記学習装置により生成された情報を用いて、入力画像に撮像されている前記対象物を検知するものであって、前記部位情報生成部により生成された前記部位情報を記憶する部位情報記憶部と、前記入力画像の各位置において前記部位情報記憶部に記憶されている前記部位情報と対応する前記部位の有無を識別し、前記部位があると識別された前記入力画像中の位置を出力する部位検出部と、前記部位検出部により出力された位置が予め設定された対象物検知基準を超えて集中しているときに前記対象物を検知する対象物判定部と、を備える。 The target object detection apparatus according to the present invention detects the target object captured in an input image using the information generated by the learning apparatus, and is generated by the part information generation unit. A part information storage unit for storing part information and the presence / absence of the part corresponding to the part information stored in the part information storage unit at each position of the input image are identified, and the part is identified. A part detection unit that outputs a position in the input image, and an object determination that detects the object when the position output by the part detection unit is concentrated beyond a preset object detection criterion A section.
本発明に係る学習装置によれば、一部隠蔽状態にある対象物を高精度に検知できる当該対象物検知装置の構築が可能となり、また本発明に係る対象物検知装置によれば、一部隠蔽状態にある対象物を高精度に検知できるようになる。 According to the learning device according to the present invention, it is possible to construct the target object detection device capable of detecting a target object in a partially concealed state with high accuracy, and the target object detection device according to the present invention is partially An object in the concealed state can be detected with high accuracy.
以下、本発明の実施の形態(以下実施形態という)である対象物検知装置1、及び学習装置2について、図面に基づいて説明する。対象物検知装置1は、入力画像から対象物の部位を検出することで、当該入力画像中に撮像されている対象物を検知する。本実施形態では人を対象物とし、監視空間から得られた監視画像を入力画像とする。対象物検知装置1は監視画像から、人の部位を検出することで侵入者を検知し、侵入者を検知すると異常信号を出力する。学習装置2は、対象物検知装置1に用いる部位情報を学習により生成するものであり、具体的には対象物検知装置1に用いる部位に対応した領域設定及び識別器を生成する。
Hereinafter, an
[対象物検知装置]
図1は、実施形態に係る対象物検知装置1の概略の構成を示すブロック図である。対象物検知装置1は、撮像部10、画像取得部11、検知記憶部12、部位情報設定部13、検知制御部14及び検知出力部15を含んで構成される。画像取得部11は撮像部10と接続され、画像取得部11、検知記憶部12、部位情報設定部13及び検知出力部15は検知制御部14と接続される。
[Object detection device]
FIG. 1 is a block diagram illustrating a schematic configuration of an
撮像部10は監視カメラであり、監視空間内に設置される。例えば、監視カメラは監視空間の天井部に監視空間を俯瞰して設置される。当該監視カメラは、監視空間を所定の時間間隔(例えば1秒)で撮影し、各画素が多階調の画素値で表現される監視画像を順次、出力する。
The
画像取得部11は、撮像部10により撮影された監視画像を取得して検知制御部14に取り込むインターフェース回路である。以下、画像取得部11から検知制御部14に入力される画像を入力画像と称する。
The
検知記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置であり、検知制御部14で使用されるプログラムやデータを記憶する。検知記憶部12はこれらプログラム、データを検知制御部14との間で入出力する。検知記憶部12に記憶されるデータには、部位情報120、部位検出情報121が含まれる。
The
部位は対象物の一部であり、対象物に対して予め複数の部位が設定されている。部位情報120は対象物の複数の部位それぞれについての情報であり、当該部位を特定する部位番号、当該部位の大きさ及び形状を定める領域設定、当該部位の画像特徴の有無を識別するための識別基準及び、複数の部位に共通設定された基準点(対象物基準点)に対する当該部位の部位基準点からの相対位置(部位相対位置)である。部位相対位置により対象物基準点を介した部位間の位置関係が規定される。
A site | part is a part of target object, and the some site | part is preset with respect to the target object. The
この部位情報120は、対象物像の標本(対象物標本画像)及び非対象物像の標本(非対象物標本画像)を用いて、後述する学習装置2によって予め作成される。特に、各部位の識別基準は、入力画像内の対比領域における対象物の当該部位の部分像の有無を識別する部位識別基準であり、対象物標本画像における当該部位の画像情報と非対象物標本画像における当該対比領域の画像情報とを識別する識別率が、予め設定された目標値εを超えていると判定されたものである。
This
ここで、識別基準が識別対象とする部位の大きさと、当該識別基準の識別率との間には、基本的に当該部位が大きいほど識別率が高くなるという関係がある。よって、識別率の目標値を設定するとその目標値に対応する大きさの部位を定めることができる。一方で、部位はその大きさが小さいほど隠蔽されにくくなる。部位情報120の各部位には、その識別基準とその領域設定により定められる大きさとの間に、識別率が目標値を超える最小の大きさという関係が与えられている。本実施形態では、各部位は、或る手順で順次拡大したときに、識別率の目標値を超える最小の大きさとなるように設定される。これにより、各部位に係る検出結果の信頼性と検出の隠蔽耐性とが両立し、高精度な対象物検知が可能となる。
Here, there is a relationship between the size of the part to be identified by the identification standard and the identification rate of the identification standard, basically that the larger the part, the higher the identification rate. Therefore, when a target value of the identification rate is set, a part having a size corresponding to the target value can be determined. On the other hand, the smaller the size of the part, the more difficult it is to conceal it. Each part of the
識別に用いる画像特徴の分析単位は各部位より小さな局所領域であり、各部位は複数の局所領域の集まりである。識別に用いる画像特徴は公知のシェイプコンテキスト(Shape Context)やヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)等の特徴量である。部位を構成する局所領域間の位置関係は部位情報120の領域設定において定められており、互いに近接する位置関係が設定されている。このような位置関係にある局所領域を集めることでコンパクトな部位が構成される。
An image feature analysis unit used for identification is a local area smaller than each part, and each part is a collection of a plurality of local areas. The image feature used for identification is a feature quantity such as a well-known shape context (Shape Context) or histogram of oriented gradients (HOG). The positional relationship between the local regions constituting the region is determined in the region setting of the
シェイプコンテキストは局所領域におけるエッジの分布特性を表す特徴量であり、データはベクトル形式である。当該ベクトルの各要素のインデックスは局所領域内を複数に分割した小領域と量子化されたエッジ方向との組み合わせに対応し、各要素の値はインデックスが表す小領域においてインデックスが表すエッジ方向を有するエッジの強度の和に対応する。HOGは局所領域における輝度微分値の分布特性を表す特徴量である。シェイプコンテキストもHOGも、局所領域における輝度勾配の分布特性を表しており、照明変動に頑強であることから対象物の検知に適している。 The shape context is a feature amount representing the distribution characteristic of the edge in the local region, and the data is in a vector format. The index of each element of the vector corresponds to a combination of a small area divided into a plurality of local areas and the quantized edge direction, and the value of each element has the edge direction represented by the index in the small area represented by the index Corresponds to the sum of edge strengths. HOG is a feature amount representing the distribution characteristic of the luminance differential value in the local region. Both the shape context and the HOG represent the distribution characteristics of the luminance gradient in the local region, and are suitable for detecting an object because they are robust against illumination fluctuations.
図2は後述する特徴点サンプリングにより作成された局所領域、部位及び対象物の関係の一例を示す模式図である。この例では画像特徴としてシェイプコンテキストを用いており、局所領域は円形としている。また図3は後述するグリッドサンプリングにより作成された局所領域、部位及び対象物の関係の一例を示す模式図である。この例では画像特徴としてHOGを用いており、局所領域は矩形である。 FIG. 2 is a schematic diagram showing an example of a relationship between a local region, a part, and an object created by feature point sampling described later. In this example, a shape context is used as an image feature, and the local region is circular. FIG. 3 is a schematic diagram showing an example of the relationship between local regions, parts, and objects created by grid sampling described later. In this example, HOG is used as an image feature, and the local area is rectangular.
図2(a)、図3(a)はそれぞれ、対象物である人が一点鎖線で表された対象物標本画像の一部をベースにして、その上に局所領域、部位等を例示している。図2(a)では、実線の各円が局所領域であり、当該局所領域の集まりが部位、点線が当該部位の概略形状である。特徴点サンプリングを用いる場合、部位の輪郭は一般には、局所領域の円の凹凸が現れた雲形ともいうべき形状となり、また概略の形状も必ずしも円や楕円のような整った形とはならない。図3(a)では、太線の矩形は部位、黒丸は格子点(グリッド)、部位を細線で区切った各ブロックは当該部位としてまとめられた局所領域である。1つの格子点を中心に1つの局所領域が形成され、複数の局所領域がまとまって部位を形成する。 2 (a) and 3 (a) show examples of a local region, a part, etc. on a part of an object specimen image represented by an alternate long and short dash line by a person who is an object. Yes. In FIG. 2A, each solid circle is a local region, a collection of the local regions is a part, and a dotted line is a schematic shape of the part. When feature point sampling is used, the outline of a part generally has a shape that can be called a cloud shape in which unevenness of a circle in a local region appears, and the approximate shape does not necessarily have a regular shape such as a circle or an ellipse. In FIG. 3A, the bold rectangle is a part, the black circle is a lattice point (grid), and each block obtained by dividing the part by a thin line is a local region grouped as the part. One local region is formed around one lattice point, and a plurality of local regions are combined to form a region.
図2(b),(c)及び図3(b),(c)は対象物標本画像上に部位等を示した図であり、一点鎖線が対象物を模式的に表している。ここで、各対象物標本画像は、人の形状に合わせて幅(水平)方向64ピクセル×高さ(垂直)方向128ピクセルの縦長の矩形に規格化され、その重心座標(32,64)が対象物基準点Bと定められている。 FIGS. 2B and 2C and FIGS. 3B and 3C are diagrams showing a part and the like on the object specimen image, and the alternate long and short dash line schematically represents the object. Here, each object specimen image is standardized into a vertically long rectangle of 64 pixels in the width (horizontal) direction × 128 pixels in the height (vertical) direction according to the shape of the person, and the barycentric coordinates (32, 64) thereof. It is defined as the object reference point B.
図2(b)における多数の実線の楕円のそれぞれ、及び図3(b)における複数の太線の矩形のそれぞれは、当該対象物に対して作成された部位に対応する。図2(b)、図3(b)にて、対象物に複数設定される部位間で大きさを比較すると、形状が比較的複雑で特徴的である頭部の周辺には小さめの部位が、形状が比較的単純で特徴の少ない脚部の周辺には大きめの部位が設定されている。 Each of a number of solid-line ellipses in FIG. 2B and each of a plurality of thick-line rectangles in FIG. 3B corresponds to a portion created for the object. In FIG. 2 (b) and FIG. 3 (b), when comparing the sizes of a plurality of parts set on the object, there is a small part around the head that is relatively complex and characteristic in shape. A large portion is set around the leg portion having a relatively simple shape and few features.
ここで、設定されている部位の数はM(>1)個とし、各部位には1〜Mの部位番号を通しで付与する。M個の部位の位置はそれぞれ異なり、部位#1〜#Mのそれぞれについてその部位内の1点(部位基準点)から対象物基準点BへのベクトルR1〜RMが当該部位の部位相対位置として、部位情報120に格納されている。本例では部位#mを構成するNm個の局所領域の1つを基準局所領域と定め、基準局所領域の中心を部位基準点としている。なお、各局所領域には部位ごとに1〜Nmのインデックスを付与し、基準局所領域のインデックスを1としている。
Here, the number of set parts is M (> 1), and a part number of 1 to M is given through each part. The positions of the M parts are different from each other, and for each of the
M個の部位それぞれには領域設定の情報が対応付けられ、当該情報は部位情報120に格納される。部位#mの領域設定の情報は、当該部位を構成する局所領域の個数Nmと、基準局所領域を基準とするNm個の局所領域それぞれの相対位置(局所領域相対位置)Lm,1〜Lm,Nmとを含んでなる。
Area setting information is associated with each of the M parts, and the information is stored in the
図2(c)における実線の楕円は図2(a)で示した部位(部位#m)を表し、当該楕円の中の小さな2つの円は部位#mを構成する局所領域のうち基準局所領域とn番目の局所領域とを示している。以下、部位#mのn番目(1≦n≦Nm)の局所領域を#m,nと表す。 The solid oval in FIG. 2 (c) represents the part (part #m) shown in FIG. 2 (a), and the two small circles in the ellipse are reference local areas among the local areas constituting the part #m. And the nth local region. Hereinafter, the n-th (1 ≦ n ≦ N m ) local region of the part #m is represented as # m, n.
図3(c)における太線の矩形は図3(a)で示した部位#mを表し、当該矩形内の小さな細線の2つの矩形は部位#mを構成する局所領域のうち基準局所領域とn番目の局所領域とを示している。 The thick line rectangle in FIG. 3C represents the part #m shown in FIG. 3A, and the two small thin line rectangles in the rectangle are the reference local area and n among the local areas constituting the part #m. Th local region.
図2(c)及び図3(c)のいずれにおいても、部位#mの部位相対位置Rmは基準局所領域の中心から対象物基準点Bへのベクトルで定義され、また、局所領域#m,nの局所領域相対位置Lm,nは基準局所領域の中心から局所領域#m,nの中心へのベクトルとなる。 In either of FIGS. 2 (c) and 2 FIG. 3 (c), the site relative position R m site #m is defined by the vector from the center of the reference local regions to an object reference point B, also local area #m , n local region relative position L m, n is a vector from the center of the reference local region to the center of the local region # m, n.
部位情報120に格納される識別基準は、本実施形態では、部位#1〜#Mに対する識別器H1(x)〜HM(x)である。xは識別器に入力される入力画像の特徴量である。部位#mの識別器Hm(x)はいわゆる強識別器であり、下記(1)式に示すように、当該部位#mを構成するNm個の局所領域それぞれの特徴量に関して学習された弱識別器h1(x1)〜hNm(xNm)の線形和として学習される。各部位の識別器は、対象物標本画像における当該部位の特徴量及び非対象物標本画像における対比領域の特徴量を用いて学習される。学習はアダブーストなどのブースティング法又はサポートベクターマシーンなどの機械学習法により行われる。
M個の識別器はいずれも後述する学習装置2の識別率判定部222によって、その識別率が、予め設定された目標値εを超えていると判定されている。
All of the M classifiers are determined by the identification
別の実施形態においては、識別基準には各部位のテンプレートが設定される。 In another embodiment, a template for each part is set as the identification criterion.
ここまでの説明で部位情報120に格納される種々の情報に触れてきた。図4は、その部位情報120の具体例を模式的に示す説明図である。
In the above description, various information stored in the
部位検出情報121は、後述の部位検出部141が入力画像に対して各部位の検出処理を行った結果(識別結果)の情報を格納する。本実施形態では複数の倍率(検知倍率)にて検出処理が行われるので、部位検出情報121の内容に検知倍率が含まれる。すなわち、部位検出情報121として、入力画像における各部位の検出位置、当該部位の部位番号、当該部位の検出度、及び当該部位の検知倍率を組にしたデータが記憶される。
The
部位情報設定部13は、部位情報120を外部から入力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路及びそれぞれのドライバ・プログラム、及び入力された部位情報120を検知記憶部12に格納させるプログラムからなる。この部位情報設定部13を介して、学習装置2にて生成された部位情報212が入力され、部位情報120として検知記憶部12に格納される。
The part
検知制御部14はDSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。検知制御部14は、画像取得部11からの入力画像を処理して人の存在有無を判定し、人を検知すると異常信号を検知出力部15へ出力する処理を行う。具体的には、検知制御部14は検知記憶部12からプログラムを読み出して実行し、後述する検知倍率変更部140、部位検出部141、対象物判定部142、異常判定部143として機能する。
The
検知倍率変更部140は、入力画像に撮像されている対象物のサイズが様々であることに対応して、各部位の検出に際して、検知倍率を調整して対象物のサイズの多様性への適合処理を行う。ここで、検知倍率αは、対象物標本画像に撮像されていた対象物のサイズ(すなわち部位情報120が表す対象物のサイズ)を基準にしたときの、入力画像に撮像されている対象物のサイズの倍率である。具体的には、検知倍率変更部140は、予め設定された複数段階の検知倍率に応じて入力画像を拡大又は縮小する。その拡大・縮小により、入力画像は元のサイズの1/αとなる。検知倍率αは、例えば(1.05)3倍、(1.05)2倍、1.05倍、1.0倍、1/1.05倍、1/(1.05)2倍、1/(1.05)3倍の7段階に設定する。拡大・縮小処理は公知のバイリニア補間法などにより行うことができる。
The detection
部位検出部141は部位ごとに当該部位の領域設定に応じた検出枠を入力画像の各位置に設定し、検出枠内の画像特徴を識別基準と比較して当該部位を検出し、当該部位の部位番号と検出位置とを含む部位検出情報121を生成する部位判定部である。部位検出情報121には、必要に応じて当該部位の検出度と検知倍率が含められる。生成された部位検出情報121は対象物判定部142に入力される。
The
具体的には、部位検出部141は、部位と合同図形である検出枠を入力画像内の各位置に順次設定する走査処理を行う。上述のように部位は複数の局所領域の集まりである。部位検出部141は各位置に、当該部位を構成する複数の局所領域に対応する検出枠を設定して各枠内の特徴量を抽出し、抽出された特徴量を当該部位の識別器Hm(x)に入力して検出枠内の画像が対象物の部位であることの尤もらしさの度合である尤度(検出度)を算出する。部位検出部141は、尤度を予め設定された部位検出閾値Tpと比較し、尤度がTpを超えて上回った場合、その位置に当該部位を検出する。
Specifically, the
なお、部位#mの局所領域#m,iから抽出された特徴量が(1)式右辺のxiであり、(1)式で表される識別器Hm(x)の出力が部位#mの尤度となる。入力画像中に部位#mが撮像されている位置でHm(x)は正値を出力する。これに対応して、部位検出閾値Tpは0に設定される。なお、一般的な識別器は上述のように対象物/非対象物の尤度の境界値が0であるが、0以外の境界値を設定する識別器も提案されている。このような識別器を用いる場合、Tpは当該境界値に設定される。 Note that the feature quantity extracted from the local region # m, i of the part #m is x i on the right side of the expression (1), and the output of the classifier H m (x) represented by the expression (1) is the part #. The likelihood of m. H m (x) outputs a positive value at the position where the part #m is imaged in the input image. Correspondingly, the part detection threshold Tp is set to 0. Note that, as described above, the boundary value of the likelihood of the target / non-target is 0 for a general classifier, but a classifier that sets a boundary value other than 0 has also been proposed. When such a discriminator is used, Tp is set to the boundary value.
識別基準にテンプレートを用いる別の実施形態においては、テンプレートと検出枠内の特徴量とのマッチング処理により一致度(検出度)が算出され、一致度が当該度合に対して予め設定された部位検出閾値を超えて上回った場合に、部位が検出される。 In another embodiment in which a template is used as an identification criterion, the degree of coincidence (detection degree) is calculated by matching processing between the template and the feature quantity in the detection frame, and the degree of coincidence is set in advance for the degree of part detection. A site is detected when the threshold is exceeded.
図5は部位検出部141による部位検出処理の例を説明する模式図である。図5(a)は、部位検出部141が入力画像をラスタ走査して、特徴点サンプリングにより作成された図2(a)の部位#mを検出している様子を示している。点線の楕円内に拡大して示す複数の白丸それぞれが、部位#mの局所領域に応じた枠であり、これらの集合が部位#mに応じた枠である。なお上述したように、それら白丸の集合は一般には雲形の輪郭を形成し、当該雲形図形が枠の外形となる。黒丸は入力画像内に設定された各位置(走査位置)である。走査位置から局所領域相対位置Lだけずらして各局所領域の中心が算出され、算出された局所領域の中心位置に局所領域と同形同大の枠が設定される。図5(a)に示す例では、対象物が撮像されている位置(x1,y1)や(x2,y2)で部位検出閾値Tpより大きな尤度が算出されて部位#mが検出される。
FIG. 5 is a schematic diagram for explaining an example of the part detection processing by the
また、図5(b)は、部位検出部141が図5(a)の例と同じ入力画像をラスタ走査して、グリッドサンプリングにより作成された図3(a)の部位#mを入力画像から検出している様子を示している。
In FIG. 5B, the
対象物判定部142は部位検出部141により生成された各部位の部位検出情報121を統合して入力画像中に対象物体像が存在するか否かを判定し、判定結果を異常判定部143へ出力する。対象物判定部142は、検出位置が予め設定された対象物検知基準を超えて集中しているときに入力画像中に対象物が撮像されていると判定する。具体的には対象物判定部142は、各部位の検出位置から当該部位の部位相対位置だけずらした相対的な対象物基準点(相対基準点)を算出する。そして、相対基準点が略一致する部位検出情報121の数を集計して予め設定された対象物検知閾値Toと比較し、集計値がToを超える相対基準点に対象物が存在すると判定する。一方、集計値がToを超える相対基準点がなければ入力画像中に対象物は存在しないと判定する。
The
部位#mの検出位置を位置ベクトルP、検出時の検知倍率をαとすると相対基準点の位置ベクトルQはQ=(P+Rm)/αと算出される。Rmは上述のように部位#mの部位相対位置を表すベクトルである。 If the detection position of the part #m is a position vector P and the detection magnification at the time of detection is α, the relative reference point position vector Q is calculated as Q = (P + R m ) / α. R m is a vector representing the relative position of the part #m as described above.
部位の検出位置を相対基準点に換算する処理は、検出結果ごとに一票投じることと似ていることから投票処理と呼ばれる。部位検出情報121の数を集計する代わりに、相対基準点が略一致する部位検出情報121の検出度の和を算出するという重み付け集計を行ってもよい。
The process of converting the detected position of a part into a relative reference point is called voting because it is similar to casting one vote for each detection result. Instead of summing up the number of
また、集計は検知倍率別に行ってもよいが、対象物の撮像状態やプロポーションの個体差が原因で同一対象物の投票値が複数の検知倍率に跨って設定されることがあるため、検知倍率が隣接する部位検出情報121での集計を許容するのがよい。
In addition, aggregation may be performed for each detection magnification, but because the voting value of the same object may be set across multiple detection magnifications due to individual differences in the imaging state and proportion of the object, the detection magnification It is preferable to allow the tabulation in the adjacent
異常判定部143は対象物判定部142により対象物の存在が判定されると侵入異常が検知されたとして侵入異常信号を検知出力部15へ出力する。
When the
検知出力部15は外部装置と接続され、当該外部装置へ侵入異常信号を出力するインターフェース回路である。外部装置は、侵入者の存在を警報するスピーカー、ブザー又はランプ等の警報表示手段や、通信網を介して接続される遠隔地のセンタ装置等である。
The
次に、対象物検知装置1の動作を説明する。図6は、対象物検知装置1の概略の動作を示すフロー図である。例えば、装置の管理者が電源を投入すると各部が動作を始める。画像取得部11は所定時間間隔で撮像された画像を検知制御部14に入力する。検知制御部14は画像が入力されるたびにステップS10〜S19からなる処理を繰り返す。
Next, operation | movement of the target
画像が入力されると(S10)、検知制御部14の部位検出部141は入力画像から各部位を検出する(S11)。
When an image is input (S10), the
図7は、部位検出処理S11の概略のフロー図である。図7を参照して部位検出処理S11を説明する。 FIG. 7 is a schematic flowchart of the part detection process S11. The site detection process S11 will be described with reference to FIG.
部位検出部141は、7段階の検知倍率を順次、注目倍率に設定し(S110)、全ての検知倍率に対してステップS111〜S121の処理を繰り返すループ処理を実行する。
The
検知倍率のループ処理において、まず部位検出部141は、注目倍率が1以外である場合には、拡大又は縮小を行うことで注目倍率に応じたサイズの入力画像を生成する(S111)。部位検出部141は、当該入力画像の全ての画素位置を順次、局所領域と同形同大の枠の中心に設定し、設定した各位置での当該枠内の特徴量を抽出する(S112)。抽出された特徴量はその抽出位置と対応付けられ、特徴量情報として検知記憶部12に一時記憶される。この段階で特徴量を算出し保存しておき、後の処理で随時利用可能とすることで、無駄な重複算出を省くことができる。
In the loop processing of the detection magnification, first, when the attention magnification is other than 1, the
部位検出部141は、部位情報120に記憶されているM個の部位#m(1≦m≦M)を順次、注目部位に設定し(S113)、さらに入力画像内の各画素位置を順次、注目位置に設定し(S114)、部位と画素位置との全組み合わせに対してステップS115〜S120の処理を繰り返すループ処理を実行する。
The
部位と画素位置とに関するループ処理において、まず、部位検出部141は、注目部位の部位情報120を参照し、注目位置に注目部位の検出枠を設定し(S115)、さらに注目部位の識別基準を検出枠内の特徴量と比較して検出度を算出する(S116)。
In the loop processing relating to the part and the pixel position, first, the
入力画像の各位置での特徴量xiはステップS112にて既に抽出してある。そこで、ステップS116にて、部位検出部141は、注目部位の局所領域相対位置それぞれを注目位置に加えて当該注目部位を構成する各局所領域の中心(すなわち各検出枠の中心)を算出し、得られた中心を抽出位置とする特徴量xiを、ステップS112にて生成され記憶されている特徴量情報から読み出して注目部位の識別器Hm(x)に入力する。識別器から出力された尤度が検出度である。
Feature amount x i at each position of the input image have already extracted in step S112. Therefore, in step S116, the
部位検出部141は、得られた検出度を部位検出閾値Tpと比較し(S117)、検出度がTpを超えていれば(S117にて「YES」)、注目位置に注目部位が検出されたとして、注目倍率、注目部位の部位番号、注目位置及び検出度を対応付けた部位検出情報を生成し検知記憶部12に記憶させる(S118)。一方、検出度がTp以下のときは(S117にて「NO」)、注目位置に注目部位は検出されなかったとしてステップS118は省略される。
The
こうして全部位、全検知倍率について入力画像全体を走査し終えると(S119にて「YES」、かつS120にて「YES」、かつS121にて「YES」)、部位検出処理S11は終了する。 Thus, when the entire input image has been scanned for all the parts and all the detection magnifications (“YES” in S119, “YES” in S120, and “YES” in S121), the part detection process S11 ends.
部位検出処理S11が終わると図6に示すように、対象物検知装置1の処理は投票値集計処理S12へ進む。投票値集計処理S12では、対象物判定部142により、以下に説明するように、部位検出情報に基づく投票と、投票結果の集計とが行われる(S12)。
When the part detection process S11 ends, as shown in FIG. 6, the process of the
対象物判定部142は、原寸の入力画像と同サイズの投票画像を検知倍率ごとに用意し、これらの画素値を0クリアする。次に対象物判定部142は、各部位検出情報の部位番号に対応する部位の部位相対位置Rを部位情報120から読み出し、当該部位相対位置Rを当該部位検出情報の検出位置に加算して加算結果に当該部位検出情報の検知倍率を乗じて相対基準位置を算出する。続いて対象物判定部142は、各部位検出情報の検知倍率に対応する投票画像において、相対基準位置の画素値に当該部位検出情報の検出度を加算する。さらに対象物判定部142は、検知倍率ごとに検知倍率が隣接する投票画像同士で互いに対応する位置の画素値を加算する。
The
こうして投票及びその集計(S12)が終わると、対象物判定部142は、各検知倍率の投票画像をブロック分割してブロックごとに画素値(集計値)が最大であるピーク画素を検出する(S13)。ブロックサイズには対象物標本画像のサイズに(1−最大許容隠蔽率)を乗じたサイズより小さなサイズが予め設定される。
When voting and counting (S12) are completed in this way, the
対象物判定部142は、各ピーク画素を順次、注目ピーク画素に設定し(S14)、全ピーク画素に対してステップS15〜S17の処理を繰り返すループ処理を実行する。このピーク画素のループ処理において、対象物判定部142は、注目ピーク画素の画素値(集計値)を対象物検知閾値Toと比較して(S15)、集計値がToより大きければ注目ピーク画素の位置に対象物を検知したとして(S15にて「YES」)、注目ピーク画素の位置、注目ピーク画素の画素値、及び注目ピーク画素が属する投票画像の検知倍率を対応付けた対象物検知情報を生成して検知記憶部12に記憶させる(S16)。一方、集計値がTo以下の場合(S15にて「NO」)、ステップS16は省略される。
The
こうして全ピーク画素について処理し終えると(S17にて「YES」)、対象物判定部142の処理は終了する。
When the processing has been completed for all the peak pixels in this way (“YES” in S17), the processing of the
対象物判定部142が処理を終えると、検知制御部14の異常判定部143は検知記憶部12を参照して対象物検知情報の有無を確認し(S18)、対象物検知情報が1つでも記憶されていれば対象物が検知されたとして(S18にて「YES」)、侵入異常信号を検知出力部15へ出力し、検知出力部15に警報を出力させる(S19)。
When the
以上の処理を終えると、処理は再びステップS10へ戻される。 When the above process is completed, the process returns to step S10 again.
上記実施形態では、画像取得部11は撮像部10と接続され、検知制御部14はオンライン処理で対象物を検知した。しかし、画像取得部11が録画装置と接続され、検知制御部14がオフライン処理で対象物を検知する構成としてもよい。
In the above embodiment, the
また、上述の実施形態では、検知倍率変更部140は検知倍率に応じて入力画像を拡大・縮小し、部位検出部141は部位と合同な検出枠を設定した。しかし、検知倍率変更部140は入力画像の拡大・縮小を行わず、代わりに部位検出部141が検知倍率を相似比とする部位の相似図形の検出枠を入力画像内の各位置に設定する構成とすることもできる。
In the above-described embodiment, the detection
部位検出部141は上述の実施形態では、入力画像内の全画素位置に検出枠を設定したが、監視空間の環境に応じて入力画像内に予め設定された対象物の存在可能範囲内のみに検出枠を設定してもよい。さらに別の実施形態において部位検出部141は、まず入力画像から特徴点を抽出し、抽出された特徴点の周辺範囲内のみに検出枠を設定するようにしてもよい。また、部位検出部141は、各部位の基準局所領域の特徴量を当該部位の部位情報120に記憶しておき、まず入力画像内の全画素位置にて当該特徴量とのマッチングを行って一致が得られた画素位置のみに検出枠を設定してもよい。
In the above-described embodiment, the
[学習装置]
図8は、実施形態に係る学習装置2の概略の構成を示すブロック図である。学習装置2は、学習操作部20、学習記憶部21、学習制御部22及び学習出力部23を含んで構成される。学習操作部20、学習記憶部21及び学習出力部23は学習制御部22と接続される。
[Learning device]
FIG. 8 is a block diagram illustrating a schematic configuration of the
学習操作部20はキーボード、マウス等のユーザインターフェース装置であり、装置の管理者により操作され、学習の開始指示や部位情報の出力指示を学習制御部22に与える。
The
学習記憶部21はROM、RAM、ハードディスク等の記憶装置であり、学習制御部22で使用されるプログラムやデータを記憶する。学習記憶部21はこれらプログラム、データを学習制御部22との間で入出力する。学習記憶部21に記憶されるデータには、標本画像210、部位候補情報211、部位情報212が含まれる。
The learning
標本画像210は部位情報212を作成する基礎となる画像であり、当該学習に先立って予め記憶される。標本画像210は、対象物が撮像された多数(数千〜数万枚程度)の対象物標本画像、及び対象物が撮像されていない多数(数千〜数万枚程度)の非対象物標本画像とからなる。標本画像210のそれぞれには当該画像を識別する標本番号が付与されている。各標本画像210は64×128画素の基準サイズに予め揃えられている。
The
部位候補情報211は標本画像210から作成・学習された部位それぞれについての情報である。部位候補情報211は、後述の部位情報212の候補となる情報であり、上述の対象物検知装置1の部位情報120となる部位情報212そのものとは区別される。但し、その内容は部位情報120,212に準ずるものであり、具体的には部位候補情報211は、各部位の部位番号、当該部位の領域設定、当該部位の識別基準、当該部位の部位相対位置等である。
The
部位情報212は部位候補情報211から取捨選択された情報である。その内容は上述した部位情報120と同じであり、各部位の部位番号、当該部位の領域設定、当該部位の識別基準、当該部位の部位相対位置である。
The
学習出力部23は生成された部位情報212を学習装置2の外部へ出力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムからなる。外部出力された各データは対象物検知装置1に入力される。
The learning
学習制御部22は、DSP、MCU等の演算装置を用いて構成される。学習制御部22は、標本画像210から部位情報212を生成して、生成した部位情報212を学習出力部23へ出力する処理を行う。具体的には、学習制御部22は、学習記憶部21からプログラムを読み出して実行し、後述する部位候補生成部220、学習部221、識別率判定部222、部位情報生成部223として機能する。
The
部位候補生成部220は、対象物標本画像内に互いに異なる複数の部位基準点を設定し、部位基準点ごとに当該部位基準点を内包する部位を順次大きさを変更して生成し、生成された部位を学習部221に入力する。ここで生成されるのは部位の候補であり、生成された候補は後段の処理での取捨選択に供されることになる。部位候補生成部220が大きさの異なる部位の候補を生成することで隠蔽耐性と識別性能とが両立された部位情報の生成が可能となる。なお、部位の大きさは、局所領域1つ分より大きく、標本画像210の基準サイズ未満に設定される。例えば、大きさの上限は基準サイズの2分の1に設定される。
The part
このように部位基準点を内包し互いに大きさが異なる部位の候補を生成することで、1つの部位基準点に対して1以上の候補が生成される。その結果、対象物標本画像においてあまり特徴的でない位置を部位基準点とする部位の部位情報も生成されやすくなり、対象物標本画像に対する網羅性が高くなる。これにより、対象物の多様な隠蔽状態に適応可能となる。 As described above, one or more candidates are generated for one part reference point by generating part candidates that include the part reference point and have different sizes. As a result, it becomes easy to generate part information of a part having a part that is not very characteristic in the target specimen image as a part reference point, and the coverage with respect to the target specimen image is improved. Thereby, it becomes possible to adapt to various concealment states of the object.
また、互いに異なる複数の部位基準点を設定することによっても、対象物標本画像に対する網羅性が高められ、対象物の多様な隠蔽状態に適応可能となる。 Also, by setting a plurality of different site reference points, the completeness with respect to the object specimen image is improved, and it becomes possible to adapt to various concealment states of the object.
部位の大きさを変更するために、具体的には、部位候補生成部220は、対象物標本画像内の複数の位置に画像特徴の分析単位である局所領域を設定すると共に、部位基準点を囲む標本枠を順次大きさを変更して設定し、当該標本枠内の局所領域を集めた部位を生成する。つまり、部位候補生成部220は標本枠内の一部領域又は全部領域を部位として生成する。このように標本枠の大きさで部位の大きさを制限することにより、近接した局所領域同士を集めつつ部位の大きさを制御することが確実かつ容易にできる。特に、前述した特徴点サンプリング法又はランダムサンプリング法の場合は局所領域が離散的に配置されるため、標本枠の導入効果が高い。このとき特に、部位候補生成部220は、標本枠が囲む局所領域の数を異ならせることで段階的に当該標本枠の大きさの変更を行う。これにより部位の大きさを変化させたときに識別基準の識別率を確実かつ容易に変化させることができ、部位情報生成の効率を高めることができる。
In order to change the size of the part, specifically, the part
大きさ段階の設定の仕方として、1つの局所領域からなる標本枠を最小の段階とし、比較的小さいステップで局所領域の個数が順次増加するように定めることが、隠蔽に強いコンパクトな部位情報を効率よく生成できる点からは好適である。 As a method of setting the size step, it is possible to set the sample frame consisting of one local region as the minimum step and to determine that the number of local regions sequentially increases in a relatively small step. This is preferable from the viewpoint of efficient generation.
部位候補生成部220は、所定基準に従って対象物標本画像内に複数の標本点を設定し、これら標本点を中心に局所領域を設定すると共に各標本点を部位基準点としても設定する。部位基準点と標本点とを共有したとき、局所領域は前述した基準局所領域として扱われる。
The site
以下、標本点及び局所領域の設定法を3種類説明する。 Hereinafter, three types of setting methods for sample points and local regions will be described.
<特徴点サンプリング法>
対象物標本画像から特徴点を検出し、検出された各特徴点の代表位置を標本点とする。特徴点として、コーナー(corner)と呼ばれるエッジの交点、又はブロッブ(blob)と呼ばれる輝度極大点などが用いられる。具体的には、ハリス−ラプラス(Harris-Laplace)の方法など公知のコーナー検出方法により各対象物標本画像からコーナーを特徴点として検出し、又は、SIFT(Scale-Invariant Feature Transform)など公知のブロッブ検出方法により各対象物標本画像からブロッブを特徴点として検出する。
<Feature point sampling method>
A feature point is detected from the object sample image, and a representative position of each detected feature point is set as a sample point. As the feature point, an intersection of edges called a corner or a luminance maximum point called a blob is used. Specifically, a corner is detected as a feature point from each object specimen image by a known corner detection method such as the Harris-Laplace method, or a known blob such as SIFT (Scale-Invariant Feature Transform). A blob is detected as a feature point from each object specimen image by the detection method.
ここで、多数の対象物標本画像から同一部位に関して検出される特徴点は全くの同一位置に検出されるのではない。そのため部位候補生成部220は各対象物標本画像の特徴点にて特徴量を抽出し、対象物標本画像間で特徴点の位置と特徴量とに着目したクラスタリングを行って特徴点のクラスタを生成し、各クラスタに属する特徴点の平均位置を局所領域の標本点と定める。
Here, feature points detected for the same part from a large number of object specimen images are not detected at exactly the same position. Therefore, the part
図9は、特徴点サンプリング法における特徴点又は後述するランダムサンプリング法におけるランダム点とクラスタと標本点との関係を示す模式図である。図9は、各対象物標本画像30にて互いに対応する特徴点(又はランダム点)31(×印)が、点線で示す領域32内にばらついて検出された様子を示している。この場合、領域32が特徴点(又はランダム点)のクラスタに相当し、それらの特徴点(又はランダム点)31の平均位置が標本点33(黒丸)に設定される。標本点33を中心とする実線の円が当該標本点33に対応して設定される局所領域を表している。なお、特徴点(又はランダム点)31を囲む実線の円はクラスタリング用の特徴量を抽出する領域を表している。
FIG. 9 is a schematic diagram showing the relationship between feature points in the feature point sampling method or random points, clusters, and sample points in the random sampling method described later. FIG. 9 shows a state in which feature points (or random points) 31 (x marks) corresponding to each other in each
標本点は、各クラスタに属する特徴点の平均位置に代えて、各クラスタに属する特徴点の位置の中央値又は最頻値などとしてもよい。 The sample point may be the median or mode of the position of the feature point belonging to each cluster, instead of the average position of the feature point belonging to each cluster.
特徴点では部位の識別に有意な特徴量を得やすいので、それに基づく局所領域を集めて生成される部位は、大きさ段階ごとに識別基準の識別率がより確実に増減するので効率よく部位情報を生成できる。 Since feature points can be easily obtained with feature points that are significant for part identification, the part that is generated by collecting local regions based on the feature points increases and decreases more reliably at each size step, so the part information can be efficiently obtained. Can be generated.
<グリッドサンプリング法>
対象物標本画像の全体に等間隔で複数の標本点を設定し、各標本点を中心とする局所領域を設定する。
<Grid sampling method>
A plurality of sample points are set at equal intervals on the entire object sample image, and a local region centered on each sample point is set.
この方式による局所領域を用いた部位の数は標本点の間隔で制御可能である。局所領域間のオーバーラップを許容する設定でもよい。なお、この方式は、対象物標本画像を等間隔で分割することと等価である。 The number of parts using the local region by this method can be controlled by the interval between the sample points. It may be set to allow overlap between local regions. This method is equivalent to dividing the object specimen image at equal intervals.
上述した特徴点サンプリング法では対象物の全体に満遍なく特徴点が検出されないこともあるが、グリッドサンプリング法なら対象物の全体に満遍なく部位を設定できるので多様な隠蔽状態の対象物を検知可能な部位情報を確実に生成できる。 In the feature point sampling method described above, feature points may not be detected evenly over the entire object, but with the grid sampling method, parts can be set evenly over the whole object, so that parts that can detect objects in various concealed states can be detected. Information can be generated reliably.
<ランダムサンプリング法>
対象物標本画像の全体にランダムに複数の標本点を設定し、各標本点を中心とする局所領域を設定する。
<Random sampling method>
A plurality of sample points are set at random on the entire object sample image, and a local region centered on each sample point is set.
この方式による局所領域を用いた部位の数はランダムに発生させる標本点の数で制御可能である。 The number of parts using the local region by this method can be controlled by the number of sample points generated at random.
ランダムサンプリング法もグリッドサンプリング法と同様に、対象物の全体に満遍なく部位を設定できるので多様な隠蔽状態の対象物を検知可能な部位情報を確実に生成できる。 Similarly to the grid sampling method, the random sampling method can uniformly set a part over the entire object, and can reliably generate part information that can detect objects in various concealed states.
以上、3種類の標本点及び局所領域の設定方法を説明した。図10は、各方法における標本枠の大きさの段階を示す模式図である。図10(a)は特徴点サンプリング法、及びランダムサンプリング法を採用した場合の様子であり、或る標本点に対する標本枠の4段階の大きさを示している。また図10(b)はグリッドサンプリング法を採用した場合の様子であり、或る標本点に対する標本枠の3段階の大きさを示している。図10において、黒丸が標本点、標本点を囲む細線の円又は矩形が局所領域、太線の円又は矩形が標本枠、斜線の局所領域が基準局所領域を表している。基準局所領域内の標本点は部位基準点である。 The method for setting three types of sample points and local areas has been described above. FIG. 10 is a schematic diagram showing the stage of the size of the sample frame in each method. FIG. 10A shows a state in which the feature point sampling method and the random sampling method are employed, and shows the size of the four sample frames for a certain sample point. FIG. 10B shows a state in which the grid sampling method is employed, and shows the size of the sample frame for a certain sample point in three stages. In FIG. 10, a black circle represents a sample point, a thin line circle or rectangle surrounding the sample point represents a local region, a thick line circle or rectangle represents a sample frame, and a hatched local region represents a reference local region. Sample points in the reference local region are site reference points.
特徴量を選択しながら追加するブースティング法による学習において、標本枠は、初期状態となる最小段階で既に複数個の局所領域を含む設定とし、また1段階拡大する際に複数個増加させる。このように設定することで、特徴量を選択する余地が常に与えられ、有意な学習を実行させられることができる。この観点から本実施形態では例えば、最小の標本枠は少なくとも5個の局所領域を含み、1段階拡大されると局所領域が3個以上増えるように設定する。 In the learning by the boosting method that is added while selecting the feature amount, the sample frame is set to include a plurality of local regions at the minimum stage that is the initial state, and a plurality of specimen frames are increased when the stage is enlarged by one stage. By setting in this way, there is always room for selecting a feature amount, and significant learning can be performed. From this point of view, in this embodiment, for example, the minimum sample frame includes at least five local regions, and is set so that the number of local regions increases by three or more when enlarged by one step.
学習部221(識別基準生成部)は、標本画像210における部位の画像特徴を用いて識別基準を学習する。すなわち学習部221は、部位候補生成部220から入力された部位について、対象物標本画像における当該部位の画像特徴及び非対象物標本画像における当該部位の画像特徴を抽出し、これらの画像特徴にブースティング法を適用して識別器を学習する。識別基準としてテンプレートを用いる別の実施形態においては学習部221は、対象物標本画像における当該部位の画像特徴を平均化することでテンプレートを学習する。この場合の学習において非対象物標本画像は不要である。学習部221での識別基準の学習により、部位候補情報211が生成され記憶される。
The learning unit 221 (identification reference generation unit) learns the identification reference using the image feature of the part in the
識別率判定部222は学習部221により学習され部位候補情報211として記憶されている部位の識別基準による識別率を求め、当該識別率が目標値を超える部位を有効であると判定する。具体的には、識別率判定部222は、部位候補情報211に記憶されている部位の識別器に対象物標本画像及び非対象物画像を入力して識別率を算出し、当該識別率が目標値εを超えるか否かを判定する。識別率判定部222は、対象物標本画像の部位内の各局所領域から抽出された特徴量xiを識別器Hに入力してその出力が部位検出閾値Tp以下であれば誤りと判定し、さらに非対象物画像に同領域を設定して抽出された特徴量xiを識別器Hに入力してその出力がTpより大きければ誤りと判定する。そして、これらの誤りの数を計数して標本画像210の総数で計数値を除算することで誤り率を算出し、誤り率が目標値未満であれば識別率が目標値を超えたと判定する。誤り率に対する目標値は0以上0.5未満の範囲内で設定される。また目標値の設定は全部位に共通である。なお、誤り率の代わりに正解率を算出して正解率が目標値より大きければ識別率が目標値を超えたと判定してもよい。
The identification
識別基準としてテンプレートを学習する構成の場合、識別器の出力を判定する処理に代えて、テンプレートマッチングの結果を判定する。すなわち識別率判定部222は、対象物標本画像の部位内の各局所領域から抽出された特徴量とテンプレートとの一致度を算出して当該一致度がTp以下であれば誤りと判定し、さらに非対象物画像に同領域を設定して抽出された特徴量とテンプレートとの一致度を算出して当該一致度がTpより大きければ誤りと判定する。
In the case of a configuration in which a template is learned as an identification reference, the template matching result is determined instead of the process of determining the output of the classifier. That is, the identification
部位情報生成部223は識別率判定部222にて有効と判定された部位候補情報211のうち大きさ段階が最小の部位候補情報211を選択し部位情報212とする。
The part
本実施形態では、部位候補生成部220が部位を順次拡大する構成としており、この場合、識別率判定部222が最初に有効と判定した部位候補情報211が大きさ最小の部位候補情報211となる。すなわち、識別率の目標値を実現しつつコンパクトな部位が得られる。
In the present embodiment, the region
なお、この点に関して、既に述べたように、基本的に部位が大きいほど識別率が大きくなる関係があり、当該関係からは、識別率の目標値を設定すると、部位の大きさとして理想的には当該目標値を丁度実現するサイズ、つまりそれより大きいサイズでは識別率が目標値を超え、それより小さいサイズでは目標値を超えない限界サイズというものが存在する。実際には、部位のサイズは上述の実施形態のように離散的に設定される場合には必ずしも理想的な限界サイズは設定できないが、上述のような近似的な限界サイズを設定することで、部位のコンパクト化による一部隠蔽状態にある対象物の高精度検知という性能向上を図ることができる。 In this regard, as already described, there is a relationship in which the identification rate basically increases as the site is larger. From this relationship, setting the target value of the identification rate is ideal as the size of the site. There is a limit size that does not exceed the target value when the identification rate exceeds the target value for a size that exactly realizes the target value, that is, a size that is larger than that. Actually, when the size of the part is discretely set as in the above-described embodiment, the ideal limit size cannot necessarily be set, but by setting the approximate limit size as described above, It is possible to improve the performance of highly accurate detection of an object in a partially concealed state by making the part compact.
この近似的な限界サイズの定め方は上述の実施形態に限られず、例えば、部位の大きさの上限と下限との間で乱数に基づく大きさの標本枠を多数設定して、当該各標本枠に対する部位の候補を生成し、これら全ての候補について有効か否かを判定してから有効とされたもののうちの最小サイズを限界サイズと定める構成や、各段階の標本枠内であらゆる可能な局所領域の追加順序について探索する構成など、近似の程度が異なるものが考えられる。 The method for determining the approximate limit size is not limited to the above-described embodiment. For example, a large number of sample frames based on random numbers are set between the upper limit and the lower limit of the size of the part, and each sample frame is set. A candidate for the region is generated, and after determining whether it is valid for all of these candidates, the minimum size of those that are validated is defined as the limit size, and all possible locals within the sample frame at each stage A different degree of approximation is conceivable, such as a configuration for searching for the order of adding regions.
どのような近似的方法を採用するかは、例えば、対象物検知装置1の目的を考慮して定めることができる。例えば、近似の精度を上げようとするほど、基本的に学習装置2における処理負荷が増加する。この点に関しては、部位のコンパクト化による性能向上と負荷増加とを比較考量して、適宜、構成を選択することができる。
What approximate method is adopted can be determined in consideration of the purpose of the
次に、学習装置2の動作を説明する。図11は、学習装置2の概略の動作を示すフロー図である。管理者が学習装置2の電源を投入し学習操作部20を操作して学習の開始を指示すると、学習装置2は学習処理を行う。以下、図11を参照して学習処理を説明する。
Next, the operation of the
学習制御部22の部位候補生成部220は、各対象物標本画像内に複数の標本点を設定する(S20)。
The part
特徴点サンプリング法を採用した場合、部位候補生成部220は、各対象物標本画像から特徴点を抽出し、当該各特徴点において特徴量を抽出する。そして、対象物標本画像間で特徴点の位置と特徴量とに着目したクラスタリングを行って特徴点のクラスタを生成し、各クラスタに属する特徴点の代表位置を標本点として算出する。なお、帰属する特徴点数を対象物標本画像数と比べて少ない(例えば、6割未満)クラスタは対象物の検知に有意でないとして、当該クラスタに対する標本点を設定しない。
When the feature point sampling method is employed, the part
グリッドサンプリング法を採用した場合、部位候補生成部220は、対象物標本画像内に予め設定された等間隔の格子点それぞれを標本点として設定する。
When the grid sampling method is employed, the part
ランダムサンプリング法を採用した場合、部位候補生成部220は、乱数に基づいて各対象物標本画像内に予め設定された個数の複数のランダム点を生成し、各ランダム点において特徴量を抽出する。そして、対象物標本画像間でランダム点の位置と特徴量とに着目したクラスタリングを行ってランダム点のクラスタを生成し、各クラスタに属するランダム点の代表位置を標本点として算出する。なお、特徴点サンプリング法の場合と同様、帰属数が少ないクラスタに対する標本点は設定しない。
When the random sampling method is adopted, the part
次に部位候補生成部220は各標本点を中心とする局所領域を設定し(S21)、学習制御部22の学習部221は各対象物標本画像及び各非対象物標本画像から局所領域内の特徴量を抽出する(S22)。学習部221は、抽出された特徴量に抽出元の標本画像210の標本番号及び標本点の座標を対応付けた標本情報を学習記憶部21に一時記憶させる。この段階で特徴量を算出し保存しておき、後の処理で随時利用可能とすることで、無駄な重複算出を省くことができる。
Next, the part
続いて部位候補生成部220は、各局所領域を順次、基準局所領域に設定し(S23)、全ての基準局所領域に対してステップS24〜S31の処理を繰り返すループ処理を実行する。なお、基準局所領域の中心は部位基準点である。
Subsequently, the part
この局所領域のループ処理において、まず部位候補生成部220は、最小段階の部位を設定する(S24)。すなわち、部位候補生成部220は、基準局所領域を中心とし、基準局所領域以外の局所領域を5個以上囲い込む最小の標本枠を設定する。部位候補生成部220は、標本枠に包含される局所領域を学習部221に通知する。
In this local region loop processing, the part
学習部221は、通知された局所領域の特徴量を標本情報から読み出し、読み出した特徴量を用いて識別基準の学習を行う(S25)。識別基準として識別器を用いる本実施形態では、学習部221は、対象物標本画像及び非対象物標本画像の特徴量を読み出して、これらの特徴量にブースティング法を適用して識別器を学習する。
The
別の実施形態においてはサポートベクターマシーン等の他の機械学習法を適用して識別基準を学習する。 In another embodiment, other machine learning methods such as support vector machines are applied to learn the identification criteria.
別の実施形態として、識別基準にテンプレートを用いる構成も可能であり、この場合、学習部221は、対象物標本画像の特徴量を読み出して、これらの特徴量を局所領域ごとに平均化してテンプレートを学習する。
As another embodiment, a configuration in which a template is used as an identification criterion is also possible. In this case, the
学習部221は、学習した識別基準と標本領域内の局所領域とを対応付けた部位候補情報211を学習記憶部21に追加記憶させ、追加させた部位候補情報211を学習制御部22の識別率判定部222に通知する。
The
部位候補情報211の追加の通知を受けた識別率判定部222は、当該部位候補情報211が示す部位における対象物標本画像及び非対象物標本画像の特徴量を標本情報から読み出して、読み出した特徴量を当該部位候補情報211が示す識別基準と比較して識別率を算出する(S26)。
Upon receiving the notification of the addition of the
識別率判定部222は算出した識別率を目標値εと比較し(S27)、識別率がεを超えていれば(S27にて「YES」)、ステップS25にて追加された部位候補情報211を部位情報212に転記し、新たな部位番号を付与する(S28)。部位を順次拡大させる本実施形態では識別率が目標値を最初に超えたときの部位候補情報211を部位情報212とすれば、当該部位情報212は識別率が目標値εを超える最小の部位情報となる。このようにして注目している基準局所領域に対する部位情報212が生成されると、部位候補生成部220は全ての局所領域を基準局所領域として処理し終えたか確認し(S31)、処理し終えたならば学習は終了し(S31にて「YES」)、処理し終えていなければ(S31にて「NO」)、残りの局所領域に対する処理が行われる(S23)。
The discrimination
一方、識別率がεを超えていなければ(S27にて「NO」)、部位候補生成部220は部位の拡大を行う(S29)。すなわち、部位候補生成部220は、基準局所領域を内包し、現時点の標本枠に含まれる局所領域の個数よりも3個多く局所領域を囲い込む最小の標本枠を設定する。部位候補生成部220は、拡大した標本枠が予め設定されている大きさの上限を超えているか確認し(S30)、上限を超えていなければ(S30にて「NO」)、拡大した標本枠に包含される局所領域を学習部221に通知し、学習部221は通知された局所領域の特徴量を用いて識別基準の学習を行う(S25)。
On the other hand, if the identification rate does not exceed ε (“NO” in S27), region
他方、拡大した標本枠が上限を超えている場合(S30にて「YES」)、処理はステップS31に進められ学習終了の判定が行われる。つまり、注目している基準局所領域については識別率が目標値εを超える部位情報を生成することはできなかったことになる。 On the other hand, if the expanded sample frame exceeds the upper limit (“YES” in S30), the process proceeds to step S31 to determine the end of learning. That is, for the reference local region of interest, it has not been possible to generate site information with an identification rate exceeding the target value ε.
こうして学習処理が終了した後、管理者が学習操作部20を操作して部位情報212の出力を指示すると、学習制御部22は学習記憶部21から部位情報212を読み出して学習出力部23に出力させる。
After the learning process is completed, when the administrator operates the
なお、上記実施形態においては基準点Bを標本画像210の重心位置に定めたが、特徴点間で共通していれば基準点Bは標本画像210の左上端、右下端など任意の位置でもよい。
In the above embodiment, the reference point B is set at the center of gravity of the
上述したブースティングを含めた公知の機械学習方法の多くは、誤り率が設定値未満になるか、反復数が予め設定された回数以上になるかのいずれかで学習を終了するのが一般的である。しかし、学習に用いる標本画像が識別率算出に用いる標本画像と同じとする場合、識別率判定部222は、誤り率を改めて算出せずに終了判定の設定値として目標値を設定し、学習部221における終了判定の結果を参照することで誤り率を得てもよい。
In many of the known machine learning methods including the boosting described above, it is common to end the learning either when the error rate is less than a set value or the number of iterations is equal to or greater than a preset number. It is. However, when the sample image used for learning is the same as the sample image used for identification rate calculation, the identification
1 対象物検知装置、2 学習装置、10 撮像部、11 画像取得部、12 検知記憶部、13 部位情報設定部、14 検知制御部、15 検知出力部、20 学習操作部、21 学習記憶部、22 学習制御部、23 学習出力部、30 各対象物標本画像、31 特徴点(又はランダム点)、32 領域、33 標本点、120 部位情報、121 部位検出情報、140 検知倍率変更部、141 部位検出部、142 対象物判定部、143 異常判定部、210 標本画像、211 部位候補情報、212 部位情報、220 部位候補生成部、221 学習部、222 識別率判定部、223 部位情報生成部。
DESCRIPTION OF
Claims (8)
前記対象物の標本画像及び非対象物の標本画像を予め記憶している標本画像記憶部と、
前記標本画像内に所定の部位基準点を設定すると共に、当該部位基準点を内包し大きさが互いに異なる部位を順次生成する部位候補生成部と、
前記部位ごとに、前記標本画像のうち少なくとも前記対象物の標本画像における当該部位の画像特徴を用いて当該部位の有無を識別するための識別基準を学習する学習部と、
前記各部位の前記識別基準により前記各標本画像における当該部位の有無を識別して識別率を求め、前記識別率が所定の目標値を超える部位を有効と判定する識別率判定部と、
前記識別率判定部により有効と判定された前記部位のうち前記大きさが最小の部位と、当該部位の前記識別基準とを含めた部位情報を生成する部位情報生成部と、
を備えたことを特徴とする学習装置。 A learning device that generates information on a part of an object used for detecting the object,
A specimen image storage unit that stores in advance the specimen image of the object and the specimen image of the non-object;
A site candidate generator that sets a predetermined site reference point in the sample image, and sequentially generates sites that include the site reference point and have different sizes;
A learning unit that learns an identification criterion for identifying the presence or absence of the part using an image feature of the part in at least the specimen image of the object for each part,
An identification rate determination unit that determines the identification rate by identifying the presence or absence of the site in each sample image according to the identification criterion of each site, and determines that the site where the identification rate exceeds a predetermined target value is valid,
A part information generation unit that generates part information including the part having the smallest size among the parts determined to be effective by the identification rate determination unit and the identification reference of the part;
A learning apparatus comprising:
前記部位候補生成部は、前記部位基準点を囲む前記大きさの標本枠を設定して当該標本枠内の一部領域又は全部領域を前記部位として生成すること、を特徴とする学習装置。 The learning device according to claim 1,
The part candidate generation unit sets a sample frame of the size surrounding the part reference point, and generates a partial region or a whole region in the sample frame as the part.
前記部位候補生成部は、前記画像特徴の分析単位である局所領域を前記標本画像内に複数設定して前記標本枠が囲む前記局所領域の個数を増減させることにより前記大きさを制御し、当該標本枠が囲む前記局所領域の集まりを前記部位として生成すること、を特徴とする学習装置。 The learning device according to claim 2,
The region candidate generation unit controls the size by setting a plurality of local regions that are analysis units of the image features in the sample image and increasing or decreasing the number of the local regions surrounded by the sample frame, A learning apparatus, characterized in that a collection of the local regions surrounded by a sample frame is generated as the part.
前記部位候補生成部は、前記標本画像を予め定められた等間隔で細分して前記局所領域を設定すること、を特徴とする学習装置。 The learning apparatus according to claim 3,
The site candidate generation unit subdivides the sample image at predetermined equal intervals to set the local region.
前記部位候補生成部は、前記対象物の標本画像から前記対象物の特徴点を複数抽出し、当該各特徴点が抽出された位置に前記局所領域を設定すること、を特徴とする学習装置。 The learning apparatus according to claim 3,
The part candidate generation unit extracts a plurality of feature points of the target object from a specimen image of the target object, and sets the local region at a position where each feature point is extracted.
前記部位候補生成部は、前記標本画像内にランダム点を生成し、当該各ランダム点が生成された位置に前記局所領域を設定すること、を特徴とする学習装置。 The learning apparatus according to claim 3,
The part candidate generation unit generates a random point in the sample image, and sets the local region at a position where the random point is generated.
前記部位候補生成部は、前記局所領域が設定された位置それぞれに前記部位基準点を設定すること、を特徴とする学習装置。 In the learning apparatus according to any one of claims 3 to 6,
The site candidate generation unit sets the site reference point at each position where the local region is set.
前記部位情報生成部により生成された前記部位情報を記憶する部位情報記憶部と、
前記入力画像の各位置において前記部位情報記憶部に記憶されている前記部位情報と対応する前記部位の有無を識別し、前記部位があると識別された前記入力画像中の位置を出力する部位検出部と、
前記部位検出部により出力された位置が予め設定された対象物検知基準を超えて集中しているときに前記対象物を検知する対象物判定部と、
を備えたことを特徴とする対象物検知装置。 An object detection device that detects the object imaged in an input image using information generated by the learning device according to any one of claims 1 to 7,
A part information storage unit for storing the part information generated by the part information generation unit;
Part detection that identifies the presence or absence of the part corresponding to the part information stored in the part information storage unit at each position of the input image, and outputs the position in the input image that is identified as having the part And
An object determination unit that detects the object when the position output by the part detection unit is concentrated beyond a preset object detection criterion;
An object detection apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010079656A JP5290229B2 (en) | 2010-03-30 | 2010-03-30 | Learning device and object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010079656A JP5290229B2 (en) | 2010-03-30 | 2010-03-30 | Learning device and object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011210181A true JP2011210181A (en) | 2011-10-20 |
JP5290229B2 JP5290229B2 (en) | 2013-09-18 |
Family
ID=44941132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010079656A Expired - Fee Related JP5290229B2 (en) | 2010-03-30 | 2010-03-30 | Learning device and object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5290229B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117865A (en) * | 2011-12-02 | 2013-06-13 | Kyushu Institute Of Technology | Detection method for body and detection device for body using the method |
JP2014106685A (en) * | 2012-11-27 | 2014-06-09 | Osaka Univ | Vehicle periphery monitoring device |
JP2015082323A (en) * | 2013-10-24 | 2015-04-27 | 株式会社リコー | Device and method for detecting object |
JP2015115047A (en) * | 2013-12-16 | 2015-06-22 | 国立大学法人 東京大学 | Information processing apparatus, information processing method, program, and recording medium |
JP2015170205A (en) * | 2014-03-07 | 2015-09-28 | オリンパス株式会社 | Feature amount generation device, feature amount generation method, and program |
JP2016045884A (en) * | 2014-08-26 | 2016-04-04 | キヤノン株式会社 | Pattern recognition device and pattern recognition method |
WO2020054028A1 (en) * | 2018-09-13 | 2020-03-19 | 株式会社島津製作所 | Data analyzer |
EP3637320A1 (en) | 2018-10-12 | 2020-04-15 | Fujitsu Limited | Computer program, learning apparatus, detecting apparatus, learning method, and detecting method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1139477A (en) * | 1997-07-16 | 1999-02-12 | Fujitsu Ltd | Corresponding point search device |
JP2005149144A (en) * | 2003-11-14 | 2005-06-09 | Konica Minolta Holdings Inc | Object detection device, object detection method, and recording medium |
-
2010
- 2010-03-30 JP JP2010079656A patent/JP5290229B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1139477A (en) * | 1997-07-16 | 1999-02-12 | Fujitsu Ltd | Corresponding point search device |
JP2005149144A (en) * | 2003-11-14 | 2005-06-09 | Konica Minolta Holdings Inc | Object detection device, object detection method, and recording medium |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117865A (en) * | 2011-12-02 | 2013-06-13 | Kyushu Institute Of Technology | Detection method for body and detection device for body using the method |
JP2014106685A (en) * | 2012-11-27 | 2014-06-09 | Osaka Univ | Vehicle periphery monitoring device |
JP2015082323A (en) * | 2013-10-24 | 2015-04-27 | 株式会社リコー | Device and method for detecting object |
JP2015115047A (en) * | 2013-12-16 | 2015-06-22 | 国立大学法人 東京大学 | Information processing apparatus, information processing method, program, and recording medium |
JP2015170205A (en) * | 2014-03-07 | 2015-09-28 | オリンパス株式会社 | Feature amount generation device, feature amount generation method, and program |
JP2016045884A (en) * | 2014-08-26 | 2016-04-04 | キヤノン株式会社 | Pattern recognition device and pattern recognition method |
WO2020054028A1 (en) * | 2018-09-13 | 2020-03-19 | 株式会社島津製作所 | Data analyzer |
CN112654864A (en) * | 2018-09-13 | 2021-04-13 | 株式会社岛津制作所 | Data analysis device |
EP3637320A1 (en) | 2018-10-12 | 2020-04-15 | Fujitsu Limited | Computer program, learning apparatus, detecting apparatus, learning method, and detecting method |
US11049014B2 (en) | 2018-10-12 | 2021-06-29 | Fujitsu Limited | Learning apparatus, detecting apparatus, learning method, and detecting method |
Also Published As
Publication number | Publication date |
---|---|
JP5290229B2 (en) | 2013-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5290229B2 (en) | Learning device and object detection device | |
CN106874894B (en) | Human body target detection method based on regional full convolution neural network | |
JP5290227B2 (en) | Object detection device and learning device thereof | |
US9008365B2 (en) | Systems and methods for pedestrian detection in images | |
JP4933186B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
CN111813997B (en) | Intrusion analysis method, device, equipment and storage medium | |
CN104036284A (en) | Adaboost algorithm based multi-scale pedestrian detection method | |
JP2009301104A (en) | Object detecting apparatus | |
CN109389105B (en) | Multitask-based iris detection and visual angle classification method | |
CN112200081A (en) | Abnormal behavior identification method and device, electronic equipment and storage medium | |
CN102479329A (en) | Classifier generation apparatus and method thereof, apparatus for detecting object in image and method thereof | |
CN110555386A (en) | Face recognition identity authentication method based on dynamic Bayes | |
JP2014199506A (en) | Object detection device, object method of detection, and program | |
US20120314939A1 (en) | Recognizing apparatus and method, program, and recording medium | |
CN113728357B (en) | Image processing method, image processing apparatus, and image processing system | |
CN106156808A (en) | The on-line study method and apparatus of object classifier and detection method and equipment | |
Fang et al. | 1-D barcode localization in complex background | |
US10115195B2 (en) | Method and apparatus for processing block to be processed of urine sediment image | |
JP2010271792A (en) | Image processing apparatus and method | |
Mantini et al. | Camera Tampering Detection using Generative Reference Model and Deep Learned Features. | |
JP6326622B2 (en) | Human detection device | |
CN107798282B (en) | Method and device for detecting human face of living body | |
JP5241687B2 (en) | Object detection apparatus and object detection program | |
JP4061405B2 (en) | Face image classification registration device | |
JP2012100082A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5290229 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |