JP2011210181A - Learning device and object detection device - Google Patents

Learning device and object detection device Download PDF

Info

Publication number
JP2011210181A
JP2011210181A JP2010079656A JP2010079656A JP2011210181A JP 2011210181 A JP2011210181 A JP 2011210181A JP 2010079656 A JP2010079656 A JP 2010079656A JP 2010079656 A JP2010079656 A JP 2010079656A JP 2011210181 A JP2011210181 A JP 2011210181A
Authority
JP
Japan
Prior art keywords
detection
image
learning
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010079656A
Other languages
Japanese (ja)
Other versions
JP5290229B2 (en
Inventor
Takaharu Kurokawa
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010079656A priority Critical patent/JP5290229B2/en
Publication of JP2011210181A publication Critical patent/JP2011210181A/en
Application granted granted Critical
Publication of JP5290229B2 publication Critical patent/JP5290229B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the following problem of an object detection device based on an image: when detecting a portion of an object so as to cope with concealment, high-accuracy detection in a partially concealed state is difficult from the relation of a trade-off between identification performance and concealment resistance corresponding to size of the set portion.SOLUTION: A detection storage part 12 stores information about the portion preset by learning as portion information 120. A portion detection part 141 identifies presence/absence of the portion corresponding to the portion information in each position of an input image, and outputs a position identified that there is the portion. An object decision part 142 detects the object when the outputted positions concentrate by a threshold value or above. In the portion, an identification rate is set to a minimum magnitude exceeding a target value.

Description

本発明は、入力画像中に撮像されている対象物を検知する対象物検知装置、及びその学習に用いる学習装置に関する。   The present invention relates to an object detection device that detects an object imaged in an input image, and a learning device used for learning thereof.

近年、監視カメラの画像やデジタルスチルカメラの画像から人や顔などの存在を検知する研究が盛んに行われている。検知処理には、パターンマッチング装置や識別器による探索的手法が用いられる。すなわち、画像内の各所に窓を設定して各窓画像をパターンマッチング装置や識別器に入力し、これらが出力する検出結果を集計して集計値が高い位置に対象物を検知する。   In recent years, active research has been conducted to detect the presence of people, faces, and the like from images from surveillance cameras and digital still cameras. In the detection process, a search method using a pattern matching device or a classifier is used. That is, windows are set at various locations in the image, the window images are input to a pattern matching device and a discriminator, and the detection results output by these are totaled to detect an object at a position where the total value is high.

画像の対象物はその全体が撮像されているとは限らず、対象物の一部が他の物体に隠蔽されている場合もある。一部隠蔽状態にある対象物を検知するために、従来、対象物を複数の部位に分けて各部位を検出し、それら部位の検出結果を統合判定することが行われている。   The object of the image is not necessarily captured as a whole, and a part of the object may be concealed by another object. In order to detect an object in a partially concealed state, conventionally, the object is divided into a plurality of parts, each part is detected, and the detection results of these parts are integrally determined.

例えば、特許文献1に記載の従来技術では、比較的小さな所定サイズのブロックを対象物の部位として設定する。また対象物である人について頭・胴・脚というように比較的大きな部位を設定する従来技術がある。   For example, in the prior art described in Patent Document 1, a relatively small block having a predetermined size is set as a target part. Further, there is a conventional technique for setting a relatively large part such as a head, a torso, and a leg for a person who is an object.

特開平9−21610号公報JP-A-9-21610

従来技術における部位の設定は、部位の大きさにより生じる検出の信頼性と隠蔽耐性とのトレードオフを考慮せずに行われていた。   The site setting in the prior art has been performed without considering the tradeoff between detection reliability and concealment resistance caused by the size of the site.

すなわち部位を大きくした場合、当該部位が検出できた場合には検出結果の信頼性が高いが、当該部位が隠蔽を受け易くなるため隠蔽耐性が低くなり、検出漏れが生じる可能性が高くなるという問題がある。   That is, when the part is enlarged, the reliability of the detection result is high when the part can be detected, but the part is easy to be concealed, so the concealment resistance is low and the possibility of detection omission increases. There's a problem.

逆に、部位を小さくした場合には、隠蔽を受けにくくなり当該部位の検出漏れは減るが、マッチング等に用いる情報が少なくなる分、当該部位以外の像との間で偶発的に検出が成立する誤検出の可能性が高くなり、検出結果の信頼性が低くなるという問題がある。   Conversely, if the part is made smaller, concealment is difficult and detection omission of the part is reduced, but detection by chance is established with an image other than the part because information used for matching is reduced. There is a problem that the possibility of erroneous detection increases and the reliability of the detection result decreases.

また信頼性と大きさとの関係は検知対象物の部位によって異なる。そのため従来の部位設定では、各部位の検出結果が一律な信頼性を有さず、隠蔽状況によって統合判定の信頼性が変わるという問題があった。   Further, the relationship between reliability and size differs depending on the part of the detection target. Therefore, in the conventional part setting, there is a problem that the detection result of each part does not have uniform reliability, and the reliability of the integrated determination changes depending on the concealment situation.

以上のように、従来技術においては、検出の信頼性と隠蔽耐性とのトレードオフを考慮せずに部位の大きさが設定されていたために、一部隠蔽状態にある対象物を高精度に検知することが難しかった。   As described above, in the conventional technology, the size of the part is set without considering the trade-off between detection reliability and concealment tolerance, so a target that is partially concealed can be detected with high accuracy. It was difficult to do.

本発明は上記問題点を解決するためになされたものであり、一部隠蔽状態にある対象物を高精度に検知できる対象物検知装置、及び当該対象物検知装置の構築に用いる学習装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an object detection device capable of detecting an object in a partially concealed state with high accuracy, and a learning device used for constructing the object detection device. The purpose is to do.

本発明に係る学習装置は、対象物の検知に用いられる当該対象物の部位の情報を生成するものであって、前記対象物の標本画像及び非対象物の標本画像を予め記憶している標本画像記憶部と、前記標本画像内に所定の部位基準点を設定すると共に、当該部位基準点を内包し大きさが互いに異なる部位を順次生成する部位候補生成部と、前記部位ごとに、前記標本画像のうち少なくとも前記対象物の標本画像における当該部位の画像特徴を用いて当該部位の有無を識別するための識別基準を学習する学習部と、前記各部位の前記識別基準により前記各標本画像における当該部位の有無を識別して識別率を求め、前記識別率が所定の目標値を超える部位を有効と判定する識別率判定部と、前記識別率判定部により有効と判定された前記部位のうち前記大きさが最小の部位と、当該部位の前記識別基準とを含めた部位情報を生成する部位情報生成部と、を備える。   A learning apparatus according to the present invention generates information on a part of an object used for detection of the object, and stores a sample image of the object and a sample image of a non-object in advance. An image storage unit, a region candidate generation unit that sets a predetermined region reference point in the specimen image, sequentially generates regions that include the region reference point and have different sizes, and the sample for each region A learning unit that learns an identification criterion for identifying the presence / absence of the part using at least an image feature of the part in the specimen image of the object in the image, and each specimen image according to the identification reference of each part An identification rate determination unit that determines the identification rate by identifying the presence / absence of the region, determines that the region where the identification rate exceeds a predetermined target value is valid, and among the regions determined to be effective by the identification rate determination unit It comprises the minimum of site serial magnitude, the site information generating unit that generates a site information including said identification criteria of the site, the.

他の本発明に係る学習装置においては、前記部位候補生成部が、前記部位基準点を囲む前記大きさの標本枠を設定して当該標本枠内の一部領域又は全部領域を前記部位として生成する。   In another learning device according to the present invention, the part candidate generation unit sets a sample frame of the size surrounding the part reference point, and generates a partial region or a whole region in the sample frame as the part. To do.

別の本発明に係る学習装置においては、前記部位候補生成部が、前記画像特徴の分析単位である局所領域を前記標本画像内に複数設定して前記標本枠が囲む前記局所領域の個数を増減させることにより前記大きさを制御し、当該標本枠が囲む前記局所領域の集まりを前記部位として生成する。   In another learning device according to the present invention, the part candidate generation unit sets a plurality of local regions, which are analysis units of the image features, in the sample image, and increases or decreases the number of the local regions surrounded by the sample frame. Thus, the size is controlled, and a collection of the local regions surrounded by the sample frame is generated as the part.

本発明に係る学習装置の好適な態様においては、前記部位候補生成部が、前記標本画像を予め定められた等間隔で細分して前記局所領域を設定する。   In a preferred aspect of the learning apparatus according to the present invention, the region candidate generation unit subdivides the sample image at predetermined equal intervals to set the local region.

本発明に係る学習装置の他の好適な態様においては、前記部位候補生成部が、前記対象物の標本画像から前記対象物の特徴点を複数抽出し、当該各特徴点が抽出された位置に前記局所領域を設定する。   In another preferred aspect of the learning apparatus according to the present invention, the part candidate generation unit extracts a plurality of feature points of the target object from the sample image of the target object, and the feature points are extracted at positions where the feature points are extracted. The local area is set.

本発明に係る学習装置のさらに他の好適な態様においては、前記部位候補生成部が、前記標本画像内にランダム点を生成し、当該各ランダム点が生成された位置に前記局所領域を設定する。   In still another preferred aspect of the learning device according to the present invention, the part candidate generation unit generates a random point in the sample image, and sets the local region at a position where the random point is generated. .

本発明に係る学習装置の別の好適な態様においては、前記部位候補生成部が、前記局所領域が設定された位置それぞれに前記部位基準点を設定する。   In another preferable aspect of the learning device according to the present invention, the part candidate generation unit sets the part reference point at each position where the local region is set.

本発明に係る対象物検知装置は、上記学習装置により生成された情報を用いて、入力画像に撮像されている前記対象物を検知するものであって、前記部位情報生成部により生成された前記部位情報を記憶する部位情報記憶部と、前記入力画像の各位置において前記部位情報記憶部に記憶されている前記部位情報と対応する前記部位の有無を識別し、前記部位があると識別された前記入力画像中の位置を出力する部位検出部と、前記部位検出部により出力された位置が予め設定された対象物検知基準を超えて集中しているときに前記対象物を検知する対象物判定部と、を備える。   The target object detection apparatus according to the present invention detects the target object captured in an input image using the information generated by the learning apparatus, and is generated by the part information generation unit. A part information storage unit for storing part information and the presence / absence of the part corresponding to the part information stored in the part information storage unit at each position of the input image are identified, and the part is identified. A part detection unit that outputs a position in the input image, and an object determination that detects the object when the position output by the part detection unit is concentrated beyond a preset object detection criterion A section.

本発明に係る学習装置によれば、一部隠蔽状態にある対象物を高精度に検知できる当該対象物検知装置の構築が可能となり、また本発明に係る対象物検知装置によれば、一部隠蔽状態にある対象物を高精度に検知できるようになる。   According to the learning device according to the present invention, it is possible to construct the target object detection device capable of detecting a target object in a partially concealed state with high accuracy, and the target object detection device according to the present invention is partially An object in the concealed state can be detected with high accuracy.

本発明の実施形態に係る対象物検知装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the target object detection apparatus which concerns on embodiment of this invention. 特徴点サンプリングにより作成された局所領域、部位及び対象物の関係の一例を示す模式図である。It is a schematic diagram which shows an example of the relationship of the local region, the site | part, and target object which were produced by the feature point sampling. グリッドサンプリングにより作成された局所領域、部位及び対象物の関係の一例を示す模式図である。It is a schematic diagram which shows an example of the relationship of the local area | region, site | part, and target object which were produced by grid sampling. 部位情報の具体例を模式的に示す説明図である。It is explanatory drawing which shows the specific example of site | part information typically. 部位検出部による部位検出処理の例を説明する模式図である。It is a schematic diagram explaining the example of the site | part detection process by a site | part detection part. 本発明の実施形態に係る対象物検知装置の概略の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the outline of the target object detection apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る対象物検知装置における部位検出処理の概略のフロー図である。It is a general | schematic flowchart of the site | part detection process in the target object detection apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る学習装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the learning apparatus which concerns on embodiment of this invention. 特徴点サンプリング法における特徴点又はランダムサンプリング法におけるランダム点とクラスタと標本点との関係を示す模式図である。It is a schematic diagram which shows the relationship between the feature point in a feature point sampling method, or the random point in a random sampling method, a cluster, and a sample point. 特徴点サンプリング法、ランダムサンプリング法、及びグリッドサンプリング法それぞれにおける標本領域の大きさの段階を示す模式図である。It is a schematic diagram which shows the step of the magnitude | size of the sample area | region in each of the feature point sampling method, the random sampling method, and the grid sampling method. 本発明の実施形態に係る学習装置の概略の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the outline of the learning apparatus which concerns on embodiment of this invention.

以下、本発明の実施の形態(以下実施形態という)である対象物検知装置1、及び学習装置2について、図面に基づいて説明する。対象物検知装置1は、入力画像から対象物の部位を検出することで、当該入力画像中に撮像されている対象物を検知する。本実施形態では人を対象物とし、監視空間から得られた監視画像を入力画像とする。対象物検知装置1は監視画像から、人の部位を検出することで侵入者を検知し、侵入者を検知すると異常信号を出力する。学習装置2は、対象物検知装置1に用いる部位情報を学習により生成するものであり、具体的には対象物検知装置1に用いる部位に対応した領域設定及び識別器を生成する。   Hereinafter, an object detection device 1 and a learning device 2 which are embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings. The target object detection apparatus 1 detects a target object captured in the input image by detecting a part of the target object from the input image. In this embodiment, a person is an object, and a monitoring image obtained from the monitoring space is an input image. The object detection device 1 detects an intruder by detecting a human part from the monitoring image, and outputs an abnormal signal when the intruder is detected. The learning device 2 generates part information used for the object detection device 1 by learning, and specifically generates a region setting and a classifier corresponding to the part used for the object detection device 1.

[対象物検知装置]
図1は、実施形態に係る対象物検知装置1の概略の構成を示すブロック図である。対象物検知装置1は、撮像部10、画像取得部11、検知記憶部12、部位情報設定部13、検知制御部14及び検知出力部15を含んで構成される。画像取得部11は撮像部10と接続され、画像取得部11、検知記憶部12、部位情報設定部13及び検知出力部15は検知制御部14と接続される。
[Object detection device]
FIG. 1 is a block diagram illustrating a schematic configuration of an object detection device 1 according to the embodiment. The object detection device 1 includes an imaging unit 10, an image acquisition unit 11, a detection storage unit 12, a part information setting unit 13, a detection control unit 14, and a detection output unit 15. The image acquisition unit 11 is connected to the imaging unit 10, and the image acquisition unit 11, the detection storage unit 12, the part information setting unit 13, and the detection output unit 15 are connected to the detection control unit 14.

撮像部10は監視カメラであり、監視空間内に設置される。例えば、監視カメラは監視空間の天井部に監視空間を俯瞰して設置される。当該監視カメラは、監視空間を所定の時間間隔(例えば1秒)で撮影し、各画素が多階調の画素値で表現される監視画像を順次、出力する。   The imaging unit 10 is a surveillance camera and is installed in a surveillance space. For example, the monitoring camera is installed on the ceiling of the monitoring space over the monitoring space. The monitoring camera images the monitoring space at a predetermined time interval (for example, 1 second), and sequentially outputs monitoring images in which each pixel is expressed by a multi-gradation pixel value.

画像取得部11は、撮像部10により撮影された監視画像を取得して検知制御部14に取り込むインターフェース回路である。以下、画像取得部11から検知制御部14に入力される画像を入力画像と称する。   The image acquisition unit 11 is an interface circuit that acquires a monitoring image captured by the imaging unit 10 and imports the monitoring image into the detection control unit 14. Hereinafter, an image input from the image acquisition unit 11 to the detection control unit 14 is referred to as an input image.

検知記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置であり、検知制御部14で使用されるプログラムやデータを記憶する。検知記憶部12はこれらプログラム、データを検知制御部14との間で入出力する。検知記憶部12に記憶されるデータには、部位情報120、部位検出情報121が含まれる。   The detection storage unit 12 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk, and stores programs and data used by the detection control unit 14. The detection storage unit 12 inputs and outputs these programs and data to and from the detection control unit 14. The data stored in the detection storage unit 12 includes part information 120 and part detection information 121.

部位は対象物の一部であり、対象物に対して予め複数の部位が設定されている。部位情報120は対象物の複数の部位それぞれについての情報であり、当該部位を特定する部位番号、当該部位の大きさ及び形状を定める領域設定、当該部位の画像特徴の有無を識別するための識別基準及び、複数の部位に共通設定された基準点(対象物基準点)に対する当該部位の部位基準点からの相対位置(部位相対位置)である。部位相対位置により対象物基準点を介した部位間の位置関係が規定される。   A site | part is a part of target object, and the some site | part is preset with respect to the target object. The part information 120 is information about each of a plurality of parts of the object, and is a part number for specifying the part, a region setting that determines the size and shape of the part, and an identification for identifying the presence or absence of an image feature of the part The relative position (part relative position) of the part from the part reference point with respect to the reference and the reference point (object reference point) set in common to the plurality of parts. The positional relationship between the parts via the object reference point is defined by the part relative position.

この部位情報120は、対象物像の標本(対象物標本画像)及び非対象物像の標本(非対象物標本画像)を用いて、後述する学習装置2によって予め作成される。特に、各部位の識別基準は、入力画像内の対比領域における対象物の当該部位の部分像の有無を識別する部位識別基準であり、対象物標本画像における当該部位の画像情報と非対象物標本画像における当該対比領域の画像情報とを識別する識別率が、予め設定された目標値εを超えていると判定されたものである。   This part information 120 is created in advance by the learning device 2 described later using a specimen of an object image (object specimen image) and a specimen of a non-object image (non-object specimen image). In particular, the identification criterion for each part is a part identification criterion for identifying the presence or absence of a partial image of the target part of the target object in the comparison area in the input image. The image information of the target part in the target specimen image and the non-target specimen It is determined that the identification rate for identifying the image information of the contrast area in the image exceeds a preset target value ε.

ここで、識別基準が識別対象とする部位の大きさと、当該識別基準の識別率との間には、基本的に当該部位が大きいほど識別率が高くなるという関係がある。よって、識別率の目標値を設定するとその目標値に対応する大きさの部位を定めることができる。一方で、部位はその大きさが小さいほど隠蔽されにくくなる。部位情報120の各部位には、その識別基準とその領域設定により定められる大きさとの間に、識別率が目標値を超える最小の大きさという関係が与えられている。本実施形態では、各部位は、或る手順で順次拡大したときに、識別率の目標値を超える最小の大きさとなるように設定される。これにより、各部位に係る検出結果の信頼性と検出の隠蔽耐性とが両立し、高精度な対象物検知が可能となる。   Here, there is a relationship between the size of the part to be identified by the identification standard and the identification rate of the identification standard, basically that the larger the part, the higher the identification rate. Therefore, when a target value of the identification rate is set, a part having a size corresponding to the target value can be determined. On the other hand, the smaller the size of the part, the more difficult it is to conceal it. Each part of the part information 120 is given a relationship of a minimum size at which the identification rate exceeds the target value between the identification standard and the size determined by the region setting. In the present embodiment, each part is set to have a minimum size that exceeds the target value of the identification rate when sequentially enlarged by a certain procedure. Thereby, the reliability of the detection result concerning each part and the resistance to concealment of detection are compatible, and highly accurate object detection becomes possible.

識別に用いる画像特徴の分析単位は各部位より小さな局所領域であり、各部位は複数の局所領域の集まりである。識別に用いる画像特徴は公知のシェイプコンテキスト(Shape Context)やヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)等の特徴量である。部位を構成する局所領域間の位置関係は部位情報120の領域設定において定められており、互いに近接する位置関係が設定されている。このような位置関係にある局所領域を集めることでコンパクトな部位が構成される。   An image feature analysis unit used for identification is a local area smaller than each part, and each part is a collection of a plurality of local areas. The image feature used for identification is a feature quantity such as a well-known shape context (Shape Context) or histogram of oriented gradients (HOG). The positional relationship between the local regions constituting the region is determined in the region setting of the region information 120, and the positional relationship close to each other is set. A compact region is configured by collecting local regions having such a positional relationship.

シェイプコンテキストは局所領域におけるエッジの分布特性を表す特徴量であり、データはベクトル形式である。当該ベクトルの各要素のインデックスは局所領域内を複数に分割した小領域と量子化されたエッジ方向との組み合わせに対応し、各要素の値はインデックスが表す小領域においてインデックスが表すエッジ方向を有するエッジの強度の和に対応する。HOGは局所領域における輝度微分値の分布特性を表す特徴量である。シェイプコンテキストもHOGも、局所領域における輝度勾配の分布特性を表しており、照明変動に頑強であることから対象物の検知に適している。   The shape context is a feature amount representing the distribution characteristic of the edge in the local region, and the data is in a vector format. The index of each element of the vector corresponds to a combination of a small area divided into a plurality of local areas and the quantized edge direction, and the value of each element has the edge direction represented by the index in the small area represented by the index Corresponds to the sum of edge strengths. HOG is a feature amount representing the distribution characteristic of the luminance differential value in the local region. Both the shape context and the HOG represent the distribution characteristics of the luminance gradient in the local region, and are suitable for detecting an object because they are robust against illumination fluctuations.

図2は後述する特徴点サンプリングにより作成された局所領域、部位及び対象物の関係の一例を示す模式図である。この例では画像特徴としてシェイプコンテキストを用いており、局所領域は円形としている。また図3は後述するグリッドサンプリングにより作成された局所領域、部位及び対象物の関係の一例を示す模式図である。この例では画像特徴としてHOGを用いており、局所領域は矩形である。   FIG. 2 is a schematic diagram showing an example of a relationship between a local region, a part, and an object created by feature point sampling described later. In this example, a shape context is used as an image feature, and the local region is circular. FIG. 3 is a schematic diagram showing an example of the relationship between local regions, parts, and objects created by grid sampling described later. In this example, HOG is used as an image feature, and the local area is rectangular.

図2(a)、図3(a)はそれぞれ、対象物である人が一点鎖線で表された対象物標本画像の一部をベースにして、その上に局所領域、部位等を例示している。図2(a)では、実線の各円が局所領域であり、当該局所領域の集まりが部位、点線が当該部位の概略形状である。特徴点サンプリングを用いる場合、部位の輪郭は一般には、局所領域の円の凹凸が現れた雲形ともいうべき形状となり、また概略の形状も必ずしも円や楕円のような整った形とはならない。図3(a)では、太線の矩形は部位、黒丸は格子点(グリッド)、部位を細線で区切った各ブロックは当該部位としてまとめられた局所領域である。1つの格子点を中心に1つの局所領域が形成され、複数の局所領域がまとまって部位を形成する。   2 (a) and 3 (a) show examples of a local region, a part, etc. on a part of an object specimen image represented by an alternate long and short dash line by a person who is an object. Yes. In FIG. 2A, each solid circle is a local region, a collection of the local regions is a part, and a dotted line is a schematic shape of the part. When feature point sampling is used, the outline of a part generally has a shape that can be called a cloud shape in which unevenness of a circle in a local region appears, and the approximate shape does not necessarily have a regular shape such as a circle or an ellipse. In FIG. 3A, the bold rectangle is a part, the black circle is a lattice point (grid), and each block obtained by dividing the part by a thin line is a local region grouped as the part. One local region is formed around one lattice point, and a plurality of local regions are combined to form a region.

図2(b),(c)及び図3(b),(c)は対象物標本画像上に部位等を示した図であり、一点鎖線が対象物を模式的に表している。ここで、各対象物標本画像は、人の形状に合わせて幅(水平)方向64ピクセル×高さ(垂直)方向128ピクセルの縦長の矩形に規格化され、その重心座標(32,64)が対象物基準点Bと定められている。   FIGS. 2B and 2C and FIGS. 3B and 3C are diagrams showing a part and the like on the object specimen image, and the alternate long and short dash line schematically represents the object. Here, each object specimen image is standardized into a vertically long rectangle of 64 pixels in the width (horizontal) direction × 128 pixels in the height (vertical) direction according to the shape of the person, and the barycentric coordinates (32, 64) thereof. It is defined as the object reference point B.

図2(b)における多数の実線の楕円のそれぞれ、及び図3(b)における複数の太線の矩形のそれぞれは、当該対象物に対して作成された部位に対応する。図2(b)、図3(b)にて、対象物に複数設定される部位間で大きさを比較すると、形状が比較的複雑で特徴的である頭部の周辺には小さめの部位が、形状が比較的単純で特徴の少ない脚部の周辺には大きめの部位が設定されている。   Each of a number of solid-line ellipses in FIG. 2B and each of a plurality of thick-line rectangles in FIG. 3B corresponds to a portion created for the object. In FIG. 2 (b) and FIG. 3 (b), when comparing the sizes of a plurality of parts set on the object, there is a small part around the head that is relatively complex and characteristic in shape. A large portion is set around the leg portion having a relatively simple shape and few features.

ここで、設定されている部位の数はM(>1)個とし、各部位には1〜Mの部位番号を通しで付与する。M個の部位の位置はそれぞれ異なり、部位#1〜#Mのそれぞれについてその部位内の1点(部位基準点)から対象物基準点BへのベクトルR〜Rが当該部位の部位相対位置として、部位情報120に格納されている。本例では部位#mを構成するN個の局所領域の1つを基準局所領域と定め、基準局所領域の中心を部位基準点としている。なお、各局所領域には部位ごとに1〜Nのインデックスを付与し、基準局所領域のインデックスを1としている。 Here, the number of set parts is M (> 1), and a part number of 1 to M is given through each part. The positions of the M parts are different from each other, and for each of the parts # 1 to #M, vectors R 1 to R M from one point (part reference point) in the part to the object reference point B are relative to the part of the part. It is stored in the part information 120 as the position. In this example, one of the N m local regions constituting the part #m is defined as a reference local area, and the center of the reference local area is set as a part reference point. Incidentally, the index of the 1 to N m is assigned to each site in each local region, and the index of the reference local regions 1.

M個の部位それぞれには領域設定の情報が対応付けられ、当該情報は部位情報120に格納される。部位#mの領域設定の情報は、当該部位を構成する局所領域の個数Nと、基準局所領域を基準とするN個の局所領域それぞれの相対位置(局所領域相対位置)Lm,1〜Lm,Nmとを含んでなる。 Area setting information is associated with each of the M parts, and the information is stored in the part information 120. The area setting information of the part #m includes the number N m of local areas constituting the part and the relative positions (local area relative positions) L m, 1 of the N m local areas with reference to the reference local area. ~ Lm , Nm .

図2(c)における実線の楕円は図2(a)で示した部位(部位#m)を表し、当該楕円の中の小さな2つの円は部位#mを構成する局所領域のうち基準局所領域とn番目の局所領域とを示している。以下、部位#mのn番目(1≦n≦N)の局所領域を#m,nと表す。 The solid oval in FIG. 2 (c) represents the part (part #m) shown in FIG. 2 (a), and the two small circles in the ellipse are reference local areas among the local areas constituting the part #m. And the nth local region. Hereinafter, the n-th (1 ≦ n ≦ N m ) local region of the part #m is represented as # m, n.

図3(c)における太線の矩形は図3(a)で示した部位#mを表し、当該矩形内の小さな細線の2つの矩形は部位#mを構成する局所領域のうち基準局所領域とn番目の局所領域とを示している。   The thick line rectangle in FIG. 3C represents the part #m shown in FIG. 3A, and the two small thin line rectangles in the rectangle are the reference local area and n among the local areas constituting the part #m. Th local region.

図2(c)及び図3(c)のいずれにおいても、部位#mの部位相対位置Rは基準局所領域の中心から対象物基準点Bへのベクトルで定義され、また、局所領域#m,nの局所領域相対位置Lm,nは基準局所領域の中心から局所領域#m,nの中心へのベクトルとなる。 In either of FIGS. 2 (c) and 2 FIG. 3 (c), the site relative position R m site #m is defined by the vector from the center of the reference local regions to an object reference point B, also local area #m , n local region relative position L m, n is a vector from the center of the reference local region to the center of the local region # m, n.

部位情報120に格納される識別基準は、本実施形態では、部位#1〜#Mに対する識別器H(x)〜H(x)である。xは識別器に入力される入力画像の特徴量である。部位#mの識別器H(x)はいわゆる強識別器であり、下記(1)式に示すように、当該部位#mを構成するN個の局所領域それぞれの特徴量に関して学習された弱識別器h(x)〜hNm(xNm)の線形和として学習される。各部位の識別器は、対象物標本画像における当該部位の特徴量及び非対象物標本画像における対比領域の特徴量を用いて学習される。学習はアダブーストなどのブースティング法又はサポートベクターマシーンなどの機械学習法により行われる。

Figure 2011210181
In this embodiment, the identification criteria stored in the part information 120 are classifiers H 1 (x) to H M (x) for the parts # 1 to #M. x is the feature quantity of the input image input to the classifier. The classifier H m (x) of the part #m is a so-called strong classifier, and has been learned with respect to each feature amount of the N m local regions constituting the part #m as shown in the following formula (1). It is learned as a linear sum of weak classifiers h 1 (x 1 ) to h Nm (x Nm ). The classifier for each part is learned using the feature amount of the part in the object specimen image and the feature amount of the contrast area in the non-object specimen image. Learning is performed by a boosting method such as Adaboost or a machine learning method such as a support vector machine.
Figure 2011210181

M個の識別器はいずれも後述する学習装置2の識別率判定部222によって、その識別率が、予め設定された目標値εを超えていると判定されている。   All of the M classifiers are determined by the identification rate determination unit 222 of the learning device 2 to be described later that the identification rate exceeds a preset target value ε.

別の実施形態においては、識別基準には各部位のテンプレートが設定される。   In another embodiment, a template for each part is set as the identification criterion.

ここまでの説明で部位情報120に格納される種々の情報に触れてきた。図4は、その部位情報120の具体例を模式的に示す説明図である。   In the above description, various information stored in the part information 120 has been mentioned. FIG. 4 is an explanatory diagram schematically showing a specific example of the part information 120.

部位検出情報121は、後述の部位検出部141が入力画像に対して各部位の検出処理を行った結果(識別結果)の情報を格納する。本実施形態では複数の倍率(検知倍率)にて検出処理が行われるので、部位検出情報121の内容に検知倍率が含まれる。すなわち、部位検出情報121として、入力画像における各部位の検出位置、当該部位の部位番号、当該部位の検出度、及び当該部位の検知倍率を組にしたデータが記憶される。   The part detection information 121 stores information of a result (identification result) obtained by performing a part detection process on the input image by a part detection unit 141 described later. In the present embodiment, since detection processing is performed at a plurality of magnifications (detection magnifications), the content of the part detection information 121 includes the detection magnification. That is, as the part detection information 121, data is stored that includes the detection position of each part in the input image, the part number of the part, the degree of detection of the part, and the detection magnification of the part.

部位情報設定部13は、部位情報120を外部から入力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路及びそれぞれのドライバ・プログラム、及び入力された部位情報120を検知記憶部12に格納させるプログラムからなる。この部位情報設定部13を介して、学習装置2にて生成された部位情報212が入力され、部位情報120として検知記憶部12に格納される。   The part information setting unit 13 is an interface circuit such as a USB terminal, a CD drive, and a network adapter that inputs the part information 120 from the outside, and each driver / program, and a program that stores the input part information 120 in the detection storage unit 12 Consists of. The part information 212 generated by the learning device 2 is input via the part information setting unit 13 and stored as part information 120 in the detection storage unit 12.

検知制御部14はDSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。検知制御部14は、画像取得部11からの入力画像を処理して人の存在有無を判定し、人を検知すると異常信号を検知出力部15へ出力する処理を行う。具体的には、検知制御部14は検知記憶部12からプログラムを読み出して実行し、後述する検知倍率変更部140、部位検出部141、対象物判定部142、異常判定部143として機能する。   The detection control unit 14 is configured using an arithmetic device such as a DSP (Digital Signal Processor) or an MCU (Micro Control Unit). The detection control unit 14 processes the input image from the image acquisition unit 11 to determine the presence or absence of a person, and performs processing to output an abnormal signal to the detection output unit 15 when a person is detected. Specifically, the detection control unit 14 reads out and executes a program from the detection storage unit 12, and functions as a detection magnification change unit 140, a part detection unit 141, an object determination unit 142, and an abnormality determination unit 143 described later.

検知倍率変更部140は、入力画像に撮像されている対象物のサイズが様々であることに対応して、各部位の検出に際して、検知倍率を調整して対象物のサイズの多様性への適合処理を行う。ここで、検知倍率αは、対象物標本画像に撮像されていた対象物のサイズ(すなわち部位情報120が表す対象物のサイズ)を基準にしたときの、入力画像に撮像されている対象物のサイズの倍率である。具体的には、検知倍率変更部140は、予め設定された複数段階の検知倍率に応じて入力画像を拡大又は縮小する。その拡大・縮小により、入力画像は元のサイズの1/αとなる。検知倍率αは、例えば(1.05)倍、(1.05)倍、1.05倍、1.0倍、1/1.05倍、1/(1.05)倍、1/(1.05)倍の7段階に設定する。拡大・縮小処理は公知のバイリニア補間法などにより行うことができる。 The detection magnification change unit 140 adjusts the detection magnification to adapt to the variety of object sizes when detecting each part in response to the various sizes of the objects captured in the input image. Process. Here, the detection magnification α is the size of the object captured in the input image when the size of the object captured in the object specimen image (that is, the size of the object represented by the part information 120) is used as a reference. It is a magnification of the size. Specifically, the detection magnification changing unit 140 enlarges or reduces the input image in accordance with a plurality of preset detection magnifications. By the enlargement / reduction, the input image becomes 1 / α of the original size. The detection magnification α is, for example, (1.05) 3 times, (1.05) 2 times, 1.05 times, 1.0 times, 1 / 1.05 times, 1 / (1.05) 2 times, 1 /(1.05) Set to 7 levels, 3 times. Enlarging / reducing processing can be performed by a known bilinear interpolation method or the like.

部位検出部141は部位ごとに当該部位の領域設定に応じた検出枠を入力画像の各位置に設定し、検出枠内の画像特徴を識別基準と比較して当該部位を検出し、当該部位の部位番号と検出位置とを含む部位検出情報121を生成する部位判定部である。部位検出情報121には、必要に応じて当該部位の検出度と検知倍率が含められる。生成された部位検出情報121は対象物判定部142に入力される。   The part detection unit 141 sets a detection frame corresponding to the region setting of the part for each part in each position of the input image, compares the image feature in the detection frame with the identification reference, detects the part, It is a site | part determination part which produces | generates the site | part detection information 121 containing a site | part number and a detection position. The part detection information 121 includes the detection degree and detection magnification of the part as necessary. The generated part detection information 121 is input to the object determination unit 142.

具体的には、部位検出部141は、部位と合同図形である検出枠を入力画像内の各位置に順次設定する走査処理を行う。上述のように部位は複数の局所領域の集まりである。部位検出部141は各位置に、当該部位を構成する複数の局所領域に対応する検出枠を設定して各枠内の特徴量を抽出し、抽出された特徴量を当該部位の識別器H(x)に入力して検出枠内の画像が対象物の部位であることの尤もらしさの度合である尤度(検出度)を算出する。部位検出部141は、尤度を予め設定された部位検出閾値Tpと比較し、尤度がTpを超えて上回った場合、その位置に当該部位を検出する。 Specifically, the part detection unit 141 performs a scanning process in which a detection frame that is a congruent figure with a part is sequentially set at each position in the input image. As described above, the site is a collection of a plurality of local regions. The part detection unit 141 sets detection frames corresponding to a plurality of local regions constituting the part at each position, extracts the feature amount in each frame, and uses the extracted feature quantity as a classifier H m for the part. Input to (x) and calculate the likelihood (detection degree) which is the degree of likelihood that the image in the detection frame is the part of the object. The part detection unit 141 compares the likelihood with a preset part detection threshold value Tp, and when the likelihood exceeds Tp, the part detection unit 141 detects the part at that position.

なお、部位#mの局所領域#m,iから抽出された特徴量が(1)式右辺のxであり、(1)式で表される識別器H(x)の出力が部位#mの尤度となる。入力画像中に部位#mが撮像されている位置でH(x)は正値を出力する。これに対応して、部位検出閾値Tpは0に設定される。なお、一般的な識別器は上述のように対象物/非対象物の尤度の境界値が0であるが、0以外の境界値を設定する識別器も提案されている。このような識別器を用いる場合、Tpは当該境界値に設定される。 Note that the feature quantity extracted from the local region # m, i of the part #m is x i on the right side of the expression (1), and the output of the classifier H m (x) represented by the expression (1) is the part #. The likelihood of m. H m (x) outputs a positive value at the position where the part #m is imaged in the input image. Correspondingly, the part detection threshold Tp is set to 0. Note that, as described above, the boundary value of the likelihood of the target / non-target is 0 for a general classifier, but a classifier that sets a boundary value other than 0 has also been proposed. When such a discriminator is used, Tp is set to the boundary value.

識別基準にテンプレートを用いる別の実施形態においては、テンプレートと検出枠内の特徴量とのマッチング処理により一致度(検出度)が算出され、一致度が当該度合に対して予め設定された部位検出閾値を超えて上回った場合に、部位が検出される。   In another embodiment in which a template is used as an identification criterion, the degree of coincidence (detection degree) is calculated by matching processing between the template and the feature quantity in the detection frame, and the degree of coincidence is set in advance for the degree of part detection. A site is detected when the threshold is exceeded.

図5は部位検出部141による部位検出処理の例を説明する模式図である。図5(a)は、部位検出部141が入力画像をラスタ走査して、特徴点サンプリングにより作成された図2(a)の部位#mを検出している様子を示している。点線の楕円内に拡大して示す複数の白丸それぞれが、部位#mの局所領域に応じた枠であり、これらの集合が部位#mに応じた枠である。なお上述したように、それら白丸の集合は一般には雲形の輪郭を形成し、当該雲形図形が枠の外形となる。黒丸は入力画像内に設定された各位置(走査位置)である。走査位置から局所領域相対位置Lだけずらして各局所領域の中心が算出され、算出された局所領域の中心位置に局所領域と同形同大の枠が設定される。図5(a)に示す例では、対象物が撮像されている位置(x1,y1)や(x2,y2)で部位検出閾値Tpより大きな尤度が算出されて部位#mが検出される。   FIG. 5 is a schematic diagram for explaining an example of the part detection processing by the part detection unit 141. FIG. 5A shows a state in which the part detection unit 141 detects the part #m of FIG. 2A created by the feature point sampling by raster scanning the input image. Each of a plurality of white circles enlarged and shown in the dotted ellipse is a frame corresponding to the local region of the part #m, and a set of these is a frame corresponding to the part #m. As described above, the set of white circles generally forms a cloud-shaped outline, and the cloud-shaped figure becomes the outline of the frame. Black circles are positions (scanning positions) set in the input image. The center of each local area is calculated by shifting from the scanning position by the local area relative position L, and a frame having the same shape and size as the local area is set at the calculated center position of the local area. In the example shown in FIG. 5A, a likelihood greater than the part detection threshold Tp is calculated at a position (x1, y1) or (x2, y2) where the object is imaged, and the part #m is detected.

また、図5(b)は、部位検出部141が図5(a)の例と同じ入力画像をラスタ走査して、グリッドサンプリングにより作成された図3(a)の部位#mを入力画像から検出している様子を示している。   In FIG. 5B, the part detection unit 141 raster scans the same input image as in the example of FIG. 5A, and the part #m of FIG. 3A created by grid sampling is extracted from the input image. The state of detection is shown.

対象物判定部142は部位検出部141により生成された各部位の部位検出情報121を統合して入力画像中に対象物体像が存在するか否かを判定し、判定結果を異常判定部143へ出力する。対象物判定部142は、検出位置が予め設定された対象物検知基準を超えて集中しているときに入力画像中に対象物が撮像されていると判定する。具体的には対象物判定部142は、各部位の検出位置から当該部位の部位相対位置だけずらした相対的な対象物基準点(相対基準点)を算出する。そして、相対基準点が略一致する部位検出情報121の数を集計して予め設定された対象物検知閾値Toと比較し、集計値がToを超える相対基準点に対象物が存在すると判定する。一方、集計値がToを超える相対基準点がなければ入力画像中に対象物は存在しないと判定する。   The object determination unit 142 integrates the part detection information 121 of each part generated by the part detection unit 141 to determine whether or not the target object image exists in the input image, and sends the determination result to the abnormality determination unit 143. Output. The object determination unit 142 determines that the object is captured in the input image when the detection positions are concentrated beyond a preset object detection criterion. Specifically, the object determination unit 142 calculates a relative object reference point (relative reference point) that is shifted from the detection position of each part by the relative position of the part. Then, the number of the part detection information 121 whose relative reference points substantially coincide with each other is totaled and compared with a preset object detection threshold value To, and it is determined that there is an object at the relative reference point whose total value exceeds To. On the other hand, if there is no relative reference point whose total value exceeds To, it is determined that there is no object in the input image.

部位#mの検出位置を位置ベクトルP、検出時の検知倍率をαとすると相対基準点の位置ベクトルQはQ=(P+R)/αと算出される。Rは上述のように部位#mの部位相対位置を表すベクトルである。 If the detection position of the part #m is a position vector P and the detection magnification at the time of detection is α, the relative reference point position vector Q is calculated as Q = (P + R m ) / α. R m is a vector representing the relative position of the part #m as described above.

部位の検出位置を相対基準点に換算する処理は、検出結果ごとに一票投じることと似ていることから投票処理と呼ばれる。部位検出情報121の数を集計する代わりに、相対基準点が略一致する部位検出情報121の検出度の和を算出するという重み付け集計を行ってもよい。   The process of converting the detected position of a part into a relative reference point is called voting because it is similar to casting one vote for each detection result. Instead of summing up the number of part detection information 121, weighted summation may be performed in which the sum of the degree of detection of part detection information 121 whose relative reference points substantially match is calculated.

また、集計は検知倍率別に行ってもよいが、対象物の撮像状態やプロポーションの個体差が原因で同一対象物の投票値が複数の検知倍率に跨って設定されることがあるため、検知倍率が隣接する部位検出情報121での集計を許容するのがよい。   In addition, aggregation may be performed for each detection magnification, but because the voting value of the same object may be set across multiple detection magnifications due to individual differences in the imaging state and proportion of the object, the detection magnification It is preferable to allow the tabulation in the adjacent part detection information 121.

異常判定部143は対象物判定部142により対象物の存在が判定されると侵入異常が検知されたとして侵入異常信号を検知出力部15へ出力する。   When the object determination unit 142 determines the presence of the object, the abnormality determination unit 143 outputs an intrusion abnormality signal to the detection output unit 15 assuming that an intrusion abnormality is detected.

検知出力部15は外部装置と接続され、当該外部装置へ侵入異常信号を出力するインターフェース回路である。外部装置は、侵入者の存在を警報するスピーカー、ブザー又はランプ等の警報表示手段や、通信網を介して接続される遠隔地のセンタ装置等である。   The detection output unit 15 is an interface circuit that is connected to an external device and outputs an intrusion abnormality signal to the external device. The external device is an alarm display means such as a speaker, a buzzer, or a lamp for alarming the presence of an intruder, a remote center device connected via a communication network, and the like.

次に、対象物検知装置1の動作を説明する。図6は、対象物検知装置1の概略の動作を示すフロー図である。例えば、装置の管理者が電源を投入すると各部が動作を始める。画像取得部11は所定時間間隔で撮像された画像を検知制御部14に入力する。検知制御部14は画像が入力されるたびにステップS10〜S19からなる処理を繰り返す。   Next, operation | movement of the target object detection apparatus 1 is demonstrated. FIG. 6 is a flowchart showing a schematic operation of the object detection apparatus 1. For example, when the device administrator turns on the power, each unit starts operating. The image acquisition unit 11 inputs images captured at predetermined time intervals to the detection control unit 14. The detection control unit 14 repeats the process consisting of steps S10 to S19 each time an image is input.

画像が入力されると(S10)、検知制御部14の部位検出部141は入力画像から各部位を検出する(S11)。   When an image is input (S10), the part detection unit 141 of the detection control unit 14 detects each part from the input image (S11).

図7は、部位検出処理S11の概略のフロー図である。図7を参照して部位検出処理S11を説明する。   FIG. 7 is a schematic flowchart of the part detection process S11. The site detection process S11 will be described with reference to FIG.

部位検出部141は、7段階の検知倍率を順次、注目倍率に設定し(S110)、全ての検知倍率に対してステップS111〜S121の処理を繰り返すループ処理を実行する。   The part detection unit 141 sequentially sets the seven detection magnifications to the attention magnification (S110), and executes a loop process that repeats the processes of steps S111 to S121 for all the detection magnifications.

検知倍率のループ処理において、まず部位検出部141は、注目倍率が1以外である場合には、拡大又は縮小を行うことで注目倍率に応じたサイズの入力画像を生成する(S111)。部位検出部141は、当該入力画像の全ての画素位置を順次、局所領域と同形同大の枠の中心に設定し、設定した各位置での当該枠内の特徴量を抽出する(S112)。抽出された特徴量はその抽出位置と対応付けられ、特徴量情報として検知記憶部12に一時記憶される。この段階で特徴量を算出し保存しておき、後の処理で随時利用可能とすることで、無駄な重複算出を省くことができる。   In the loop processing of the detection magnification, first, when the attention magnification is other than 1, the part detection unit 141 generates an input image having a size corresponding to the attention magnification by performing enlargement or reduction (S111). The part detection unit 141 sequentially sets all pixel positions of the input image to the center of a frame having the same shape and size as the local region, and extracts a feature amount in the frame at each set position (S112). . The extracted feature amount is associated with the extraction position and temporarily stored in the detection storage unit 12 as feature amount information. By calculating and storing the feature amount at this stage and making it available at any time in later processing, it is possible to eliminate unnecessary duplication calculation.

部位検出部141は、部位情報120に記憶されているM個の部位#m(1≦m≦M)を順次、注目部位に設定し(S113)、さらに入力画像内の各画素位置を順次、注目位置に設定し(S114)、部位と画素位置との全組み合わせに対してステップS115〜S120の処理を繰り返すループ処理を実行する。   The part detection unit 141 sequentially sets M parts #m (1 ≦ m ≦ M) stored in the part information 120 as attention parts (S113), and further sequentially sets each pixel position in the input image, A loop process that repeats the processes of steps S115 to S120 is executed for all combinations of the part and the pixel position, which is set as the position of interest (S114).

部位と画素位置とに関するループ処理において、まず、部位検出部141は、注目部位の部位情報120を参照し、注目位置に注目部位の検出枠を設定し(S115)、さらに注目部位の識別基準を検出枠内の特徴量と比較して検出度を算出する(S116)。   In the loop processing relating to the part and the pixel position, first, the part detection unit 141 refers to the part information 120 of the target part, sets a detection frame of the target part at the target position (S115), and further sets an identification criterion for the target part. The degree of detection is calculated in comparison with the feature amount in the detection frame (S116).

入力画像の各位置での特徴量xはステップS112にて既に抽出してある。そこで、ステップS116にて、部位検出部141は、注目部位の局所領域相対位置それぞれを注目位置に加えて当該注目部位を構成する各局所領域の中心(すなわち各検出枠の中心)を算出し、得られた中心を抽出位置とする特徴量xを、ステップS112にて生成され記憶されている特徴量情報から読み出して注目部位の識別器H(x)に入力する。識別器から出力された尤度が検出度である。 Feature amount x i at each position of the input image have already extracted in step S112. Therefore, in step S116, the part detection unit 141 calculates the center of each local region (that is, the center of each detection frame) constituting the target part by adding each local region relative position of the target part to the target position. The feature quantity x i having the obtained center as the extraction position is read from the feature quantity information generated and stored in step S112, and input to the classifier H m (x) of the target site. The likelihood output from the discriminator is the degree of detection.

部位検出部141は、得られた検出度を部位検出閾値Tpと比較し(S117)、検出度がTpを超えていれば(S117にて「YES」)、注目位置に注目部位が検出されたとして、注目倍率、注目部位の部位番号、注目位置及び検出度を対応付けた部位検出情報を生成し検知記憶部12に記憶させる(S118)。一方、検出度がTp以下のときは(S117にて「NO」)、注目位置に注目部位は検出されなかったとしてステップS118は省略される。   The part detection unit 141 compares the obtained degree of detection with the part detection threshold Tp (S117). If the degree of detection exceeds Tp (“YES” in S117), the part of interest is detected at the target position. As shown, the part detection information in which the attention magnification, the part number of the part of interest, the position of attention, and the detection degree are associated is generated and stored in the detection storage unit 12 (S118). On the other hand, when the degree of detection is equal to or less than Tp (“NO” in S117), step S118 is omitted because no target region is detected at the target position.

こうして全部位、全検知倍率について入力画像全体を走査し終えると(S119にて「YES」、かつS120にて「YES」、かつS121にて「YES」)、部位検出処理S11は終了する。   Thus, when the entire input image has been scanned for all the parts and all the detection magnifications (“YES” in S119, “YES” in S120, and “YES” in S121), the part detection process S11 ends.

部位検出処理S11が終わると図6に示すように、対象物検知装置1の処理は投票値集計処理S12へ進む。投票値集計処理S12では、対象物判定部142により、以下に説明するように、部位検出情報に基づく投票と、投票結果の集計とが行われる(S12)。   When the part detection process S11 ends, as shown in FIG. 6, the process of the object detection apparatus 1 proceeds to the vote value totaling process S12. In the vote value counting process S12, the object determination unit 142 performs voting based on the part detection information and counting of the voting results as described below (S12).

対象物判定部142は、原寸の入力画像と同サイズの投票画像を検知倍率ごとに用意し、これらの画素値を0クリアする。次に対象物判定部142は、各部位検出情報の部位番号に対応する部位の部位相対位置Rを部位情報120から読み出し、当該部位相対位置Rを当該部位検出情報の検出位置に加算して加算結果に当該部位検出情報の検知倍率を乗じて相対基準位置を算出する。続いて対象物判定部142は、各部位検出情報の検知倍率に対応する投票画像において、相対基準位置の画素値に当該部位検出情報の検出度を加算する。さらに対象物判定部142は、検知倍率ごとに検知倍率が隣接する投票画像同士で互いに対応する位置の画素値を加算する。   The object determination unit 142 prepares a voting image having the same size as the original input image for each detection magnification, and clears these pixel values to zero. Next, the object determination unit 142 reads the part relative position R of the part corresponding to the part number of each part detection information from the part information 120, and adds the part relative position R to the detection position of the part detection information. The relative reference position is calculated by multiplying the result by the detection magnification of the part detection information. Subsequently, the object determining unit 142 adds the degree of detection of the part detection information to the pixel value of the relative reference position in the voting image corresponding to the detection magnification of each part detection information. Furthermore, the object determination unit 142 adds pixel values at positions corresponding to each other between the vote images having adjacent detection magnifications for each detection magnification.

こうして投票及びその集計(S12)が終わると、対象物判定部142は、各検知倍率の投票画像をブロック分割してブロックごとに画素値(集計値)が最大であるピーク画素を検出する(S13)。ブロックサイズには対象物標本画像のサイズに(1−最大許容隠蔽率)を乗じたサイズより小さなサイズが予め設定される。   When voting and counting (S12) are completed in this way, the object determination unit 142 divides the voting image at each detection magnification into blocks, and detects the peak pixel having the maximum pixel value (total value) for each block (S13). ). As the block size, a size smaller than the size obtained by multiplying the size of the object specimen image by (1-maximum allowable concealment rate) is set in advance.

対象物判定部142は、各ピーク画素を順次、注目ピーク画素に設定し(S14)、全ピーク画素に対してステップS15〜S17の処理を繰り返すループ処理を実行する。このピーク画素のループ処理において、対象物判定部142は、注目ピーク画素の画素値(集計値)を対象物検知閾値Toと比較して(S15)、集計値がToより大きければ注目ピーク画素の位置に対象物を検知したとして(S15にて「YES」)、注目ピーク画素の位置、注目ピーク画素の画素値、及び注目ピーク画素が属する投票画像の検知倍率を対応付けた対象物検知情報を生成して検知記憶部12に記憶させる(S16)。一方、集計値がTo以下の場合(S15にて「NO」)、ステップS16は省略される。   The object determination unit 142 sequentially sets each peak pixel as a target peak pixel (S14), and executes a loop process that repeats the processes of steps S15 to S17 for all peak pixels. In this peak pixel loop processing, the object determination unit 142 compares the pixel value (total value) of the peak pixel of interest with the target detection threshold To (S15), and if the total value is greater than To, If the object is detected at the position (“YES” in S15), the object detection information in which the position of the peak pixel of interest, the pixel value of the peak peak pixel, and the detection magnification of the voting image to which the peak peak pixel belongs is associated. Generated and stored in the detection storage unit 12 (S16). On the other hand, when the total value is equal to or less than To (“NO” in S15), step S16 is omitted.

こうして全ピーク画素について処理し終えると(S17にて「YES」)、対象物判定部142の処理は終了する。   When the processing has been completed for all the peak pixels in this way (“YES” in S17), the processing of the object determination unit 142 ends.

対象物判定部142が処理を終えると、検知制御部14の異常判定部143は検知記憶部12を参照して対象物検知情報の有無を確認し(S18)、対象物検知情報が1つでも記憶されていれば対象物が検知されたとして(S18にて「YES」)、侵入異常信号を検知出力部15へ出力し、検知出力部15に警報を出力させる(S19)。   When the object determination unit 142 finishes the process, the abnormality determination unit 143 of the detection control unit 14 refers to the detection storage unit 12 to confirm the presence / absence of the object detection information (S18), and even one object detection information exists. If it is stored, the object is detected ("YES" in S18), an intrusion abnormality signal is output to the detection output unit 15, and an alarm is output to the detection output unit 15 (S19).

以上の処理を終えると、処理は再びステップS10へ戻される。   When the above process is completed, the process returns to step S10 again.

上記実施形態では、画像取得部11は撮像部10と接続され、検知制御部14はオンライン処理で対象物を検知した。しかし、画像取得部11が録画装置と接続され、検知制御部14がオフライン処理で対象物を検知する構成としてもよい。   In the above embodiment, the image acquisition unit 11 is connected to the imaging unit 10, and the detection control unit 14 detects the object by online processing. However, the image acquisition unit 11 may be connected to the recording device, and the detection control unit 14 may detect an object by offline processing.

また、上述の実施形態では、検知倍率変更部140は検知倍率に応じて入力画像を拡大・縮小し、部位検出部141は部位と合同な検出枠を設定した。しかし、検知倍率変更部140は入力画像の拡大・縮小を行わず、代わりに部位検出部141が検知倍率を相似比とする部位の相似図形の検出枠を入力画像内の各位置に設定する構成とすることもできる。   In the above-described embodiment, the detection magnification changing unit 140 enlarges / reduces the input image according to the detection magnification, and the part detection unit 141 sets a detection frame congruent with the part. However, the detection magnification changing unit 140 does not enlarge or reduce the input image, but instead the part detection unit 141 sets a detection frame for a similar figure of a part having a detection magnification as a similarity ratio at each position in the input image. It can also be.

部位検出部141は上述の実施形態では、入力画像内の全画素位置に検出枠を設定したが、監視空間の環境に応じて入力画像内に予め設定された対象物の存在可能範囲内のみに検出枠を設定してもよい。さらに別の実施形態において部位検出部141は、まず入力画像から特徴点を抽出し、抽出された特徴点の周辺範囲内のみに検出枠を設定するようにしてもよい。また、部位検出部141は、各部位の基準局所領域の特徴量を当該部位の部位情報120に記憶しておき、まず入力画像内の全画素位置にて当該特徴量とのマッチングを行って一致が得られた画素位置のみに検出枠を設定してもよい。   In the above-described embodiment, the part detection unit 141 sets detection frames at all the pixel positions in the input image. However, the part detection unit 141 is set only in the possible range of the target object set in advance in the input image according to the environment of the monitoring space. A detection frame may be set. In still another embodiment, the part detection unit 141 may first extract feature points from the input image, and set a detection frame only within the peripheral range of the extracted feature points. In addition, the part detection unit 141 stores the feature amount of the reference local region of each part in the part information 120 of the part, and first matches the feature amount with all the pixel positions in the input image. A detection frame may be set only at the pixel position at which is obtained.

[学習装置]
図8は、実施形態に係る学習装置2の概略の構成を示すブロック図である。学習装置2は、学習操作部20、学習記憶部21、学習制御部22及び学習出力部23を含んで構成される。学習操作部20、学習記憶部21及び学習出力部23は学習制御部22と接続される。
[Learning device]
FIG. 8 is a block diagram illustrating a schematic configuration of the learning device 2 according to the embodiment. The learning device 2 includes a learning operation unit 20, a learning storage unit 21, a learning control unit 22, and a learning output unit 23. The learning operation unit 20, the learning storage unit 21, and the learning output unit 23 are connected to the learning control unit 22.

学習操作部20はキーボード、マウス等のユーザインターフェース装置であり、装置の管理者により操作され、学習の開始指示や部位情報の出力指示を学習制御部22に与える。   The learning operation unit 20 is a user interface device such as a keyboard and a mouse, and is operated by an administrator of the device, and gives a learning start instruction and a part information output instruction to the learning control unit 22.

学習記憶部21はROM、RAM、ハードディスク等の記憶装置であり、学習制御部22で使用されるプログラムやデータを記憶する。学習記憶部21はこれらプログラム、データを学習制御部22との間で入出力する。学習記憶部21に記憶されるデータには、標本画像210、部位候補情報211、部位情報212が含まれる。   The learning storage unit 21 is a storage device such as a ROM, a RAM, and a hard disk, and stores programs and data used by the learning control unit 22. The learning storage unit 21 inputs and outputs these programs and data to and from the learning control unit 22. The data stored in the learning storage unit 21 includes a specimen image 210, part candidate information 211, and part information 212.

標本画像210は部位情報212を作成する基礎となる画像であり、当該学習に先立って予め記憶される。標本画像210は、対象物が撮像された多数(数千〜数万枚程度)の対象物標本画像、及び対象物が撮像されていない多数(数千〜数万枚程度)の非対象物標本画像とからなる。標本画像210のそれぞれには当該画像を識別する標本番号が付与されている。各標本画像210は64×128画素の基準サイズに予め揃えられている。   The sample image 210 is an image serving as a basis for creating the part information 212, and is stored in advance prior to the learning. The sample image 210 includes a large number (several thousands to several tens of thousands) of target object images in which the target is imaged, and a large number (several thousands to tens of thousands) of the non-target samples in which the target is not captured. It consists of an image. Each of the sample images 210 is given a sample number for identifying the image. Each sample image 210 is pre-aligned to a reference size of 64 × 128 pixels.

部位候補情報211は標本画像210から作成・学習された部位それぞれについての情報である。部位候補情報211は、後述の部位情報212の候補となる情報であり、上述の対象物検知装置1の部位情報120となる部位情報212そのものとは区別される。但し、その内容は部位情報120,212に準ずるものであり、具体的には部位候補情報211は、各部位の部位番号、当該部位の領域設定、当該部位の識別基準、当該部位の部位相対位置等である。   The part candidate information 211 is information about each part created and learned from the sample image 210. The part candidate information 211 is information that becomes a candidate for part information 212 to be described later, and is distinguished from the part information 212 itself that becomes part information 120 of the object detection device 1 described above. However, the content conforms to the part information 120 and 212. Specifically, the part candidate information 211 includes the part number of each part, the region setting of the part, the identification criterion of the part, and the part relative position of the part. Etc.

部位情報212は部位候補情報211から取捨選択された情報である。その内容は上述した部位情報120と同じであり、各部位の部位番号、当該部位の領域設定、当該部位の識別基準、当該部位の部位相対位置である。   The part information 212 is information selected from the part candidate information 211. The contents are the same as the part information 120 described above, and are the part number of each part, the region setting of the part, the identification criterion of the part, and the part relative position of the part.

学習出力部23は生成された部位情報212を学習装置2の外部へ出力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムからなる。外部出力された各データは対象物検知装置1に入力される。   The learning output unit 23 includes a USB terminal for outputting the generated part information 212 to the outside of the learning device 2, a CD drive, an interface circuit such as a network adapter, and respective drivers and programs. Each data output externally is input to the object detection apparatus 1.

学習制御部22は、DSP、MCU等の演算装置を用いて構成される。学習制御部22は、標本画像210から部位情報212を生成して、生成した部位情報212を学習出力部23へ出力する処理を行う。具体的には、学習制御部22は、学習記憶部21からプログラムを読み出して実行し、後述する部位候補生成部220、学習部221、識別率判定部222、部位情報生成部223として機能する。   The learning control unit 22 is configured using an arithmetic device such as a DSP or MCU. The learning control unit 22 performs a process of generating the part information 212 from the sample image 210 and outputting the generated part information 212 to the learning output unit 23. Specifically, the learning control unit 22 reads and executes a program from the learning storage unit 21 and functions as a part candidate generation unit 220, a learning unit 221, an identification rate determination unit 222, and a part information generation unit 223, which will be described later.

部位候補生成部220は、対象物標本画像内に互いに異なる複数の部位基準点を設定し、部位基準点ごとに当該部位基準点を内包する部位を順次大きさを変更して生成し、生成された部位を学習部221に入力する。ここで生成されるのは部位の候補であり、生成された候補は後段の処理での取捨選択に供されることになる。部位候補生成部220が大きさの異なる部位の候補を生成することで隠蔽耐性と識別性能とが両立された部位情報の生成が可能となる。なお、部位の大きさは、局所領域1つ分より大きく、標本画像210の基準サイズ未満に設定される。例えば、大きさの上限は基準サイズの2分の1に設定される。   The part candidate generation unit 220 sets a plurality of different part reference points in the object specimen image, and generates and generates a part including the part reference point for each part reference point by sequentially changing the size. The learned part is input to the learning unit 221. What is generated here is a candidate for a part, and the generated candidate is used for selection in the subsequent processing. The part candidate generation unit 220 generates part candidates having different sizes, so that part information having both concealment resistance and identification performance can be generated. Note that the size of the part is set to be larger than one local region and smaller than the reference size of the specimen image 210. For example, the upper limit of the size is set to 1/2 of the reference size.

このように部位基準点を内包し互いに大きさが異なる部位の候補を生成することで、1つの部位基準点に対して1以上の候補が生成される。その結果、対象物標本画像においてあまり特徴的でない位置を部位基準点とする部位の部位情報も生成されやすくなり、対象物標本画像に対する網羅性が高くなる。これにより、対象物の多様な隠蔽状態に適応可能となる。   As described above, one or more candidates are generated for one part reference point by generating part candidates that include the part reference point and have different sizes. As a result, it becomes easy to generate part information of a part having a part that is not very characteristic in the target specimen image as a part reference point, and the coverage with respect to the target specimen image is improved. Thereby, it becomes possible to adapt to various concealment states of the object.

また、互いに異なる複数の部位基準点を設定することによっても、対象物標本画像に対する網羅性が高められ、対象物の多様な隠蔽状態に適応可能となる。   Also, by setting a plurality of different site reference points, the completeness with respect to the object specimen image is improved, and it becomes possible to adapt to various concealment states of the object.

部位の大きさを変更するために、具体的には、部位候補生成部220は、対象物標本画像内の複数の位置に画像特徴の分析単位である局所領域を設定すると共に、部位基準点を囲む標本枠を順次大きさを変更して設定し、当該標本枠内の局所領域を集めた部位を生成する。つまり、部位候補生成部220は標本枠内の一部領域又は全部領域を部位として生成する。このように標本枠の大きさで部位の大きさを制限することにより、近接した局所領域同士を集めつつ部位の大きさを制御することが確実かつ容易にできる。特に、前述した特徴点サンプリング法又はランダムサンプリング法の場合は局所領域が離散的に配置されるため、標本枠の導入効果が高い。このとき特に、部位候補生成部220は、標本枠が囲む局所領域の数を異ならせることで段階的に当該標本枠の大きさの変更を行う。これにより部位の大きさを変化させたときに識別基準の識別率を確実かつ容易に変化させることができ、部位情報生成の効率を高めることができる。   In order to change the size of the part, specifically, the part candidate generation unit 220 sets a local region, which is an image feature analysis unit, at a plurality of positions in the object specimen image, and sets a part reference point. The surrounding sample frames are sequentially changed in size and set, and a region in which local regions in the sample frame are collected is generated. That is, the part candidate production | generation part 220 produces | generates the one part area | region or all area | region in a sample frame as a part. In this way, by limiting the size of the part by the size of the sample frame, it is possible to reliably and easily control the size of the part while collecting adjacent local regions. In particular, in the case of the feature point sampling method or the random sampling method described above, since the local regions are discretely arranged, the effect of introducing the sample frame is high. At this time, in particular, the part candidate generation unit 220 changes the size of the sample frame stepwise by changing the number of local regions surrounded by the sample frame. Thereby, when the size of the part is changed, the identification rate of the identification reference can be changed reliably and easily, and the efficiency of the part information generation can be increased.

大きさ段階の設定の仕方として、1つの局所領域からなる標本枠を最小の段階とし、比較的小さいステップで局所領域の個数が順次増加するように定めることが、隠蔽に強いコンパクトな部位情報を効率よく生成できる点からは好適である。   As a method of setting the size step, it is possible to set the sample frame consisting of one local region as the minimum step and to determine that the number of local regions sequentially increases in a relatively small step. This is preferable from the viewpoint of efficient generation.

部位候補生成部220は、所定基準に従って対象物標本画像内に複数の標本点を設定し、これら標本点を中心に局所領域を設定すると共に各標本点を部位基準点としても設定する。部位基準点と標本点とを共有したとき、局所領域は前述した基準局所領域として扱われる。   The site candidate generation unit 220 sets a plurality of sample points in the object sample image according to a predetermined standard, sets a local region around these sample points, and sets each sample point as a site reference point. When the part reference point and the sample point are shared, the local region is treated as the reference local region described above.

以下、標本点及び局所領域の設定法を3種類説明する。   Hereinafter, three types of setting methods for sample points and local regions will be described.

<特徴点サンプリング法>
対象物標本画像から特徴点を検出し、検出された各特徴点の代表位置を標本点とする。特徴点として、コーナー(corner)と呼ばれるエッジの交点、又はブロッブ(blob)と呼ばれる輝度極大点などが用いられる。具体的には、ハリス−ラプラス(Harris-Laplace)の方法など公知のコーナー検出方法により各対象物標本画像からコーナーを特徴点として検出し、又は、SIFT(Scale-Invariant Feature Transform)など公知のブロッブ検出方法により各対象物標本画像からブロッブを特徴点として検出する。
<Feature point sampling method>
A feature point is detected from the object sample image, and a representative position of each detected feature point is set as a sample point. As the feature point, an intersection of edges called a corner or a luminance maximum point called a blob is used. Specifically, a corner is detected as a feature point from each object specimen image by a known corner detection method such as the Harris-Laplace method, or a known blob such as SIFT (Scale-Invariant Feature Transform). A blob is detected as a feature point from each object specimen image by the detection method.

ここで、多数の対象物標本画像から同一部位に関して検出される特徴点は全くの同一位置に検出されるのではない。そのため部位候補生成部220は各対象物標本画像の特徴点にて特徴量を抽出し、対象物標本画像間で特徴点の位置と特徴量とに着目したクラスタリングを行って特徴点のクラスタを生成し、各クラスタに属する特徴点の平均位置を局所領域の標本点と定める。   Here, feature points detected for the same part from a large number of object specimen images are not detected at exactly the same position. Therefore, the part candidate generation unit 220 extracts feature amounts from the feature points of each target specimen image, and performs clustering focusing on the positions of the feature points and the feature quantities between the target specimen images to generate feature point clusters. Then, the average position of the feature points belonging to each cluster is determined as the sample point of the local region.

図9は、特徴点サンプリング法における特徴点又は後述するランダムサンプリング法におけるランダム点とクラスタと標本点との関係を示す模式図である。図9は、各対象物標本画像30にて互いに対応する特徴点(又はランダム点)31(×印)が、点線で示す領域32内にばらついて検出された様子を示している。この場合、領域32が特徴点(又はランダム点)のクラスタに相当し、それらの特徴点(又はランダム点)31の平均位置が標本点33(黒丸)に設定される。標本点33を中心とする実線の円が当該標本点33に対応して設定される局所領域を表している。なお、特徴点(又はランダム点)31を囲む実線の円はクラスタリング用の特徴量を抽出する領域を表している。   FIG. 9 is a schematic diagram showing the relationship between feature points in the feature point sampling method or random points, clusters, and sample points in the random sampling method described later. FIG. 9 shows a state in which feature points (or random points) 31 (x marks) corresponding to each other in each object specimen image 30 are detected in a region 32 indicated by a dotted line. In this case, the region 32 corresponds to a cluster of feature points (or random points), and the average position of the feature points (or random points) 31 is set to the sample point 33 (black circle). A solid line circle centered on the sample point 33 represents a local region set corresponding to the sample point 33. Note that a solid circle surrounding the feature point (or random point) 31 represents a region from which a feature amount for clustering is extracted.

標本点は、各クラスタに属する特徴点の平均位置に代えて、各クラスタに属する特徴点の位置の中央値又は最頻値などとしてもよい。   The sample point may be the median or mode of the position of the feature point belonging to each cluster, instead of the average position of the feature point belonging to each cluster.

特徴点では部位の識別に有意な特徴量を得やすいので、それに基づく局所領域を集めて生成される部位は、大きさ段階ごとに識別基準の識別率がより確実に増減するので効率よく部位情報を生成できる。   Since feature points can be easily obtained with feature points that are significant for part identification, the part that is generated by collecting local regions based on the feature points increases and decreases more reliably at each size step, so the part information can be efficiently obtained. Can be generated.

<グリッドサンプリング法>
対象物標本画像の全体に等間隔で複数の標本点を設定し、各標本点を中心とする局所領域を設定する。
<Grid sampling method>
A plurality of sample points are set at equal intervals on the entire object sample image, and a local region centered on each sample point is set.

この方式による局所領域を用いた部位の数は標本点の間隔で制御可能である。局所領域間のオーバーラップを許容する設定でもよい。なお、この方式は、対象物標本画像を等間隔で分割することと等価である。   The number of parts using the local region by this method can be controlled by the interval between the sample points. It may be set to allow overlap between local regions. This method is equivalent to dividing the object specimen image at equal intervals.

上述した特徴点サンプリング法では対象物の全体に満遍なく特徴点が検出されないこともあるが、グリッドサンプリング法なら対象物の全体に満遍なく部位を設定できるので多様な隠蔽状態の対象物を検知可能な部位情報を確実に生成できる。   In the feature point sampling method described above, feature points may not be detected evenly over the entire object, but with the grid sampling method, parts can be set evenly over the whole object, so that parts that can detect objects in various concealed states can be detected. Information can be generated reliably.

<ランダムサンプリング法>
対象物標本画像の全体にランダムに複数の標本点を設定し、各標本点を中心とする局所領域を設定する。
<Random sampling method>
A plurality of sample points are set at random on the entire object sample image, and a local region centered on each sample point is set.

この方式による局所領域を用いた部位の数はランダムに発生させる標本点の数で制御可能である。   The number of parts using the local region by this method can be controlled by the number of sample points generated at random.

ランダムサンプリング法もグリッドサンプリング法と同様に、対象物の全体に満遍なく部位を設定できるので多様な隠蔽状態の対象物を検知可能な部位情報を確実に生成できる。   Similarly to the grid sampling method, the random sampling method can uniformly set a part over the entire object, and can reliably generate part information that can detect objects in various concealed states.

以上、3種類の標本点及び局所領域の設定方法を説明した。図10は、各方法における標本枠の大きさの段階を示す模式図である。図10(a)は特徴点サンプリング法、及びランダムサンプリング法を採用した場合の様子であり、或る標本点に対する標本枠の4段階の大きさを示している。また図10(b)はグリッドサンプリング法を採用した場合の様子であり、或る標本点に対する標本枠の3段階の大きさを示している。図10において、黒丸が標本点、標本点を囲む細線の円又は矩形が局所領域、太線の円又は矩形が標本枠、斜線の局所領域が基準局所領域を表している。基準局所領域内の標本点は部位基準点である。   The method for setting three types of sample points and local areas has been described above. FIG. 10 is a schematic diagram showing the stage of the size of the sample frame in each method. FIG. 10A shows a state in which the feature point sampling method and the random sampling method are employed, and shows the size of the four sample frames for a certain sample point. FIG. 10B shows a state in which the grid sampling method is employed, and shows the size of the sample frame for a certain sample point in three stages. In FIG. 10, a black circle represents a sample point, a thin line circle or rectangle surrounding the sample point represents a local region, a thick line circle or rectangle represents a sample frame, and a hatched local region represents a reference local region. Sample points in the reference local region are site reference points.

特徴量を選択しながら追加するブースティング法による学習において、標本枠は、初期状態となる最小段階で既に複数個の局所領域を含む設定とし、また1段階拡大する際に複数個増加させる。このように設定することで、特徴量を選択する余地が常に与えられ、有意な学習を実行させられることができる。この観点から本実施形態では例えば、最小の標本枠は少なくとも5個の局所領域を含み、1段階拡大されると局所領域が3個以上増えるように設定する。   In the learning by the boosting method that is added while selecting the feature amount, the sample frame is set to include a plurality of local regions at the minimum stage that is the initial state, and a plurality of specimen frames are increased when the stage is enlarged by one stage. By setting in this way, there is always room for selecting a feature amount, and significant learning can be performed. From this point of view, in this embodiment, for example, the minimum sample frame includes at least five local regions, and is set so that the number of local regions increases by three or more when enlarged by one step.

学習部221(識別基準生成部)は、標本画像210における部位の画像特徴を用いて識別基準を学習する。すなわち学習部221は、部位候補生成部220から入力された部位について、対象物標本画像における当該部位の画像特徴及び非対象物標本画像における当該部位の画像特徴を抽出し、これらの画像特徴にブースティング法を適用して識別器を学習する。識別基準としてテンプレートを用いる別の実施形態においては学習部221は、対象物標本画像における当該部位の画像特徴を平均化することでテンプレートを学習する。この場合の学習において非対象物標本画像は不要である。学習部221での識別基準の学習により、部位候補情報211が生成され記憶される。   The learning unit 221 (identification reference generation unit) learns the identification reference using the image feature of the part in the sample image 210. That is, the learning unit 221 extracts the image feature of the part in the target specimen image and the image feature of the part in the non-target specimen image for the part input from the part candidate generation unit 220, and adds the booth to these image features. Apply the Ting method to learn the classifier. In another embodiment using a template as an identification criterion, the learning unit 221 learns the template by averaging the image features of the part in the object specimen image. In the learning in this case, the non-object sample image is not necessary. Part candidate information 211 is generated and stored by learning of the identification criteria in the learning unit 221.

識別率判定部222は学習部221により学習され部位候補情報211として記憶されている部位の識別基準による識別率を求め、当該識別率が目標値を超える部位を有効であると判定する。具体的には、識別率判定部222は、部位候補情報211に記憶されている部位の識別器に対象物標本画像及び非対象物画像を入力して識別率を算出し、当該識別率が目標値εを超えるか否かを判定する。識別率判定部222は、対象物標本画像の部位内の各局所領域から抽出された特徴量xを識別器Hに入力してその出力が部位検出閾値Tp以下であれば誤りと判定し、さらに非対象物画像に同領域を設定して抽出された特徴量xを識別器Hに入力してその出力がTpより大きければ誤りと判定する。そして、これらの誤りの数を計数して標本画像210の総数で計数値を除算することで誤り率を算出し、誤り率が目標値未満であれば識別率が目標値を超えたと判定する。誤り率に対する目標値は0以上0.5未満の範囲内で設定される。また目標値の設定は全部位に共通である。なお、誤り率の代わりに正解率を算出して正解率が目標値より大きければ識別率が目標値を超えたと判定してもよい。 The identification rate determination unit 222 obtains an identification rate based on the identification criterion of the part learned by the learning unit 221 and stored as the part candidate information 211, and determines that the part whose identification rate exceeds the target value is effective. Specifically, the identification rate determination unit 222 calculates the identification rate by inputting the object specimen image and the non-object image to the classifier of the part stored in the part candidate information 211, and the identification rate is the target. It is determined whether or not the value ε is exceeded. Discrimination rate determination unit 222 inputs the feature value x i which is extracted from the local region within the site of the object specimen image identifier H is determined that an error if the output is below site detection threshold Tp, its output further feature amount x i which is extracted by setting the region to the non-object image is input to the identifier H is determined that an error greater than Tp. The error rate is calculated by counting the number of these errors and dividing the count value by the total number of sample images 210. If the error rate is less than the target value, it is determined that the identification rate has exceeded the target value. The target value for the error rate is set within a range of 0 or more and less than 0.5. The target value setting is common to all parts. Note that the accuracy rate may be calculated instead of the error rate, and if the accuracy rate is larger than the target value, it may be determined that the identification rate has exceeded the target value.

識別基準としてテンプレートを学習する構成の場合、識別器の出力を判定する処理に代えて、テンプレートマッチングの結果を判定する。すなわち識別率判定部222は、対象物標本画像の部位内の各局所領域から抽出された特徴量とテンプレートとの一致度を算出して当該一致度がTp以下であれば誤りと判定し、さらに非対象物画像に同領域を設定して抽出された特徴量とテンプレートとの一致度を算出して当該一致度がTpより大きければ誤りと判定する。   In the case of a configuration in which a template is learned as an identification reference, the template matching result is determined instead of the process of determining the output of the classifier. That is, the identification rate determination unit 222 calculates the degree of coincidence between the feature quantity extracted from each local region in the region of the object specimen image and the template and determines that the degree of error is equal to or less than Tp. The degree of coincidence between the feature quantity extracted by setting the same region in the non-object image and the template is calculated, and if the degree of coincidence is greater than Tp, it is determined as an error.

部位情報生成部223は識別率判定部222にて有効と判定された部位候補情報211のうち大きさ段階が最小の部位候補情報211を選択し部位情報212とする。   The part information generation unit 223 selects the part candidate information 211 having the smallest size step from the part candidate information 211 determined to be valid by the identification rate determination unit 222 and sets it as the part information 212.

本実施形態では、部位候補生成部220が部位を順次拡大する構成としており、この場合、識別率判定部222が最初に有効と判定した部位候補情報211が大きさ最小の部位候補情報211となる。すなわち、識別率の目標値を実現しつつコンパクトな部位が得られる。   In the present embodiment, the region candidate generation unit 220 is configured to sequentially expand the region. In this case, the region candidate information 211 that is first determined to be valid by the identification rate determination unit 222 becomes the region candidate information 211 with the smallest size. . That is, a compact part can be obtained while realizing the target value of the identification rate.

なお、この点に関して、既に述べたように、基本的に部位が大きいほど識別率が大きくなる関係があり、当該関係からは、識別率の目標値を設定すると、部位の大きさとして理想的には当該目標値を丁度実現するサイズ、つまりそれより大きいサイズでは識別率が目標値を超え、それより小さいサイズでは目標値を超えない限界サイズというものが存在する。実際には、部位のサイズは上述の実施形態のように離散的に設定される場合には必ずしも理想的な限界サイズは設定できないが、上述のような近似的な限界サイズを設定することで、部位のコンパクト化による一部隠蔽状態にある対象物の高精度検知という性能向上を図ることができる。   In this regard, as already described, there is a relationship in which the identification rate basically increases as the site is larger. From this relationship, setting the target value of the identification rate is ideal as the size of the site. There is a limit size that does not exceed the target value when the identification rate exceeds the target value for a size that exactly realizes the target value, that is, a size that is larger than that. Actually, when the size of the part is discretely set as in the above-described embodiment, the ideal limit size cannot necessarily be set, but by setting the approximate limit size as described above, It is possible to improve the performance of highly accurate detection of an object in a partially concealed state by making the part compact.

この近似的な限界サイズの定め方は上述の実施形態に限られず、例えば、部位の大きさの上限と下限との間で乱数に基づく大きさの標本枠を多数設定して、当該各標本枠に対する部位の候補を生成し、これら全ての候補について有効か否かを判定してから有効とされたもののうちの最小サイズを限界サイズと定める構成や、各段階の標本枠内であらゆる可能な局所領域の追加順序について探索する構成など、近似の程度が異なるものが考えられる。   The method for determining the approximate limit size is not limited to the above-described embodiment. For example, a large number of sample frames based on random numbers are set between the upper limit and the lower limit of the size of the part, and each sample frame is set. A candidate for the region is generated, and after determining whether it is valid for all of these candidates, the minimum size of those that are validated is defined as the limit size, and all possible locals within the sample frame at each stage A different degree of approximation is conceivable, such as a configuration for searching for the order of adding regions.

どのような近似的方法を採用するかは、例えば、対象物検知装置1の目的を考慮して定めることができる。例えば、近似の精度を上げようとするほど、基本的に学習装置2における処理負荷が増加する。この点に関しては、部位のコンパクト化による性能向上と負荷増加とを比較考量して、適宜、構成を選択することができる。   What approximate method is adopted can be determined in consideration of the purpose of the object detection device 1, for example. For example, the processing load on the learning device 2 basically increases as the accuracy of approximation increases. In this regard, the configuration can be selected as appropriate by comparing and considering the performance improvement and the load increase due to the compact part.

次に、学習装置2の動作を説明する。図11は、学習装置2の概略の動作を示すフロー図である。管理者が学習装置2の電源を投入し学習操作部20を操作して学習の開始を指示すると、学習装置2は学習処理を行う。以下、図11を参照して学習処理を説明する。   Next, the operation of the learning device 2 will be described. FIG. 11 is a flowchart showing a schematic operation of the learning device 2. When the administrator turns on the power of the learning device 2 and operates the learning operation unit 20 to instruct the start of learning, the learning device 2 performs a learning process. Hereinafter, the learning process will be described with reference to FIG.

学習制御部22の部位候補生成部220は、各対象物標本画像内に複数の標本点を設定する(S20)。   The part candidate generation unit 220 of the learning control unit 22 sets a plurality of sample points in each object sample image (S20).

特徴点サンプリング法を採用した場合、部位候補生成部220は、各対象物標本画像から特徴点を抽出し、当該各特徴点において特徴量を抽出する。そして、対象物標本画像間で特徴点の位置と特徴量とに着目したクラスタリングを行って特徴点のクラスタを生成し、各クラスタに属する特徴点の代表位置を標本点として算出する。なお、帰属する特徴点数を対象物標本画像数と比べて少ない(例えば、6割未満)クラスタは対象物の検知に有意でないとして、当該クラスタに対する標本点を設定しない。   When the feature point sampling method is employed, the part candidate generation unit 220 extracts feature points from each object specimen image, and extracts feature amounts at the respective feature points. Then, clustering focusing on the position and feature amount of the feature points between the object sample images is performed to generate feature point clusters, and the representative positions of the feature points belonging to each cluster are calculated as sample points. It should be noted that a cluster point having a small number of characteristic points to be attributed compared to the number of object sample images (for example, less than 60%) is not significant for detection of the object, and no sample point is set for the cluster.

グリッドサンプリング法を採用した場合、部位候補生成部220は、対象物標本画像内に予め設定された等間隔の格子点それぞれを標本点として設定する。   When the grid sampling method is employed, the part candidate generation unit 220 sets each of the equidistant lattice points set in advance in the object specimen image as a specimen point.

ランダムサンプリング法を採用した場合、部位候補生成部220は、乱数に基づいて各対象物標本画像内に予め設定された個数の複数のランダム点を生成し、各ランダム点において特徴量を抽出する。そして、対象物標本画像間でランダム点の位置と特徴量とに着目したクラスタリングを行ってランダム点のクラスタを生成し、各クラスタに属するランダム点の代表位置を標本点として算出する。なお、特徴点サンプリング法の場合と同様、帰属数が少ないクラスタに対する標本点は設定しない。   When the random sampling method is adopted, the part candidate generation unit 220 generates a predetermined number of random points in each object specimen image based on the random number, and extracts a feature amount at each random point. Then, clustering focusing on the position and feature amount of the random points is performed between the object sample images to generate a cluster of random points, and the representative position of the random point belonging to each cluster is calculated as the sample point. As in the case of the feature point sampling method, sample points are not set for clusters with a small number of attributions.

次に部位候補生成部220は各標本点を中心とする局所領域を設定し(S21)、学習制御部22の学習部221は各対象物標本画像及び各非対象物標本画像から局所領域内の特徴量を抽出する(S22)。学習部221は、抽出された特徴量に抽出元の標本画像210の標本番号及び標本点の座標を対応付けた標本情報を学習記憶部21に一時記憶させる。この段階で特徴量を算出し保存しておき、後の処理で随時利用可能とすることで、無駄な重複算出を省くことができる。   Next, the part candidate generation unit 220 sets a local region centered on each sample point (S21), and the learning unit 221 of the learning control unit 22 uses the object sample image and each non-object sample image in the local region. A feature amount is extracted (S22). The learning unit 221 temporarily stores, in the learning storage unit 21, sample information in which the extracted feature quantity is associated with the sample number of the sample image 210 and the coordinates of the sample point. By calculating and storing the feature amount at this stage and making it available at any time in later processing, it is possible to eliminate unnecessary duplication calculation.

続いて部位候補生成部220は、各局所領域を順次、基準局所領域に設定し(S23)、全ての基準局所領域に対してステップS24〜S31の処理を繰り返すループ処理を実行する。なお、基準局所領域の中心は部位基準点である。   Subsequently, the part candidate generation unit 220 sequentially sets each local region as a reference local region (S23), and executes a loop process that repeats the processes of steps S24 to S31 for all the reference local regions. Note that the center of the reference local region is a part reference point.

この局所領域のループ処理において、まず部位候補生成部220は、最小段階の部位を設定する(S24)。すなわち、部位候補生成部220は、基準局所領域を中心とし、基準局所領域以外の局所領域を5個以上囲い込む最小の標本枠を設定する。部位候補生成部220は、標本枠に包含される局所領域を学習部221に通知する。   In this local region loop processing, the part candidate generation unit 220 first sets a minimum stage part (S24). That is, the part candidate generation unit 220 sets a minimum sample frame that surrounds five or more local regions other than the reference local region with the reference local region as the center. The part candidate generation unit 220 notifies the learning unit 221 of the local region included in the sample frame.

学習部221は、通知された局所領域の特徴量を標本情報から読み出し、読み出した特徴量を用いて識別基準の学習を行う(S25)。識別基準として識別器を用いる本実施形態では、学習部221は、対象物標本画像及び非対象物標本画像の特徴量を読み出して、これらの特徴量にブースティング法を適用して識別器を学習する。   The learning unit 221 reads the notified feature quantity of the local region from the sample information, and learns the identification criterion using the read feature quantity (S25). In this embodiment using a discriminator as a discrimination criterion, the learning unit 221 reads out feature quantities of the object specimen image and the non-object specimen image, and learns the discriminator by applying a boosting method to these feature quantities. To do.

別の実施形態においてはサポートベクターマシーン等の他の機械学習法を適用して識別基準を学習する。   In another embodiment, other machine learning methods such as support vector machines are applied to learn the identification criteria.

別の実施形態として、識別基準にテンプレートを用いる構成も可能であり、この場合、学習部221は、対象物標本画像の特徴量を読み出して、これらの特徴量を局所領域ごとに平均化してテンプレートを学習する。   As another embodiment, a configuration in which a template is used as an identification criterion is also possible. In this case, the learning unit 221 reads out feature quantities of the object specimen image, averages these feature quantities for each local region, and creates a template. To learn.

学習部221は、学習した識別基準と標本領域内の局所領域とを対応付けた部位候補情報211を学習記憶部21に追加記憶させ、追加させた部位候補情報211を学習制御部22の識別率判定部222に通知する。   The learning unit 221 additionally stores the part candidate information 211 in which the learned identification reference is associated with the local region in the sample area in the learning storage unit 21, and the added part candidate information 211 is identified by the learning control unit 22. The determination unit 222 is notified.

部位候補情報211の追加の通知を受けた識別率判定部222は、当該部位候補情報211が示す部位における対象物標本画像及び非対象物標本画像の特徴量を標本情報から読み出して、読み出した特徴量を当該部位候補情報211が示す識別基準と比較して識別率を算出する(S26)。   Upon receiving the notification of the addition of the part candidate information 211, the identification rate determination unit 222 reads the feature amount of the target specimen image and the non-target specimen image in the part indicated by the part candidate information 211 from the specimen information, and reads the feature. The identification rate is calculated by comparing the amount with the identification criterion indicated by the region candidate information 211 (S26).

識別率判定部222は算出した識別率を目標値εと比較し(S27)、識別率がεを超えていれば(S27にて「YES」)、ステップS25にて追加された部位候補情報211を部位情報212に転記し、新たな部位番号を付与する(S28)。部位を順次拡大させる本実施形態では識別率が目標値を最初に超えたときの部位候補情報211を部位情報212とすれば、当該部位情報212は識別率が目標値εを超える最小の部位情報となる。このようにして注目している基準局所領域に対する部位情報212が生成されると、部位候補生成部220は全ての局所領域を基準局所領域として処理し終えたか確認し(S31)、処理し終えたならば学習は終了し(S31にて「YES」)、処理し終えていなければ(S31にて「NO」)、残りの局所領域に対する処理が行われる(S23)。   The discrimination rate determination unit 222 compares the calculated discrimination rate with the target value ε (S27). If the discrimination rate exceeds ε (“YES” in S27), the part candidate information 211 added in step S25. Is transferred to the part information 212, and a new part number is assigned (S28). In this embodiment in which the region is sequentially expanded, if the region candidate information 211 when the identification rate first exceeds the target value is the region information 212, the region information 212 is the minimum region information whose identification rate exceeds the target value ε. It becomes. When the part information 212 for the reference local area of interest is generated in this way, the part candidate generation unit 220 confirms whether all the local areas have been processed as the reference local area (S31), and has been processed. If so, learning ends ("YES" in S31), and if not completed ("NO" in S31), the remaining local area is processed (S23).

一方、識別率がεを超えていなければ(S27にて「NO」)、部位候補生成部220は部位の拡大を行う(S29)。すなわち、部位候補生成部220は、基準局所領域を内包し、現時点の標本枠に含まれる局所領域の個数よりも3個多く局所領域を囲い込む最小の標本枠を設定する。部位候補生成部220は、拡大した標本枠が予め設定されている大きさの上限を超えているか確認し(S30)、上限を超えていなければ(S30にて「NO」)、拡大した標本枠に包含される局所領域を学習部221に通知し、学習部221は通知された局所領域の特徴量を用いて識別基準の学習を行う(S25)。   On the other hand, if the identification rate does not exceed ε (“NO” in S27), region candidate generation unit 220 expands the region (S29). That is, the part candidate generation unit 220 sets a minimum sample frame that includes the reference local region and surrounds the local region by three more than the number of local regions included in the current sample frame. The site candidate generation unit 220 confirms whether or not the enlarged sample frame exceeds the preset upper limit (S30), and if it does not exceed the upper limit (“NO” in S30), the enlarged sample frame. The learning unit 221 is notified of the local region included in the learning unit 221, and the learning unit 221 learns the identification criterion using the notified feature amount of the local region (S 25).

他方、拡大した標本枠が上限を超えている場合(S30にて「YES」)、処理はステップS31に進められ学習終了の判定が行われる。つまり、注目している基準局所領域については識別率が目標値εを超える部位情報を生成することはできなかったことになる。   On the other hand, if the expanded sample frame exceeds the upper limit (“YES” in S30), the process proceeds to step S31 to determine the end of learning. That is, for the reference local region of interest, it has not been possible to generate site information with an identification rate exceeding the target value ε.

こうして学習処理が終了した後、管理者が学習操作部20を操作して部位情報212の出力を指示すると、学習制御部22は学習記憶部21から部位情報212を読み出して学習出力部23に出力させる。   After the learning process is completed, when the administrator operates the learning operation unit 20 to instruct the output of the part information 212, the learning control unit 22 reads the part information 212 from the learning storage unit 21 and outputs it to the learning output unit 23. Let

なお、上記実施形態においては基準点Bを標本画像210の重心位置に定めたが、特徴点間で共通していれば基準点Bは標本画像210の左上端、右下端など任意の位置でもよい。   In the above embodiment, the reference point B is set at the center of gravity of the sample image 210. However, the reference point B may be at an arbitrary position such as the upper left end or the lower right end of the sample image 210 as long as it is common among the feature points. .

上述したブースティングを含めた公知の機械学習方法の多くは、誤り率が設定値未満になるか、反復数が予め設定された回数以上になるかのいずれかで学習を終了するのが一般的である。しかし、学習に用いる標本画像が識別率算出に用いる標本画像と同じとする場合、識別率判定部222は、誤り率を改めて算出せずに終了判定の設定値として目標値を設定し、学習部221における終了判定の結果を参照することで誤り率を得てもよい。   In many of the known machine learning methods including the boosting described above, it is common to end the learning either when the error rate is less than a set value or the number of iterations is equal to or greater than a preset number. It is. However, when the sample image used for learning is the same as the sample image used for identification rate calculation, the identification rate determination unit 222 sets a target value as a setting value for termination determination without calculating the error rate again, and the learning unit The error rate may be obtained by referring to the result of the end determination in 221.

1 対象物検知装置、2 学習装置、10 撮像部、11 画像取得部、12 検知記憶部、13 部位情報設定部、14 検知制御部、15 検知出力部、20 学習操作部、21 学習記憶部、22 学習制御部、23 学習出力部、30 各対象物標本画像、31 特徴点(又はランダム点)、32 領域、33 標本点、120 部位情報、121 部位検出情報、140 検知倍率変更部、141 部位検出部、142 対象物判定部、143 異常判定部、210 標本画像、211 部位候補情報、212 部位情報、220 部位候補生成部、221 学習部、222 識別率判定部、223 部位情報生成部。   DESCRIPTION OF SYMBOLS 1 Object detection apparatus, 2 Learning apparatus, 10 Imaging part, 11 Image acquisition part, 12 Detection storage part, 13 Site information setting part, 14 Detection control part, 15 Detection output part, 20 Learning operation part, 21 Learning storage part, 22 learning control units, 23 learning output units, 30 object specimen images, 31 feature points (or random points), 32 regions, 33 sampling points, 120 part information, 121 part detection information, 140 detection magnification changing part, 141 part Detection unit, 142 Object determination unit, 143 Abnormality determination unit, 210 Sample image, 211 Site candidate information, 212 Site information, 220 Site candidate generation unit, 221 Learning unit, 222 Identification rate determination unit, 223 Site information generation unit

Claims (8)

対象物の検知に用いられる当該対象物の部位の情報を生成する学習装置であって、
前記対象物の標本画像及び非対象物の標本画像を予め記憶している標本画像記憶部と、
前記標本画像内に所定の部位基準点を設定すると共に、当該部位基準点を内包し大きさが互いに異なる部位を順次生成する部位候補生成部と、
前記部位ごとに、前記標本画像のうち少なくとも前記対象物の標本画像における当該部位の画像特徴を用いて当該部位の有無を識別するための識別基準を学習する学習部と、
前記各部位の前記識別基準により前記各標本画像における当該部位の有無を識別して識別率を求め、前記識別率が所定の目標値を超える部位を有効と判定する識別率判定部と、
前記識別率判定部により有効と判定された前記部位のうち前記大きさが最小の部位と、当該部位の前記識別基準とを含めた部位情報を生成する部位情報生成部と、
を備えたことを特徴とする学習装置。
A learning device that generates information on a part of an object used for detecting the object,
A specimen image storage unit that stores in advance the specimen image of the object and the specimen image of the non-object;
A site candidate generator that sets a predetermined site reference point in the sample image, and sequentially generates sites that include the site reference point and have different sizes;
A learning unit that learns an identification criterion for identifying the presence or absence of the part using an image feature of the part in at least the specimen image of the object for each part,
An identification rate determination unit that determines the identification rate by identifying the presence or absence of the site in each sample image according to the identification criterion of each site, and determines that the site where the identification rate exceeds a predetermined target value is valid,
A part information generation unit that generates part information including the part having the smallest size among the parts determined to be effective by the identification rate determination unit and the identification reference of the part;
A learning apparatus comprising:
請求項1に記載の学習装置において、
前記部位候補生成部は、前記部位基準点を囲む前記大きさの標本枠を設定して当該標本枠内の一部領域又は全部領域を前記部位として生成すること、を特徴とする学習装置。
The learning device according to claim 1,
The part candidate generation unit sets a sample frame of the size surrounding the part reference point, and generates a partial region or a whole region in the sample frame as the part.
請求項2に記載の学習装置において、
前記部位候補生成部は、前記画像特徴の分析単位である局所領域を前記標本画像内に複数設定して前記標本枠が囲む前記局所領域の個数を増減させることにより前記大きさを制御し、当該標本枠が囲む前記局所領域の集まりを前記部位として生成すること、を特徴とする学習装置。
The learning device according to claim 2,
The region candidate generation unit controls the size by setting a plurality of local regions that are analysis units of the image features in the sample image and increasing or decreasing the number of the local regions surrounded by the sample frame, A learning apparatus, characterized in that a collection of the local regions surrounded by a sample frame is generated as the part.
請求項3に記載の学習装置において、
前記部位候補生成部は、前記標本画像を予め定められた等間隔で細分して前記局所領域を設定すること、を特徴とする学習装置。
The learning apparatus according to claim 3,
The site candidate generation unit subdivides the sample image at predetermined equal intervals to set the local region.
請求項3に記載の学習装置において、
前記部位候補生成部は、前記対象物の標本画像から前記対象物の特徴点を複数抽出し、当該各特徴点が抽出された位置に前記局所領域を設定すること、を特徴とする学習装置。
The learning apparatus according to claim 3,
The part candidate generation unit extracts a plurality of feature points of the target object from a specimen image of the target object, and sets the local region at a position where each feature point is extracted.
請求項3に記載の学習装置において、
前記部位候補生成部は、前記標本画像内にランダム点を生成し、当該各ランダム点が生成された位置に前記局所領域を設定すること、を特徴とする学習装置。
The learning apparatus according to claim 3,
The part candidate generation unit generates a random point in the sample image, and sets the local region at a position where the random point is generated.
請求項3から請求項6のいずれか1つに記載の学習装置において、
前記部位候補生成部は、前記局所領域が設定された位置それぞれに前記部位基準点を設定すること、を特徴とする学習装置。
In the learning apparatus according to any one of claims 3 to 6,
The site candidate generation unit sets the site reference point at each position where the local region is set.
請求項1から請求項7のいずれか1つに記載の学習装置により生成された情報を用いて、入力画像に撮像されている前記対象物を検知する対象物検知装置であって、
前記部位情報生成部により生成された前記部位情報を記憶する部位情報記憶部と、
前記入力画像の各位置において前記部位情報記憶部に記憶されている前記部位情報と対応する前記部位の有無を識別し、前記部位があると識別された前記入力画像中の位置を出力する部位検出部と、
前記部位検出部により出力された位置が予め設定された対象物検知基準を超えて集中しているときに前記対象物を検知する対象物判定部と、
を備えたことを特徴とする対象物検知装置。
An object detection device that detects the object imaged in an input image using information generated by the learning device according to any one of claims 1 to 7,
A part information storage unit for storing the part information generated by the part information generation unit;
Part detection that identifies the presence or absence of the part corresponding to the part information stored in the part information storage unit at each position of the input image, and outputs the position in the input image that is identified as having the part And
An object determination unit that detects the object when the position output by the part detection unit is concentrated beyond a preset object detection criterion;
An object detection apparatus comprising:
JP2010079656A 2010-03-30 2010-03-30 Learning device and object detection device Expired - Fee Related JP5290229B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079656A JP5290229B2 (en) 2010-03-30 2010-03-30 Learning device and object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079656A JP5290229B2 (en) 2010-03-30 2010-03-30 Learning device and object detection device

Publications (2)

Publication Number Publication Date
JP2011210181A true JP2011210181A (en) 2011-10-20
JP5290229B2 JP5290229B2 (en) 2013-09-18

Family

ID=44941132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079656A Expired - Fee Related JP5290229B2 (en) 2010-03-30 2010-03-30 Learning device and object detection device

Country Status (1)

Country Link
JP (1) JP5290229B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117865A (en) * 2011-12-02 2013-06-13 Kyushu Institute Of Technology Detection method for body and detection device for body using the method
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device
JP2015082323A (en) * 2013-10-24 2015-04-27 株式会社リコー Device and method for detecting object
JP2015115047A (en) * 2013-12-16 2015-06-22 国立大学法人 東京大学 Information processing apparatus, information processing method, program, and recording medium
JP2015170205A (en) * 2014-03-07 2015-09-28 オリンパス株式会社 Feature amount generation device, feature amount generation method, and program
JP2016045884A (en) * 2014-08-26 2016-04-04 キヤノン株式会社 Pattern recognition device and pattern recognition method
WO2020054028A1 (en) * 2018-09-13 2020-03-19 株式会社島津製作所 Data analyzer
EP3637320A1 (en) 2018-10-12 2020-04-15 Fujitsu Limited Computer program, learning apparatus, detecting apparatus, learning method, and detecting method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139477A (en) * 1997-07-16 1999-02-12 Fujitsu Ltd Corresponding point search device
JP2005149144A (en) * 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detection device, object detection method, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139477A (en) * 1997-07-16 1999-02-12 Fujitsu Ltd Corresponding point search device
JP2005149144A (en) * 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detection device, object detection method, and recording medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117865A (en) * 2011-12-02 2013-06-13 Kyushu Institute Of Technology Detection method for body and detection device for body using the method
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device
JP2015082323A (en) * 2013-10-24 2015-04-27 株式会社リコー Device and method for detecting object
JP2015115047A (en) * 2013-12-16 2015-06-22 国立大学法人 東京大学 Information processing apparatus, information processing method, program, and recording medium
JP2015170205A (en) * 2014-03-07 2015-09-28 オリンパス株式会社 Feature amount generation device, feature amount generation method, and program
JP2016045884A (en) * 2014-08-26 2016-04-04 キヤノン株式会社 Pattern recognition device and pattern recognition method
WO2020054028A1 (en) * 2018-09-13 2020-03-19 株式会社島津製作所 Data analyzer
CN112654864A (en) * 2018-09-13 2021-04-13 株式会社岛津制作所 Data analysis device
EP3637320A1 (en) 2018-10-12 2020-04-15 Fujitsu Limited Computer program, learning apparatus, detecting apparatus, learning method, and detecting method
US11049014B2 (en) 2018-10-12 2021-06-29 Fujitsu Limited Learning apparatus, detecting apparatus, learning method, and detecting method

Also Published As

Publication number Publication date
JP5290229B2 (en) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5290229B2 (en) Learning device and object detection device
CN106874894B (en) Human body target detection method based on regional full convolution neural network
JP5290227B2 (en) Object detection device and learning device thereof
US9008365B2 (en) Systems and methods for pedestrian detection in images
JP4933186B2 (en) Image processing apparatus, image processing method, program, and storage medium
CN111813997B (en) Intrusion analysis method, device, equipment and storage medium
CN104036284A (en) Adaboost algorithm based multi-scale pedestrian detection method
JP2009301104A (en) Object detecting apparatus
CN109389105B (en) Multitask-based iris detection and visual angle classification method
CN112200081A (en) Abnormal behavior identification method and device, electronic equipment and storage medium
CN102479329A (en) Classifier generation apparatus and method thereof, apparatus for detecting object in image and method thereof
CN110555386A (en) Face recognition identity authentication method based on dynamic Bayes
JP2014199506A (en) Object detection device, object method of detection, and program
US20120314939A1 (en) Recognizing apparatus and method, program, and recording medium
CN113728357B (en) Image processing method, image processing apparatus, and image processing system
CN106156808A (en) The on-line study method and apparatus of object classifier and detection method and equipment
Fang et al. 1-D barcode localization in complex background
US10115195B2 (en) Method and apparatus for processing block to be processed of urine sediment image
JP2010271792A (en) Image processing apparatus and method
Mantini et al. Camera Tampering Detection using Generative Reference Model and Deep Learned Features.
JP6326622B2 (en) Human detection device
CN107798282B (en) Method and device for detecting human face of living body
JP5241687B2 (en) Object detection apparatus and object detection program
JP4061405B2 (en) Face image classification registration device
JP2012100082A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130605

R150 Certificate of patent or registration of utility model

Ref document number: 5290229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees