JP4894747B2 - Partial region detection device, object identification device, and program - Google Patents

Partial region detection device, object identification device, and program Download PDF

Info

Publication number
JP4894747B2
JP4894747B2 JP2007327299A JP2007327299A JP4894747B2 JP 4894747 B2 JP4894747 B2 JP 4894747B2 JP 2007327299 A JP2007327299 A JP 2007327299A JP 2007327299 A JP2007327299 A JP 2007327299A JP 4894747 B2 JP4894747 B2 JP 4894747B2
Authority
JP
Japan
Prior art keywords
image
partial area
identification
pixel
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007327299A
Other languages
Japanese (ja)
Other versions
JP2009151445A (en
Inventor
晃一郎 山口
誠良 平塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2007327299A priority Critical patent/JP4894747B2/en
Publication of JP2009151445A publication Critical patent/JP2009151445A/en
Application granted granted Critical
Publication of JP4894747B2 publication Critical patent/JP4894747B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、部分領域検出装置、対象物識別装置、及びプログラムに係り、特に、識別対象物を識別するための部分領域を検出する部分領域検出装置、識別対象画像が識別対象物を撮像した画像であるか否かを判定する対象物識別装置、及びプログラムに関する。   The present invention relates to a partial region detection device, an object identification device, and a program, and more particularly, to a partial region detection device that detects a partial region for identifying an identification target, and an image in which an identification target image captures an identification target. It is related with the target object identification apparatus which determines whether it is.

従来より、物体が存在する領域を特定し、領域内のエッジ方向または強度の分布を特徴量として、物体の種別を判定する物体種別判定装置が知られている(特許文献1)。   2. Description of the Related Art Conventionally, an object type determination device that identifies an area where an object exists and determines the type of an object using an edge direction or intensity distribution in the area as a feature amount is known (Patent Document 1).

また、入力パターン画像を格子状に区切って小領域を設定し、小領域ごとにエッジ方向のヒストグラムを計算して、それを特徴として人の識別を行う方法が知られている(非特許文献1)。
特開2007−156626号公報 ”Histogram of oriented gradients for human detection” , IEEE CVPR2005
In addition, a method is known in which a small region is set by dividing an input pattern image into a lattice shape, a histogram in the edge direction is calculated for each small region, and a person is identified by using the histogram as a feature (Non-Patent Document 1). ).
JP 2007-156626 A "Histogram of orientated gradients for human detection", IEEE CVPR2005

しかしながら、上記の特許文献1に記載の技術では、特徴量としてエッジ方向及び強度の分布を対象領域について計算し、対象領域内での位置の情報は特徴量に反映されないため、識別性能が劣化してしまう、という問題がある。   However, in the technique described in Patent Document 1 described above, the edge direction and the intensity distribution as the feature amount are calculated for the target region, and the position information in the target region is not reflected in the feature amount. There is a problem that.

また、上記の非特許文献1に記載の技術では、小領域の区切り方が規則的であるため、対象物の部分的な変動が起こると、特徴量が変化してしまい、識別性能が劣化してしまう、という問題がある。   Further, in the technique described in Non-Patent Document 1, since the method of dividing the small area is regular, if the target object partially changes, the feature amount changes, and the identification performance deteriorates. There is a problem that.

本発明は、上記の問題点を解決するためになされたもので、識別対象画像が、識別対象物を撮像した画像であるか否かを高精度に識別することができる部分領域検出装置、対象物識別装置、及びプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and a partial region detection apparatus and a target capable of accurately identifying whether an identification target image is an image obtained by capturing an identification target object. It is an object to provide an object identification device and a program.

上記の目的を達成するために第1の発明に係る部分領域検出装置は、識別対象物を撮像することにより得られた複数の画像の各々について、前記画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められ、かつ、前記注目画素及び前記周辺画素を含む所定領域内の濃度の変化度合いを示す特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された前記複数の画像の各々の前記特徴量に基づいて、前記注目画素毎に、前記特徴量の平均値又は前記特徴量の総和を算出する平均合計算出手段と、前記平均合計算出手段によって算出された前記平均値又は前記総和が極大となる画素を含む部分領域を、前記識別対象物を識別するための部分領域として検出する部分領域検出手段とを含んで構成されている。   In order to achieve the above object, the partial region detection device according to the first aspect of the present invention relates to a case where each pixel of the image is a pixel of interest for each of a plurality of images obtained by imaging the identification target object. A feature amount calculating unit that calculates a feature amount that is obtained based on a density difference between peripheral pixels that exist around the target pixel and that indicates a degree of change in density in a predetermined region that includes the target pixel and the peripheral pixel; Average total calculation means for calculating an average value of the feature quantities or a sum of the feature quantities for each target pixel based on the feature quantities of each of the plurality of images calculated by the feature quantity calculation means; Partial area detection means for detecting, as a partial area for identifying the identification target object, a partial area including pixels where the average value or the total sum calculated by the average total calculation means is maximum. In is configured.

第2の発明に係るプログラムは、コンピュータを、識別対象物を撮像することにより得られた複数の画像の各々について、前記画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められ、かつ、前記注目画素及び前記周辺画素を含む所定領域内の濃度の変化度合いを示す特徴量を算出する特徴量算出手段、前記特徴量算出手段によって算出された前記複数の画像の各々の前記特徴量に基づいて、前記注目画素毎に、前記特徴量の平均値又は前記特徴量の総和を算出する平均合計算出手段、及び前記平均合計算出手段によって算出された前記平均値又は前記総和が極大となる画素を含む部分領域を、前記識別対象物を識別するための部分領域として検出する部分領域検出手段として機能させるためのプログラムである。   According to a second aspect of the present invention, there is provided a program that includes, for each of a plurality of images obtained by capturing an image of an identification target by a computer, a periphery existing around a target pixel when each pixel of the image is a target pixel A feature amount calculation unit that calculates a feature amount that is obtained based on a density difference between pixels and that indicates a degree of change in density in a predetermined region including the target pixel and the surrounding pixels, and is calculated by the feature amount calculation unit Based on the feature amount of each of the plurality of images, the average total calculation unit that calculates the average value of the feature amount or the sum of the feature amount for each target pixel, and the average total calculation unit For functioning as a partial area detecting means for detecting a partial area including pixels where the average value or the sum is maximized as a partial area for identifying the identification object Is a program.

第1の発明及び第2の発明によれば、特徴量算出手段によって、識別対象物を撮像することにより得られた複数の画像の各々について、画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められ、かつ、注目画素及び周辺画素を含む所定領域内の濃度の変化度合いを示す特徴量を算出する。平均合計算出手段によって、特徴量算出手段によって算出された複数の画像の各々の特徴量に基づいて、注目画素毎に、特徴量の平均値又は特徴量の総和を算出する。   According to the first invention and the second invention, for each of a plurality of images obtained by imaging the identification object by the feature amount calculation unit, the pixel of interest when each pixel of the image is the pixel of interest A feature amount that is obtained based on a density difference between peripheral pixels existing around the pixel and that indicates a degree of change in density in a predetermined area including the target pixel and the peripheral pixels is calculated. Based on the feature amounts of each of the plurality of images calculated by the feature amount calculation unit, the average sum calculation unit calculates the average value of feature amounts or the sum of the feature amounts for each target pixel.

そして、部分領域検出手段によって、平均合計算出手段によって算出された平均値又は総和が極大となる画素を含む部分領域を、識別対象物を識別するための部分領域として検出する。   Then, the partial region detection unit detects a partial region including pixels whose average value or total sum calculated by the average total calculation unit is a maximum as a partial region for identifying the identification target object.

このように、濃度の変化度合いを示す特徴量の平均値又は総和が極大となる画素を含む部分領域を、識別対象物を識別するための部分領域として検出することにより、撮像される識別対象物の変化が画像の特徴量へ与える影響を低減できる部分領域を検出することができ、検出される部分領域を用いて、識別対象画像が、識別対象物を撮像した画像であるか否かを高精度に識別することができる。   In this way, the identification object to be imaged is detected by detecting the partial area including the pixel whose average value or total sum of the feature amount indicating the degree of change in density is the maximum as the partial area for identifying the identification object. It is possible to detect a partial area that can reduce the influence of the change in the feature amount of the image, and use the detected partial area to increase whether the identification target image is an image obtained by imaging the identification target object. Can be identified with accuracy.

第1の発明に係る部分領域検出手段は、平均値又は総和が極大となる画素を中心とする部分領域を、識別するための部分領域として検出することができる。これによって、撮像される識別対象物の変化が画像の特徴量へ与える影響をさらに低減できる部分領域を検出することができる。   The partial area detecting means according to the first invention can detect a partial area centering on a pixel having a maximum average value or total sum as a partial area for identification. As a result, it is possible to detect a partial region that can further reduce the influence of the change in the imaged identification object on the feature amount of the image.

第1の発明に係る平均合計算出手段は、特徴量算出手段によって算出された複数の画像の各々の特徴量に基づいて、注目画素毎に、特徴量の平均値又は特徴量の総和を算出し、平均値又は総和を画素値とする特徴量画像を生成し、部分領域検出手段は、特徴量画像の画素値が極大となる画素又は極大となる画素の周辺の画素を注目画素としたときの特徴量を算出し、特徴量画像の画素値が極大となる画素を含む部分領域であって、かつ、算出した特徴量の大きさが大きいほど小さい部分領域を、識別対象物を識別するための部分領域として検出することができる。これによって、識別対象物の変化の大きさに応じた大きさの部分領域を検出することができる。   The average total calculation means according to the first invention calculates an average value of feature quantities or a sum of feature quantities for each target pixel based on the feature quantities of each of the plurality of images calculated by the feature quantity calculation means. The feature amount image having the average value or the sum total as the pixel value is generated, and the partial region detection unit uses the pixel having the maximum pixel value of the feature amount image or a pixel around the pixel having the maximum value as the target pixel. The feature amount is calculated, and the partial region including the pixel having the maximum pixel value of the feature amount image, and the smaller partial region as the calculated feature amount is larger, is used for identifying the identification target object. It can be detected as a partial region. As a result, it is possible to detect a partial region having a size corresponding to the magnitude of the change in the identification object.

上記の部分領域検出手段は、識別するための部分領域を複数検出することができる。これによって、画素値が極大となる画素が複数存在する場合には、複数の部分領域を検出することができる。   The partial area detecting means can detect a plurality of partial areas for identification. Thereby, when there are a plurality of pixels having a maximum pixel value, a plurality of partial regions can be detected.

上記の特徴量を、勾配の大きさとすることができる。勾配の大きさによって、注目画素及び周辺画素を含む所定領域内の濃度の変化度合いを示すことができる。   The feature amount may be a gradient magnitude. Depending on the magnitude of the gradient, it is possible to indicate the degree of change in density in a predetermined region including the target pixel and the peripheral pixels.

上記の識別対象物を、部位の位置又は大きさが変動する物体とすることができる。これによって、識別対象物の部位の位置又は大きさが変動しても、識別対象物の変動が画像の特徴量へ与える影響を低減できる部分領域を検出することができる。   The identification object may be an object whose position or size varies. As a result, even if the position or size of the part of the identification target object varies, it is possible to detect a partial region in which the influence of the variation of the identification object on the image feature amount can be reduced.

上記の識別対象物を、種類によって部位の位置又は大きさが異なる物体とすることができる。これによって、種類によって識別対象物の部位の位置又は大きさが異なっていても、識別対象物の部位の相違が画像の特徴量へ与える影響を低減できる部分領域を検出することができる。   The identification object can be an object whose position or size differs depending on the type. As a result, even if the position or size of the part of the identification target object differs depending on the type, it is possible to detect a partial region that can reduce the influence of the difference in the part of the identification target object on the feature amount of the image.

第3の発明に係る対象物識別装置は、上記の部分領域検出装置によって検出された前記部分領域の位置及び大きさを記憶した記憶手段と、識別対象画像に対して、前記記憶手段に記憶された前記部分領域の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を設定する部分領域設定手段と、前記部分領域設定手段によって設定された前記識別対象画像の前記部分領域の前記特徴量を算出する特徴量算出手段と、予め求められた前記識別対象物を撮像することにより得られた画像の前記検出された前記部分領域の前記特徴量と、前記特徴量算出手段によって算出された前記部分領域の前記特徴量とを比較し、比較結果に基づいて、前記識別対象画像が前記識別対象物を撮像した画像であるか否かを判定する判定手段とを含んで構成されている。   An object identification device according to a third aspect of the present invention is stored in the storage unit with respect to a storage unit that stores the position and size of the partial region detected by the partial region detection device, and an identification target image. A partial area setting means for setting a partial area having the same position and size as the position and size of the partial area; and the feature amount of the partial area of the identification target image set by the partial area setting means A feature amount calculation means for calculating the feature amount, the feature amount of the detected partial area of the image obtained by imaging the identification object obtained in advance, and the feature amount calculation means calculated by the feature amount calculation means A determination unit configured to compare the feature quantity of the partial region and determine whether the identification target image is an image of the identification target object based on a comparison result. To have.

第4の発明に係るプログラムは、コンピュータを、第2の発明に係るプログラムによって検出された前記部分領域の位置及び大きさを記憶した記憶手段、識別対象画像に対して、前記記憶手段に記憶された前記部分領域の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を設定する部分領域設定手段、前記部分領域設定手段によって設定された前記識別対象画像の前記部分領域の前記特徴量を算出する特徴量算出手段、及び予め求められた前記識別対象物を撮像することにより得られた画像の前記検出された前記部分領域の前記特徴量と、前記特徴量算出手段によって算出された前記部分領域の前記特徴量とを比較し、比較結果に基づいて、前記識別対象画像が前記識別対象物を撮像した画像であるか否かを判定する判定手段として機能させるためのプログラムである。   A program according to a fourth invention is stored in the storage means for a storage means that stores the position and size of the partial area detected by the program according to the second invention, and an image to be identified. The partial area setting means for setting a partial area having the same position and size as the position and size of the partial area, and the feature amount of the partial area of the identification target image set by the partial area setting means. The feature amount calculation means to calculate, the feature amount of the detected partial area of the image obtained by imaging the identification object obtained in advance, and the portion calculated by the feature amount calculation means A determination unit that compares the feature quantity of the region and determines whether the identification target image is an image of the identification target object based on a comparison result; Is a program for making the function Te.

第3の発明及び第4の発明によれば、検出された識別対象物を識別するための部分領域の位置及び大きさを記憶手段に記憶し、部分領域設定手段によって、識別対象画像に対して、記憶手段に記憶された部分領域の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を設定する。   According to the third invention and the fourth invention, the position and size of the partial area for identifying the detected identification object is stored in the storage means, and the partial area setting means Then, a partial area having the same position and size as that of the partial area stored in the storage means is set.

そして、特徴量算出手段によって、部分領域設定手段によって設定された識別対象画像の部分領域の特徴量を算出する。判定手段によって、予め求められた識別対象物を撮像することにより得られた画像の検出された部分領域の特徴量と、特徴量算出手段によって算出された部分領域の特徴量とを比較し、比較結果に基づいて、識別対象画像が識別対象物を撮像した画像であるか否かを判定する。   Then, the feature amount calculation unit calculates the feature amount of the partial region of the identification target image set by the partial region setting unit. Compare the feature quantity of the detected partial area of the image obtained by imaging the identification object obtained in advance by the determination means and the feature quantity of the partial area calculated by the feature quantity calculation means, and compare Based on the result, it is determined whether the identification target image is an image obtained by imaging the identification target object.

このように、識別対象画像に対して、撮像される識別対象物の変化が画像の特徴量へ与える影響を低減できる部分領域を設定し、部分領域の特徴量を用いて、識別対象画像が、識別対象物を撮像した画像であるか否かを高精度に識別することができる。   In this way, for the identification target image, a partial area that can reduce the influence of a change in the captured identification target on the feature amount of the image is set, and using the feature amount of the partial area, the identification target image is It is possible to identify with high accuracy whether the image is an image of the identification object.

以上説明したように、本発明の部分領域検出装置及びプログラムによれば、濃度の変化度合いを示す特徴量の平均値又は総和が極大となる画素を含む部分領域を、識別対象物を識別するための部分領域として検出することにより、撮像される識別対象物の変化が画像の特徴量へ与える影響を低減できる部分領域を検出することができ、検出される部分領域を用いて、識別対象画像が、識別対象物を撮像した画像であるか否かを高精度に識別することができる、という効果が得られる。   As described above, according to the partial region detection apparatus and the program of the present invention, in order to identify the identification target object, the partial region including the pixel whose average value or total sum of the feature amounts indicating the degree of change in density is maximized is identified. By detecting this as a partial area, it is possible to detect a partial area that can reduce the effect of a change in the imaged identification object on the feature quantity of the image. It is possible to obtain an effect that it is possible to identify with high accuracy whether or not the image is an image of the identification target.

本発明の対象物識別装置及びプログラムによれば、識別対象画像に対して、撮像される識別対象物の変化が画像の特徴量へ与える影響を低減できる部分領域を設定し、部分領域の特徴量を用いて、識別対象画像が、識別対象物を撮像した画像であるか否かを高精度に識別することができる、という効果が得られる。   According to the object identification device and the program of the present invention, a partial area that can reduce the influence of the change of the identification object to be captured on the feature quantity of the image is set for the identification target image, and the feature quantity of the partial area is set. Using this, it is possible to identify with high accuracy whether or not the identification target image is an image obtained by imaging the identification target.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、撮像画像が、識別対象物としての人物を撮像した画像であるか否かを識別する対象物識別装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the case where this invention is applied to the target object identification apparatus which identifies whether a captured image is an image which imaged the person as an identification target object is demonstrated to an example.

図1に示すように、本実施の形態に係る対象物識別装置10は、車両(図示省略)に取り付けられ、かつ、車両の前方を撮像して画像を生成する撮像装置12と、撮像装置12から得られる撮像画像が人物を撮像した画像であるか否かを識別するコンピュータ14と、コンピュータ14の識別結果を表示する表示装置16とを備えている。なお、対象物識別装置10は、本発明の部分領域検出装置及び対象物識別装置に対応する。   As shown in FIG. 1, an object identification device 10 according to the present embodiment is attached to a vehicle (not shown), and captures an image of the front of the vehicle to generate an image, and the imaging device 12. The computer 14 for identifying whether or not the captured image obtained from the image is a captured image of a person, and the display device 16 for displaying the identification result of the computer 14 are provided. The object identification device 10 corresponds to the partial region detection device and the object identification device of the present invention.

撮像装置12は、車両の前方を撮像し、画像の画像信号を生成する撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The imaging device 12 images the front of the vehicle and generates an image signal of the image (not shown), and an A / D conversion unit (not shown) that A / D converts the image signal generated by the imaging unit. And an image memory (not shown) for temporarily storing the A / D converted image signal.

コンピュータ14は、CPUと、RAMと、後述する学習処理ルーチン及び対象物識別処理ルーチンの各々を実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ14は、人物を撮像した学習画像を複数記憶した学習画像データベース20と、学習画像の各画素について勾配の大きさを算出する勾配算出部22と、学習画像の各画素の勾配の大きさを画素毎に平均して、勾配の大きさの平均値を画素値とした勾配画像を生成する勾配画像生成部24と、勾配画像において画素値が極大値となる点を各々検出し、その極大点をそれぞれ中心位置とし、勾配画像における極大点の勾配の大きさに応じた大きさである部分領域を各々決定する部分領域決定部26と、部分領域決定部26によって決定された各部分領域の位置及び大きさを示す情報を記憶する部分領域情報記憶部28と、各学習画像について、学習画像における決定された各部分領域から、各勾配方向のヒストグラム(以下、勾配ヒストグラムと称する。)を算出して、各部分領域について、勾配ヒストグラムを示す特徴ベクトルを生成し、各部分領域の特徴ベクトルを複数の学習画像について平均したデータを基準特徴量として算出する基準特徴量算出部30と、算出された基準特徴量である勾配ヒストグラムを示す特徴ベクトルを各部分領域について記憶する基準特徴量記憶部32とを備えている。   The computer 14 includes a CPU, a RAM, and a ROM that stores a program for executing each of a learning processing routine and an object identification processing routine described later, and is functionally configured as follows. . The computer 14 stores a learning image database 20 that stores a plurality of learning images obtained by imaging a person, a gradient calculation unit 22 that calculates the gradient magnitude for each pixel of the learning image, and the gradient magnitude of each pixel of the learning image. A gradient image generation unit 24 that generates a gradient image using the average value of the gradient magnitude as a pixel value on an average basis for each pixel, and detects each point at which the pixel value becomes a maximum value in the gradient image, and the maximum point Each of which is a central position, and a partial region determination unit 26 that determines a partial region having a size corresponding to the gradient of the maximum point in the gradient image, and the position of each partial region determined by the partial region determination unit 26 And a partial region information storage unit 28 for storing information indicating the size and a histogram of each gradient direction (hereinafter referred to as gradient gradient) from each determined partial region in the learning image. A feature vector indicating a gradient histogram is generated for each partial region, and data obtained by averaging the feature vectors of each partial region for a plurality of learning images is calculated as a reference feature amount. A calculation unit 30 and a reference feature amount storage unit 32 that stores a feature vector indicating a gradient histogram that is a calculated reference feature amount for each partial region are provided.

学習画像データベース20は、人物を撮像した画像から人物を表している領域を切り出した様々な大きさのn枚の画像{x1,・・・,xn}を、学習画像として記憶している。なお、学習画像は、全て同じ縦横比であり、人物の縦横比に応じた縦横比となっている。   The learning image database 20 stores n images {x1,..., Xn} of various sizes obtained by cutting out an area representing a person from an image obtained by capturing a person as learning images. The learning images all have the same aspect ratio, and the aspect ratio according to the aspect ratio of the person.

勾配算出部22は、複数の学習画像の各々について、以下に説明するように、各画素の勾配の大きさを算出する。まず、学習画像データベース20から取得された学習画像を、予め規定された大きさに正規化し、正規化画像{x1のバー,・・・,xnのバー}を生成する。次に、各正規化画像の各画素について、以下の(1)式に従って勾配の大きさを算出する。   The gradient calculation unit 22 calculates the gradient size of each pixel for each of the plurality of learning images as described below. First, the learning image acquired from the learning image database 20 is normalized to a predetermined size to generate a normalized image {x1 bar,..., Xn bar}. Next, the magnitude of the gradient is calculated for each pixel of each normalized image according to the following equation (1).

Figure 0004894747
Figure 0004894747

ただし、m(u,v)は画像座標(u,v)での勾配の大きさを表わし、xのバー(u,v)は、正規化画像xのバーの画像座標(u,v)の画素値を表わす。   However, m (u, v) represents the magnitude of the gradient at the image coordinates (u, v), and the bar (u, v) of x represents the image coordinates (u, v) of the bar of the normalized image x. Represents a pixel value.

ここで、勾配の大きさは、上記(1)式に示すように、画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められ、注目画素及び周辺画素を含む所定領域内の濃度の変化度合いを示している。   Here, as shown in the above equation (1), the magnitude of the gradient is obtained based on a density difference between peripheral pixels existing around the target pixel when each pixel of the image is the target pixel. And the change degree of the density | concentration in the predetermined area | region containing a surrounding pixel is shown.

勾配画像生成部24は、図2(A)に示すように、勾配算出部22により算出された勾配の大きさを画素値とする勾配画像{g1,・・・,gn}を生成し、以下の(2)式に従って、生成されたn枚の勾配画像の画素毎の画素値の平均を算出して、図2(B)に示すような、勾配画像の画素値の平均値を画素値とする勾配平均画像Gを生成する。   As shown in FIG. 2A, the gradient image generation unit 24 generates a gradient image {g1,..., Gn} having the gradient magnitude calculated by the gradient calculation unit 22 as a pixel value. The average of the pixel values for each pixel of the generated n gradient images is calculated according to the equation (2), and the average value of the pixel values of the gradient image as shown in FIG. A gradient average image G to be generated is generated.

Figure 0004894747
Figure 0004894747

ただし、G(u,v)は、勾配平均画像Gの画像座標(u,v)での画素値を表わし、gk(u,v)は、k番目の勾配画像gkの画像座標(u,v)での画素値を表している。   Here, G (u, v) represents a pixel value at the image coordinates (u, v) of the gradient average image G, and gk (u, v) represents the image coordinates (u, v) of the kth gradient image gk. ) Represents the pixel value.

部分領域決定部26は、生成された勾配平均画像Gから、以下に説明するように、人物を撮像した画像であるか否かを識別するための部分領域を決定する。まず、勾配平均画像Gの各画素の勾配の大きさを計算し、勾配平均画像Gから算出される各画素の勾配の大きさを画素値とした勾配画像Ggを生成する。なお、勾配の大きさの計算方法は、勾配画像を生成する時と同様の方法を用いればよい。   The partial area determination unit 26 determines a partial area for identifying whether or not the image is an image of a person, as will be described below, from the generated gradient average image G. First, the magnitude of the gradient of each pixel of the gradient average image G is calculated, and a gradient image Gg having the pixel magnitude as the gradient magnitude of each pixel calculated from the gradient average image G is generated. Note that the gradient size calculation method may be the same as that used when generating the gradient image.

そして、図3(A)に示すように、勾配平均画像Gにおいて画素値が極大値となる画素を各々抽出する。画素値が極大値であるか否かは、注目画素を中心とする所定のウィンドウ(たとえば5×5のウィンドウ)内で、注目画素の画素値が最大であるか否かによって判定する。最後に、抽出された各極大点について、画素値の極大点の位置、及び勾配平均画像Gの勾配画像Ggの画素値に基づいて、識別するための部分領域の位置及び大きさを決定する。例えば、図3(B)に示すように、部分領域の位置については、極大点の位置を中心とし、部分領域の大きさについては、極大点付近の画素に対応する勾配画像Ggの画素の画素値が大きいほど、部分領域の大きさを小さく決定し、極大点付近の画素に対応する勾配画像Ggの画素の画素値が小さいほど、部分領域の大きさを大きく決定する(例えば、図3(B)の例では、部分領域1の方が、勾配画像Ggの画素の画素値が小さいため、部分領域1の大きさを大きく決定し、部分領域2の方が、勾配画像Ggの画素の画素値が大きいため、部分領域2の大きさを小さく決定する。)。   Then, as shown in FIG. 3A, each pixel having a maximum pixel value in the gradient average image G is extracted. Whether or not the pixel value is a maximum value is determined by whether or not the pixel value of the target pixel is the maximum within a predetermined window (for example, a 5 × 5 window) centered on the target pixel. Finally, for each extracted maximum point, the position and size of the partial region for identification are determined based on the position of the maximum point of the pixel value and the pixel value of the gradient image Gg of the gradient average image G. For example, as shown in FIG. 3B, the position of the partial region is centered on the position of the maximum point, and the size of the partial region is the pixel of the pixel of the gradient image Gg corresponding to the pixel near the maximum point. The larger the value is, the smaller the size of the partial region is determined, and the smaller the pixel value of the pixel of the gradient image Gg corresponding to the pixel near the maximum point is, the larger the size of the partial region is determined (for example, FIG. In the example of B), since the pixel value of the pixel of the gradient image Gg is smaller in the partial region 1, the size of the partial region 1 is determined to be larger, and the pixel of the pixel in the gradient image Gg is determined in the partial region 2. Since the value is large, the size of the partial region 2 is determined to be small.)

上記のように、勾配平均画像Gの画素値の極大点の各々について、部分領域の位置及び大きさが決定され、各部分領域の位置及び大きさを示す情報が、部分領域情報記憶部28に記憶される。   As described above, the position and size of the partial region are determined for each of the maximum points of the pixel values of the gradient average image G, and information indicating the position and size of each partial region is stored in the partial region information storage unit 28. Remembered.

基準特徴量算出部20は、学習画像を規定の大きさに正規化して、正規化された学習画像に対して、上記のように決定された位置及び大きさの部分領域を設定し、正規化された学習画像における設定された部分領域について、図4に示すように、各画素の勾配の大きさ及び勾配の方向を算出する。勾配の大きさは、上記(1)式に従って算出され、勾配の方向は、以下の(3)式に従って算出される。   The reference feature amount calculation unit 20 normalizes the learning image to a specified size, sets the partial region having the position and size determined as described above, and normalizes the normalized learning image. As shown in FIG. 4, the gradient magnitude and gradient direction of each pixel are calculated for the set partial region in the learned image. The magnitude of the gradient is calculated according to the above equation (1), and the direction of the gradient is calculated according to the following equation (3).

Figure 0004894747
Figure 0004894747

ただし、θ(u,v)は、画素座標(u,v)での勾配の方向を表わし、xのバー(u,v)は、正規化した学習画像xのバーの画像座標(u,v)の画素値を表す。   Where θ (u, v) represents the direction of the gradient in pixel coordinates (u, v), and x bar (u, v) represents the image coordinates (u, v) of the normalized learning image x bar. ) Represents the pixel value.

そして、算出された各画素の勾配の大きさ及び勾配の方向に基づいて、図5に示すように、部分領域に対する勾配ヒストグラムを算出する。なお、ヒストグラムの投票時には、勾配の大きさをかけて投票することによって、勾配ヒストグラムを算出する。   Then, based on the calculated gradient magnitude and gradient direction of each pixel, a gradient histogram for the partial region is calculated as shown in FIG. At the time of voting the histogram, the gradient histogram is calculated by voting with the magnitude of the gradient.

上記のように、各部分領域に対する勾配ヒストグラムを、正規化した学習画像の各々について算出して、各部分領域について、勾配ヒストグラムを示す特徴ベクトルを生成し、各部分領域に対する特徴ベクトルを複数の学習画像について平均したデータを基準特徴量として算出して、基準特徴量を部分領域毎に基準特徴量記憶部32に記憶する。   As described above, a gradient histogram for each partial region is calculated for each normalized learning image, a feature vector indicating the gradient histogram is generated for each partial region, and a plurality of feature vectors for each partial region are learned. Data averaged for the image is calculated as a reference feature value, and the reference feature value is stored in the reference feature value storage unit 32 for each partial region.

次に、本実施の形態の原理について説明する。従来より、学習型識別を用いて画像パターンから識別対象物を検出するとき、画像全体の形状情報を保持しながら微小な位置ずれに対応するために、格子状に画像を分割した小領域毎に、エッジ方向ヒストグラムなどの特徴量を計算して、特徴ベクトルを生成している。しかし、人のように部分的に変形し、各部位の位置又は大きさが変動するような対象物を検出する場合、分割した小領域の大きさに比べて、対象物の各部位の位置変化が大きいと、特徴ベクトルが大きく異なってくるため、対象物の検出が困難となる。そこで、本実施の形態では、学習画像から、各部位の変動中心位置として、勾配平均画像の画素値の極大点を求めると共に、各部位の変動の大きさを示す指標として、画素値の極大点周辺の勾配平均画像における勾配の大きさを求めて、部分領域の位置及び大きさを決定する。これによって、対象物の部分的な位置変動が特徴量へ与える影響を低減することができ、頑健な対象物の検出を実現することができる。   Next, the principle of this embodiment will be described. Conventionally, when an identification object is detected from an image pattern using learning type identification, in order to cope with a minute positional shift while retaining shape information of the entire image, each small region obtained by dividing the image into a lattice shape is used. Then, feature vectors such as edge direction histograms are calculated to generate feature vectors. However, when detecting an object that is partially deformed like a person and the position or size of each part varies, the position change of each part of the object compared to the size of the divided small area If is large, the feature vectors are greatly different, and it is difficult to detect the object. Therefore, in the present embodiment, the maximum point of the pixel value of the gradient average image is obtained from the learning image as the fluctuation center position of each part, and the maximum point of the pixel value is used as an index indicating the magnitude of the fluctuation of each part. The magnitude of the gradient in the surrounding gradient average image is obtained, and the position and size of the partial region are determined. Thereby, it is possible to reduce the influence of the partial position fluctuation of the object on the feature amount, and it is possible to realize robust object detection.

また、対象物識別装置10のコンピュータ14は、撮像装置12から撮像された画像を取得する画像取得部40と、画像取得部40により取得した撮像画像から、撮像画像の各位置に各大きさで識別対象領域を設定し、各識別対象領域の画像を識別対象画像として抽出する識別対象画像抽出部42と、部分領域情報記憶部28に記憶された各部分領域の大きさ及び位置を示す情報に基づいて、抽出された識別対象画像において、学習により決定された部分領域を各々設定する部分領域設定部44と、設定された部分領域の各々について、勾配ヒストグラムを算出して、勾配ヒストグラムを示す特徴ベクトルを生成する勾配ヒストグラム算出部46と、識別対象画像の部分領域について算出された勾配ヒストグラムを示す特徴ベクトルと、基準特徴量記憶部32に記憶された同じ部分領域の基準特徴量としての勾配ヒストグラムを示す特徴ベクトルとを比較して、識別対象画像が人物を撮像した画像であるか否かを判定し、識別対象画像を識別する識別部48とを備えている。   In addition, the computer 14 of the object identification device 10 acquires an image acquired from the imaging device 12 and the captured image acquired by the image acquisition unit 40 at each position of the captured image. Information indicating the size and position of each partial area stored in the partial area information storage unit 28, and an identification target image extraction unit 42 that sets an identification target area and extracts an image of each identification target area as an identification target image On the basis of the extracted identification target image, a partial region setting unit 44 that sets each partial region determined by learning, and a feature that indicates a gradient histogram by calculating a gradient histogram for each of the set partial regions A gradient histogram calculation unit 46 for generating a vector, a feature vector indicating a gradient histogram calculated for a partial region of the identification target image, and a reference A feature vector indicating a gradient histogram as a reference feature amount of the same partial area stored in the collection amount storage unit 32 is compared to determine whether the identification target image is an image of a person, and the identification target And an identification unit 48 for identifying an image.

識別対象画像抽出部42は、撮像画像に対して、学習画像と同じ縦横比の様々な大きさで、かつ、撮像画像内の各位置に、識別対象領域を設定し、識別対象領域の画像を識別対象画像として抽出する。例えば、図6(A)、(B)に示すように、1枚の撮像画像に対して、異なる大きさの領域を画像の各位置で設定し、設定された各領域から識別対象画像を抽出する。   The identification target image extraction unit 42 sets an identification target region at various positions in the captured image in various sizes with the same aspect ratio as the learning image, and sets the image of the identification target region to the captured image. Extracted as an identification target image. For example, as shown in FIGS. 6A and 6B, for one captured image, areas of different sizes are set at each position of the image, and an identification target image is extracted from each set area. To do.

部分領域設定部44は、撮像画像から抽出された識別対象画像を規定の大きさに変更して、大きさを正規化し、正規化された識別対象画像に対して、部分領域情報記憶部28に記憶された学習により決定された各部分領域の位置及び大きさに基づいて、部分領域を各々設定する。このように、正規化された識別対象画像に対して部分領域を設定することにより、学習により決定された複数の部分領域の各々の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を、識別対象画像に対して設定することができる。   The partial region setting unit 44 changes the identification target image extracted from the captured image to a specified size, normalizes the size, and stores the normalized identification target image in the partial region information storage unit 28. Each partial area is set based on the position and size of each partial area determined by the stored learning. In this way, by setting a partial area for the normalized identification target image, a partial area having the same position and size as each of the positions and sizes of the plurality of partial areas determined by learning is obtained. , It can be set for the identification target image.

勾配ヒストグラム算出部46は、正規化された識別対象画像における設定された部分領域について、上述した基準特徴量算出部30と同様に、各画素の勾配の大きさ及び勾配の方向を算出し、算出された各画素の勾配の大きさ及び勾配の方向に基づいて、当該部分領域の勾配ヒストグラムを算出する。また、算出された勾配ヒストグラムを示す特徴ベクトルを生成する。なお、勾配ヒストグラムは、各部分領域について算出され、勾配ヒストグラムを示す特徴ベクトルが各部分領域について生成される。   The gradient histogram calculation unit 46 calculates and calculates the gradient magnitude and gradient direction of each pixel for the set partial region in the normalized identification target image in the same manner as the reference feature amount calculation unit 30 described above. A gradient histogram of the partial region is calculated based on the gradient magnitude and gradient direction of each pixel. Further, a feature vector indicating the calculated gradient histogram is generated. A gradient histogram is calculated for each partial region, and a feature vector indicating the gradient histogram is generated for each partial region.

識別部48は、基準特徴量記憶部32に記憶された学習により得られた基準特徴量としての勾配ヒストグラムを示す特徴ベクトルと、勾配ヒストグラム算出部46により算出された勾配ヒストグラムを示す特徴ベクトルとを、部分領域毎に比較して、算出された勾配ヒストグラムを示す特徴ベクトルが基準特徴量と類似しているか否かを判定し、各部分領域の比較判定結果に基づいて、識別対象画像が人物を撮像した画像であるか否かを判定し、識別対象画像を識別する。   The identification unit 48 includes a feature vector indicating a gradient histogram as a reference feature amount obtained by learning stored in the reference feature amount storage unit 32, and a feature vector indicating a gradient histogram calculated by the gradient histogram calculation unit 46. The feature vector indicating the calculated gradient histogram is compared with the reference feature amount for each partial region, and based on the comparison determination result of each partial region, the identification target image is a person. It is determined whether the image is a captured image, and an identification target image is identified.

次に、本実施の形態に係る対象物識別装置10の作用について説明する。まず、人物を撮像することにより得られた複数の画像の各々について、人物を表している領域を、人物の縦横比に応じて定められた縦横比で切り出し、切り出した様々な大きさのn枚の画像を学習画像として学習画像データベース20に記憶する。   Next, the operation of the object identification device 10 according to the present embodiment will be described. First, for each of a plurality of images obtained by imaging a person, an area representing the person is cut out with an aspect ratio determined according to the aspect ratio of the person, and n pieces of various sizes are cut out. Are stored in the learning image database 20 as learning images.

そして、コンピュータ14において、図7に示す学習処理ルーチンが実行される。まず、ステップ100において、学習画像データベース20から、人物を表している複数の学習画像を取得し、ステップ102において、上記ステップ100で取得した学習画像の各々について、大きさを正規化し、複数の正規化画像を生成する。   Then, a learning process routine shown in FIG. 7 is executed in the computer 14. First, in step 100, a plurality of learning images representing a person are acquired from the learning image database 20, and in step 102, the size of each of the learning images acquired in step 100 is normalized, and a plurality of normal images are obtained. Generate a digitized image.

そして、ステップ104において、上記ステップ102で生成された各正規化画像について、上記(1)式に従って、各画素の勾配の大きさを算出し、各画素の勾配の大きさを画素値とした勾配画像を複数生成する。次のステップ106では、上記ステップ104で生成された複数の勾配画像について、各画素の画素値を平均して、勾配平均画像を生成し、ステップ108において、上記ステップ106で生成された勾配平均画像の各画素について、上記(1)式に従って、勾配の大きさを算出し、算出した勾配の大きさを画素値とした勾配画像を生成する。   In step 104, for each normalized image generated in step 102, the gradient magnitude of each pixel is calculated according to the above equation (1), and the gradient magnitude of each pixel is used as the pixel value. Generate multiple images. In the next step 106, the pixel values of the respective pixels are averaged for the plurality of gradient images generated in step 104 to generate a gradient average image. In step 108, the gradient average image generated in step 106 is generated. For each of the pixels, the magnitude of the gradient is calculated according to the above equation (1), and a gradient image with the calculated gradient magnitude as the pixel value is generated.

そして、ステップ110において、上記ステップ106で生成された勾配平均画像から、画素値が極大となる極大点を1つ又は複数抽出し、ステップ112において、上記ステップ110で抽出された極大点の各々について、極大点の位置、及び上記ステップ108で生成された勾配平均画素の勾配画像における、抽出された極大点に対応する画素の画素値の大きさに基づいて、部分領域の位置及び大きさを決定する。そして、ステップ114で、上記ステップ112で決定された各部分領域の位置及び大きさを示す情報を、部分領域情報記憶部28に記憶する。   In step 110, one or more local maximum points at which the pixel value is maximum are extracted from the gradient average image generated in step 106. In step 112, each local maximum point extracted in step 110 is extracted. The position and size of the partial region are determined based on the position of the maximum point and the size of the pixel value of the pixel corresponding to the extracted maximum point in the gradient image of the gradient average pixel generated in step 108 above. To do. In step 114, information indicating the position and size of each partial area determined in step 112 is stored in the partial area information storage unit 28.

そして、ステップ116において、上記ステップ102で生成された複数の正規化画像の各々に対して、上記ステップ112で決定された部分領域を各々設定し、ステップ118で、各正規化画像について、上記ステップ116で設定された各部分領域に対する勾配ヒストグラムを算出し、算出した各部分領域に対する勾配ヒストグラムを示す特徴ベクトルを生成する。そして、次のステップ120において、上記ステップ118で算出された各部分領域に対する勾配ヒストグラムを示す特徴ベクトルを、複数の正規化画像について平均して、各部分領域について、基準特徴量として、勾配ヒストグラムを示す特徴ベクトルの平均データを算出し、基準特徴量記憶部32に、部分領域毎に基準特徴量を記憶して、学習処理ルーチンを終了する。   In step 116, the partial regions determined in step 112 are set for each of the plurality of normalized images generated in step 102. In step 118, the above steps are performed for each normalized image. A gradient histogram for each partial region set in 116 is calculated, and a feature vector indicating the calculated gradient histogram for each partial region is generated. In the next step 120, the feature vector indicating the gradient histogram for each partial region calculated in step 118 is averaged for a plurality of normalized images, and the gradient histogram is used as a reference feature amount for each partial region. Average data of the indicated feature vectors is calculated, the reference feature value is stored for each partial region in the reference feature value storage unit 32, and the learning processing routine is terminated.

そして、対象物識別装置10を搭載した車両の走行中に、撮像装置12によって車両の前方の所定領域が撮像されると、コンピュータ14において、図8に示す対象物識別処理ルーチンが実行される。   Then, when a predetermined area in front of the vehicle is imaged by the imaging device 12 while the vehicle equipped with the object identification device 10 is traveling, the object identification processing routine shown in FIG.

まず、ステップ130において、撮像装置12から撮像画像を取得し、ステップ132において、上記図6(A)、(B)に示すように、上記ステップ130で取得した撮像画像の各位置から各大きさの画像を、識別対象画像として抽出する。そして、ステップ134において、上記ステップ132で抽出された識別対象画像の各々を、規定の大きさに正規化し、次のステップ136では、部分領域情報記憶部28から、各部分領域の位置及び大きさに関する情報を取得する。   First, in step 130, a captured image is acquired from the imaging device 12, and in step 132, as shown in FIGS. 6A and 6B, each size is determined from each position of the captured image acquired in step 130. Are extracted as identification target images. In step 134, each of the identification target images extracted in step 132 is normalized to a prescribed size, and in the next step 136, the position and size of each partial area are read from the partial area information storage unit 28. Get information about.

そして、ステップ138では、識別対象画像を識別するための変数nを初期値である1に設定し、ステップ140において、上記ステップ134で正規化された識別対象画像nに対して、上記ステップ136で取得した各部分領域に関する情報に基づいて、各部分領域を設定する。   In step 138, a variable n for identifying the identification target image is set to an initial value of 1. In step 140, the identification target image n normalized in step 134 is compared with the identification target image n in step 136. Each partial area is set based on the acquired information on each partial area.

そして、ステップ142において、部分領域を識別するための変数sを初期値である1に設定し、次のステップ144で、正規化された識別対象画像nの上記ステップ140で設定された部分領域s内の各画素について、上記(1)式及び(3)式に従って、勾配の大きさ及び方向を算出する。   In step 142, the variable s for identifying the partial area is set to 1 which is an initial value, and in the next step 144, the partial area s set in step 140 of the normalized identification target image n. For each of the pixels, the magnitude and direction of the gradient are calculated according to the above equations (1) and (3).

そして、ステップ146において、上記ステップ144で算出された勾配の大きさ及び方向に基づいて、部分領域sについて、勾配ヒストグラムを算出し、算出した勾配ヒストグラムを示す特徴ベクトルを生成し、ステップ148において、部分領域sの基準特徴量としての勾配ヒストグラムを示す特徴ベクトルと、上記ステップ146で算出された勾配ヒストグラムを示す特徴ベクトルとを比較して、算出された勾配ヒストグラムを示す特徴ベクトルが部分領域sの基準特徴量と類似するか否かを判定する。   In step 146, a gradient histogram is calculated for the partial region s based on the magnitude and direction of the gradient calculated in step 144, and a feature vector indicating the calculated gradient histogram is generated. In step 148, The feature vector indicating the gradient histogram as the reference feature amount of the partial region s is compared with the feature vector indicating the gradient histogram calculated in step 146, and the feature vector indicating the calculated gradient histogram is the partial region s. It is determined whether or not it is similar to the reference feature amount.

次のステップ150では、変数sが、部分領域の数を示す定数S未満であるか否かを判定し、変数sが定数S未満であり、上記の勾配ヒストグラムの比較判定を行なっていない部分領域がある場合には、ステップ152で、変数sをインクリメントして、ステップ144へ戻る。一方、上記ステップ150で、変数sが定数S以上であり、全ての部分領域について、上記の勾配ヒストグラムの比較判定を行なった場合には、ステップ154において、上記ステップ148の全ての比較判定結果に基づいて、識別対象画像nが人物を撮像した画像であるか否かを識別する。上記ステップ154では、例えば、所定割合以上の比較判定結果で、特徴ベクトルが基準特徴量と類似していると判断された場合、識別対象画像nが人物を撮像した画像であると識別する。   In the next step 150, it is determined whether or not the variable s is less than a constant S indicating the number of partial regions, and the partial region in which the variable s is less than the constant S and the gradient histogram comparison determination is not performed. If there is, the variable s is incremented in step 152 and the process returns to step 144. On the other hand, when the variable s is equal to or greater than the constant S in step 150 and the gradient histogram comparison determination is performed for all partial regions, in step 154, all the comparison determination results in step 148 are displayed. Based on this, it is determined whether or not the identification target image n is an image of a person. In step 154, for example, when it is determined that the feature vector is similar to the reference feature amount based on a comparison determination result of a predetermined ratio or more, the identification target image n is identified as an image obtained by capturing a person.

そして、ステップ156において、識別対象画像nについて、上記ステップ154で人物を撮像した画像であると識別されたか否かを判定し、人物を撮像した画像であると識別された場合には、ステップ158において、撮像画像が人物を撮像した画像であるとの識別結果を表示装置16に表示させて、対象物識別処理ルーチンを終了する。   In step 156, it is determined whether or not the identification target image n is identified as an image in which a person is imaged in step 154. If it is identified as an image in which a person is imaged, step 158 is performed. Then, the identification result indicating that the captured image is an image of a person is displayed on the display device 16, and the object identification processing routine is terminated.

一方、上記ステップ156で、人物を撮像した画像でないと識別された場合には、ステップ160において、変数nが、上記ステップ132で抽出された識別対象画像の数を示す定数N未満であるか否かを判定し、変数nが定数N未満であり、上記の識別処理を行っていない識別対象画像がある場合には、ステップ162において、変数nをインクリメントして、ステップ140へ戻る。一方、上記ステップ160において、変数nが定数N以上であり、全ての識別対象画像について、上記の識別処理を行った場合には、ステップ164において、撮像画像が人物を撮像した画像ではないとの識別結果を表示装置16に表示させて、対象物識別処理ルーチンを終了する。   On the other hand, if it is determined in step 156 that the image is not an image of a person, whether or not the variable n is less than a constant N indicating the number of identification target images extracted in step 132 is determined in step 160. If the variable n is less than the constant N and there is an identification target image that has not been subjected to the above-described identification processing, the variable n is incremented in step 162 and the process returns to step 140. On the other hand, if the variable n is equal to or greater than the constant N in step 160 and the above identification processing is performed for all the identification target images, the captured image is not an image of a person captured in step 164. The identification result is displayed on the display device 16, and the object identification processing routine is terminated.

以上説明したように、本実施の形態に係る対象物識別装置によれば、人物を撮像した複数の学習画像における勾配の大きさの平均値が極大となる画素を中心とする部分領域を、人物を撮像した画像であるか否かを識別するための部分領域として検出することにより、撮像される人物の部位の位置又は大きさが変動しても、人物の変動が画像の特徴量へ与える影響を低減できる部分領域を検出することができる。   As described above, according to the object identification device according to the present embodiment, a partial region centered on a pixel having an average gradient magnitude maximum in a plurality of learning images obtained by imaging a person is represented as a person. Even if the position or size of the part of the person to be imaged fluctuates, the influence of the fluctuation of the person on the feature amount of the image is detected. Can be detected.

また、人物の変動の大きさを示す指標として、勾配平均画像における極大点の勾配の大きさを求め、極大点の勾配の大きさに応じた大きさの部分領域を検出することにより、部分領域内での人物の変動の大きさに応じた大きさの部分領域を検出することができる。   In addition, as an index indicating the magnitude of the variation of the person, the gradient of the maximum point in the gradient average image is obtained, and the partial region having a size corresponding to the gradient of the maximum point is detected. It is possible to detect a partial area having a size corresponding to the magnitude of the variation of the person within.

また、識別対象画像に対して、撮像される人物の変動が画像の特徴量へ与える影響を低減できる部分領域を設定し、部分領域の特徴量ベクトルを用いて、識別対象画像が、識別対象物としての人物を撮像した画像であるか否かを高精度に識別することができる。また、部位の位置又は大きさが変動する識別対象物としての人物を、頑健に検出することができる。   In addition, a partial area that can reduce the influence of fluctuation of a person to be captured on the feature quantity of the image is set with respect to the identification target image, and the identification target image is identified by using the feature quantity vector of the partial area. It is possible to identify with high accuracy whether or not the image is an image of a person. In addition, it is possible to robustly detect a person as an identification object whose position or size of a part varies.

なお、上記の実施の形態では、対象物識別装置によって、学習により、人物を識別するための部分領域を検出すると共に、識別対象画像が人物を撮像した画像であるか否かを識別する場合を例に説明したが、これに限定されるものではなく、学習により人物を識別するための部分領域を検出する部分領域検出装置と、識別対象画像が人物を撮像した画像であるか否かを識別する対象物識別装置とを別々に構成してもよい。この場合には、部分領域検出装置によって部分領域に関する情報や基準特徴量を求め、対象物識別装置のメモリに部分領域に関する情報や基準特徴量を記憶すればよい。   In the above embodiment, the object identification device detects a partial region for identifying a person by learning and identifies whether the identification target image is an image of a person. Although described as an example, the present invention is not limited to this, and a partial area detection device that detects a partial area for identifying a person through learning and whether or not the identification target image is an image of a person is identified. You may comprise separately the target object identification apparatus to perform. In this case, information on the partial region and the reference feature amount may be obtained by the partial region detection device, and the information on the partial region and the reference feature amount may be stored in the memory of the object identification device.

また、複数の学習画像について勾配の大きさを平均して極大点を抽出する場合を例に説明したが、これに限定されるものではなく、複数の学習画像について勾配の大きさを総和して極大点を抽出するようにしてもよい。この場合には、複数の学習画像について、画素毎に勾配の大きさの総和を算出し、算出した勾配の大きさの総和を画素値とした勾配総和画像を生成し、勾配総和画像において画素値が極大となる点を抽出するようにすればよい。   Moreover, although the case where the magnitude of the gradient is averaged for a plurality of learning images and the maximum point is extracted has been described as an example, the present invention is not limited to this. A maximum point may be extracted. In this case, for a plurality of learning images, the sum of gradient magnitudes is calculated for each pixel, and a gradient sum image having the calculated sum of gradient magnitudes as pixel values is generated. What is necessary is just to extract the point where becomes the maximum.

また、識別対象物が人物である場合を例に説明したが、これに限定されるものではなく、部位の位置又は大きさが変動する、人物以外の物体を識別対象物としてもよい。また、人物のように部分的に変動が起こる物体のみでなく、種類によって部位の位置や大きさが異なる物体を識別対象物としてもよい。例えば、車両を識別対象物とした場合、図9(A)、(B)に示すように、車種によってランプなどの部位の大きさや位置が異なっても、部位の異なり方に応じて部分領域を設定することで、識別対象物を頑健に識別することができる。   Further, although the case where the identification target is a person has been described as an example, the present invention is not limited to this, and an object other than a person whose position or size varies may be used as the identification target. Further, not only an object such as a person that partially fluctuates, but also an object whose position and size are different depending on the type may be used as the identification target object. For example, when the vehicle is an identification object, as shown in FIGS. 9A and 9B, even if the size or position of a part such as a lamp is different depending on the vehicle type, the partial region is changed depending on how the part is different. By setting, the identification object can be robustly identified.

また、大きさを正規化した識別対象画像に対して部分領域を設定する場合を例に説明したが、これに限定されるものではなく、学習により決定された複数の部分領域の各々の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を、識別対象画像に設定するようにすればよい。   Further, the case where the partial area is set for the identification target image whose size is normalized has been described as an example, but the present invention is not limited to this, and the position of each of the partial areas determined by learning and A partial area having the same position and size as the size may be set in the identification target image.

また、濃度変化の度合いを示す特徴量として、上記(1)式で算出される勾配の大きさを用いた場合を例に説明したが、これに限定されるものではなく、画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められる特徴量であって、かつ、注目画素及び周辺画素を含む所定領域内の濃度の変化度合いを示す特徴量を用いてもよい。   Further, the case where the gradient magnitude calculated by the above equation (1) is used as the feature amount indicating the degree of density change has been described as an example. However, the present invention is not limited to this. A feature value obtained based on a density difference between peripheral pixels existing around the target pixel when the target pixel is used, and indicating a degree of change in density in a predetermined area including the target pixel and the peripheral pixel May be used.

また、学習画像から各部分領域について基準特徴量として特徴ベクトルを求め、識別対象画像の各部分領域の特徴ベクトルと各部分領域の基準特徴量とを比較して、識別対象画像が人物を撮像した画像であるか否かを識別する場合を例に説明したが、これに限定されるものではなく、人物を撮像した学習画像及び人物を撮像していない学習画像の各々から得られる特徴ベクトルの分布と、識別対象画像から得られる特徴ベクトルとを比較して、識別対象画像が人物を撮像した画像であるか否かを識別するようにしてもよい。この場合には、人物を撮像した学習画像(人物学習画像)から部分領域を決定した後、学習画像の各部分領域で、勾配ヒストグラムを計算する。そして、各人物学習画像について、計算された各部分領域の勾配ヒストグラムを全て使って、特徴ベクトルを生成する(例えば、全ての部分領域の勾配ヒストグラムの値を順に並べた特徴ベクトルを生成する)。また、非人物(人物でない物)を撮像した学習画像(非人物学習画像)も用意し、非人物学習画像に対しても同様に各部分領域の勾配ヒストグラムを計算する。そして、各非人物学習画像について、計算された各部分領域の勾配ヒストグラムを全て使って、特徴ベクトルを生成する。そして、全ての人物学習画像の特徴ベクトルから、特徴ベクトルの分布を学習して記憶し、全ての非人物学習画像の特徴ベクトルから特徴ベクトルの分布を学習して記憶する。識別処理時には、識別対象画像に対して同様に計算した特徴ベクトルが、人物学習画像の特徴ベクトルの分布及び非人物学習画像の特徴ベクトルの分布の何れに属するかを判断して、識別対象画像が人物を表わしているか否かを識別する。なお、特徴ベクトルの分布の学習や識別方法として、最近傍識別、線形判別、サポートベクターマシンなどを用いればよい。   In addition, a feature vector is obtained as a reference feature amount for each partial area from the learning image, the feature vector of each partial area of the identification target image is compared with the reference feature amount of each partial area, and the identification target image captures a person The case of identifying whether or not the image is an example has been described as an example. However, the present invention is not limited to this, and the distribution of feature vectors obtained from each of a learning image that captures a person and a learning image that does not capture a person And a feature vector obtained from the identification target image may be compared to identify whether the identification target image is an image of a person. In this case, after determining a partial area from a learning image (person learning image) obtained by imaging a person, a gradient histogram is calculated in each partial area of the learning image. Then, for each person learning image, a feature vector is generated using all the calculated gradient histograms of each partial region (for example, a feature vector in which values of gradient histograms of all partial regions are arranged in order) is generated. A learning image (non-person learning image) obtained by imaging a non-person (non-person) is also prepared, and a gradient histogram of each partial region is similarly calculated for the non-person learning image. Then, for each non-human learning image, a feature vector is generated using all the calculated gradient histograms of the partial regions. Then, the feature vector distribution is learned and stored from the feature vectors of all the person learning images, and the feature vector distribution is learned and stored from the feature vectors of all the non-person learning images. During the identification process, it is determined whether the feature vector calculated in the same manner for the identification target image belongs to the distribution of the feature vector of the person learning image or the distribution of the feature vector of the non-person learning image. Identify whether or not a person is represented. Note that nearest neighbor identification, linear discrimination, a support vector machine, or the like may be used as a learning or identification method for the distribution of feature vectors.

本発明の実施の形態に係る対象物識別装置の構成を示す概略図である。It is the schematic which shows the structure of the target object identification apparatus which concerns on embodiment of this invention. (A)学習画像について算出された勾配の大きさを示すイメージ図、及び(B)勾配平均画像を示すイメージ図である。(A) It is an image figure which shows the magnitude | size of the gradient calculated about the learning image, (B) It is an image figure which shows a gradient average image. (A)勾配平均画像から抽出された極大点を示すイメージ図、及び(B)決定された部分領域を示すイメージ図である。(A) The image figure which shows the maximum point extracted from the gradient average image, (B) The image figure which shows the determined partial area | region. 部分領域内の各画素について勾配の大きさ及び位置を算出した様子を示すイメージ図である。It is an image figure which shows a mode that the magnitude | size and position of the gradient were calculated about each pixel in a partial area. 勾配ヒストグラムを示すグラフである。It is a graph which shows a gradient histogram. 撮像画像から各位置及び各大きさで識別対象画像を抽出する様子を示すイメージ図である。It is an image figure which shows a mode that an identification object image is extracted from each position and each magnitude | size from a captured image. 本発明の実施の形態に係る対象物識別装置のコンピュータにおける学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the learning process routine in the computer of the target object identification apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物識別装置のコンピュータにおける対象物識別処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the target object identification process routine in the computer of the target object identification device which concerns on embodiment of this invention. 識別対象物としての車両について、車種によってランプなどの部位の大きさや位置が異なる様子を示すイメージ図である。It is an image figure which shows a mode that the magnitude | size and position of parts, such as a lamp, differ with vehicle models about the vehicle as an identification target object.

符号の説明Explanation of symbols

10 対象物識別装置
12 撮像装置
14 コンピュータ
20 学習画像データベース
20 基準特徴量算出部
22 勾配算出部
24 勾配画像生成部
26 部分領域決定部
28 部分領域情報記憶部
30 基準特徴量算出部
32 基準特徴量記憶部
42 識別対象画像抽出部
44 部分領域設定部
46 勾配ヒストグラム算出部
48 識別部
DESCRIPTION OF SYMBOLS 10 Object identification apparatus 12 Imaging device 14 Computer 20 Learning image database 20 Reference | standard feature-value calculation part 22 Gradient calculation part 24 Gradient image generation part 26 Partial area | region determination part 28 Partial area information storage part 30 Reference | standard feature-value calculation part 32 Reference | standard feature-value Storage unit 42 Identification target image extraction unit 44 Partial region setting unit 46 Gradient histogram calculation unit 48 Identification unit

Claims (12)

識別対象物を撮像することにより得られた複数の画像の各々について、前記画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められ、かつ、前記注目画素及び前記周辺画素を含む所定領域内の濃度の変化度合いを示す特徴量を算出する特徴量算出手段と、
前記特徴量算出手段によって算出された前記複数の画像の各々の前記特徴量に基づいて、前記注目画素毎に、前記特徴量の平均値又は前記特徴量の総和を算出する平均合計算出手段と、
前記平均合計算出手段によって算出された前記平均値又は前記総和が極大となる画素を含む部分領域を、前記識別対象物を識別するための部分領域として検出する部分領域検出手段と、
を含む部分領域検出装置。
For each of a plurality of images obtained by imaging the identification object, is determined based on the density difference of the peripheral pixels existing around the pixel of interest when each pixel of the image is the pixel of interest, and Feature amount calculation means for calculating a feature amount indicating a degree of change in density in a predetermined region including the target pixel and the peripheral pixels;
Average total calculation means for calculating an average value of the feature quantities or a sum of the feature quantities for each target pixel based on the feature quantities of each of the plurality of images calculated by the feature quantity calculation means;
A partial area detecting means for detecting a partial area including pixels in which the average value or the total sum calculated by the average total calculating means is a maximum, as a partial area for identifying the identification target;
A partial area detecting device including:
前記部分領域検出手段は、前記平均値又は前記総和が極大となる画素を中心とする部分領域を、前記識別するための部分領域として検出する請求項1記載の部分領域検出装置。   The partial area detection device according to claim 1, wherein the partial area detection unit detects a partial area centered on a pixel having the maximum average value or the total sum as the partial area for identification. 前記平均合計算出手段は、前記特徴量算出手段によって算出された前記複数の画像の各々の前記特徴量に基づいて、前記注目画素毎に、前記特徴量の平均値又は前記特徴量の総和を算出し、前記平均値又は前記総和を画素値とする特徴量画像を生成し、
前記部分領域検出手段は、前記特徴量画像の画素値が極大となる画素又は前記極大となる画素の周辺の画素を注目画素としたときの前記特徴量を算出し、前記特徴量画像の画素値が極大となる画素を含む部分領域であって、かつ、前記算出した前記特徴量の大きさが大きいほど小さい部分領域を、前記識別対象物を識別するための部分領域として検出する請求項1又は2記載の部分領域検出装置。
The average total calculation unit calculates an average value of the feature amounts or a sum of the feature amounts for each target pixel based on the feature amounts of each of the plurality of images calculated by the feature amount calculation unit. And generating a feature image having the average value or the sum as a pixel value,
The partial region detection unit calculates the feature amount when a pixel having a maximum pixel value of the feature amount image or a pixel around the pixel having the maximum value is a target pixel, and the pixel value of the feature amount image Or a partial region including a pixel having a maximum value, and detecting a partial region that is smaller as the calculated feature amount is larger as a partial region for identifying the identification target object. 3. The partial area detection device according to 2.
前記部分領域検出手段は、前記識別するための部分領域を複数検出する請求項1〜請求項3の何れか1項記載の部分領域検出装置。   The partial area detection device according to claim 1, wherein the partial area detection unit detects a plurality of partial areas for identification. 前記特徴量を、勾配の大きさとした請求項1〜請求項4の何れか1項記載の部分領域検出装置。   The partial region detection apparatus according to claim 1, wherein the feature amount is a gradient. 前記識別対象物を、部位の位置又は大きさが変動する物体とした請求項1〜請求項5の何れか1項記載の部分領域検出装置。   The partial region detection apparatus according to claim 1, wherein the identification target is an object whose position or size varies. 前記識別対象物を、種類によって部位の位置又は大きさが異なる物体とした請求項1〜請求項5の何れか1項記載の部分領域検出装置。   The partial region detection device according to claim 1, wherein the identification target is an object whose position or size differs depending on the type. 請求項1〜請求項7の何れか1項に記載の部分領域検出装置によって検出された前記部分領域の位置及び大きさを記憶した記憶手段と、
識別対象画像に対して、前記記憶手段に記憶された前記部分領域の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を設定する部分領域設定手段と、
前記部分領域設定手段によって設定された前記識別対象画像の前記部分領域の前記特徴量を算出する特徴量算出手段と、
予め求められた前記識別対象物を撮像することにより得られた画像の前記検出された前記部分領域の前記特徴量と、前記特徴量算出手段によって算出された前記部分領域の前記特徴量とを比較し、比較結果に基づいて、前記識別対象画像が前記識別対象物を撮像した画像であるか否かを判定する判定手段と、
を含む対象物識別装置。
Storage means for storing the position and size of the partial area detected by the partial area detection device according to any one of claims 1 to 7,
A partial area setting means for setting a partial area having the same position and size as the position and size of the partial area stored in the storage means for the identification target image;
Feature quantity calculating means for calculating the feature quantity of the partial area of the identification target image set by the partial area setting means;
The feature quantity of the detected partial area of the image obtained by imaging the identification object obtained in advance is compared with the feature quantity of the partial area calculated by the feature quantity calculation means. And determining means for determining whether the identification target image is an image of the identification target based on the comparison result;
An object identification device including:
前記特徴量算出手段は、前記識別対象画像の前記部分領域における複数の方向の各々の濃度変化に関する前記特徴量のヒストグラムを算出し、
前記判定手段は、予め求められた前記検出された前記部分領域における前記複数の方向の各々の濃度変化に関する前記特徴量のヒストグラムと、前記特徴量算出手段によって算出された前記部分領域における前記特徴量のヒストグラムとを比較し、比較結果に基づいて、前記識別対象画像が前記識別対象物を撮像した画像であるか否かを判定する請求項8記載の対象物識別装置。
The feature amount calculating means calculates a histogram of the feature amount relating to a density change in each of a plurality of directions in the partial region of the identification target image;
The determination unit includes a histogram of the feature amount relating to a density change in each of the plurality of directions in the detected partial region obtained in advance, and the feature amount in the partial region calculated by the feature amount calculation unit. The object identification device according to claim 8, wherein the object identification device determines whether or not the identification object image is an image of the identification object based on a comparison result.
前記記憶手段は、前記検出された複数の部分領域の各々の位置及び大きさを記憶し、
前記部分領域設定手段は、前記識別対象画像に対して、前記記憶手段に記憶された前記複数の部分領域の各々の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を各々設定し、
前記特徴量算出手段は、前記部分領域設定手段によって設定された前記識別対象画像の前記複数の部分領域の各々の前記特徴量を算出し、
前記判定手段は、前記複数の部分領域の各々について、前記予め求められた前記検出された前記部分領域の前記特徴量と、前記特徴量算出手段によって算出された前記部分領域の前記特徴量とを比較し、前記複数の部分領域の各々に対する比較結果に基づいて、前記識別対象画像が前記識別対象物を撮像した画像であるか否かを判定する請求項8又は9記載の対象物識別装置。
The storage means stores the position and size of each of the detected plurality of partial areas,
The partial area setting means sets, for the identification target image, partial areas that have the same position and size as the positions and sizes of the plurality of partial areas stored in the storage means,
The feature amount calculating unit calculates the feature amount of each of the plurality of partial regions of the identification target image set by the partial region setting unit;
The determination means, for each of the plurality of partial areas, the feature quantity of the detected partial area obtained in advance and the feature quantity of the partial area calculated by the feature quantity calculation means. 10. The object identification device according to claim 8, wherein comparison is made and whether or not the identification target image is an image of the identification target is determined based on a comparison result for each of the plurality of partial regions.
コンピュータを、
識別対象物を撮像することにより得られた複数の画像の各々について、前記画像の各画素を注目画素としたときの注目画素の周辺に存在する周辺画素の濃度差に基づいて求められ、かつ、前記注目画素及び前記周辺画素を含む所定領域内の濃度の変化度合いを示す特徴量を算出する特徴量算出手段、
前記特徴量算出手段によって算出された前記複数の画像の各々の前記特徴量に基づいて、前記注目画素毎に、前記特徴量の平均値又は前記特徴量の総和を算出する平均合計算出手段、及び
前記平均合計算出手段によって算出された前記平均値又は前記総和が極大となる画素を含む部分領域を、前記識別対象物を識別するための部分領域として検出する部分領域検出手段
として機能させるためのプログラム。
Computer
For each of a plurality of images obtained by imaging the identification object, is determined based on the density difference of the peripheral pixels existing around the pixel of interest when each pixel of the image is the pixel of interest, and A feature amount calculating means for calculating a feature amount indicating a degree of change in density in a predetermined region including the target pixel and the peripheral pixels;
Average total calculation means for calculating an average value of the feature quantities or a sum of the feature quantities for each target pixel based on the feature quantities of each of the plurality of images calculated by the feature quantity calculation means; and A program for functioning as a partial area detecting means for detecting a partial area including pixels for which the average value or the total sum calculated by the average total calculating means is a maximum as a partial area for identifying the identification object .
コンピュータを、
請求項11に記載のプログラムによって検出された前記部分領域の位置及び大きさを記憶した記憶手段、
識別対象画像に対して、前記記憶手段に記憶された前記部分領域の位置及び大きさと相対的に同じ位置及び大きさとなる部分領域を設定する部分領域設定手段、
前記部分領域設定手段によって設定された前記識別対象画像の前記部分領域の前記特徴量を算出する特徴量算出手段、及び
予め求められた前記識別対象物を撮像することにより得られた画像の前記検出された前記部分領域の前記特徴量と、前記特徴量算出手段によって算出された前記部分領域の前記特徴量とを比較し、比較結果に基づいて、前記識別対象画像が前記識別対象物を撮像した画像であるか否かを判定する判定手段
として機能させるためのプログラム。
Computer
Storage means for storing the position and size of the partial area detected by the program according to claim 11;
A partial area setting means for setting a partial area having the same position and size as the position and size of the partial area stored in the storage means for the identification target image;
The feature amount calculating means for calculating the feature amount of the partial area of the identification target image set by the partial area setting means, and the detection of an image obtained by imaging the identification target object obtained in advance. The feature quantity of the partial area is compared with the feature quantity of the partial area calculated by the feature quantity calculation means, and the identification target image captures the identification target object based on the comparison result A program for functioning as a determination means for determining whether or not an image.
JP2007327299A 2007-12-19 2007-12-19 Partial region detection device, object identification device, and program Expired - Fee Related JP4894747B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007327299A JP4894747B2 (en) 2007-12-19 2007-12-19 Partial region detection device, object identification device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007327299A JP4894747B2 (en) 2007-12-19 2007-12-19 Partial region detection device, object identification device, and program

Publications (2)

Publication Number Publication Date
JP2009151445A JP2009151445A (en) 2009-07-09
JP4894747B2 true JP4894747B2 (en) 2012-03-14

Family

ID=40920558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007327299A Expired - Fee Related JP4894747B2 (en) 2007-12-19 2007-12-19 Partial region detection device, object identification device, and program

Country Status (1)

Country Link
JP (1) JP4894747B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5507962B2 (en) 2009-11-05 2014-05-28 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP6539469B2 (en) * 2015-03-30 2019-07-03 パイオニア株式会社 Feature quantity extraction apparatus, feature quantity extraction method and program for feature quantity extraction
JP6639123B2 (en) 2015-07-06 2020-02-05 キヤノン株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2827756B2 (en) * 1992-05-15 1998-11-25 三菱電機株式会社 Defect inspection equipment
JPH09147125A (en) * 1995-11-22 1997-06-06 Oki Data:Kk Method and device for outline extraction
JP5110793B2 (en) * 2005-12-28 2012-12-26 日立コンピュータ機器株式会社 Form identification device

Also Published As

Publication number Publication date
JP2009151445A (en) 2009-07-09

Similar Documents

Publication Publication Date Title
CN101894376B (en) Person tracking method and person tracking apparatus
US9213909B2 (en) Object detection method, object detection apparatus, and program
US8121348B2 (en) Object detection apparatus, method and program
CN101894375B (en) Person tracking method and person tracking apparatus
WO2012066785A1 (en) People counting device, people counting method and people counting program
JP2011053953A (en) Image processing apparatus and program
JP4946878B2 (en) Image identification apparatus and program
WO2017206914A1 (en) Fingerprint recognition method, fingerprint recognition system, and electronic device
JP7438220B2 (en) Reinforcing bar determination device and reinforcing bar determination method
JP5262705B2 (en) Motion estimation apparatus and program
JP4518139B2 (en) Image processing device
KR20140045854A (en) Method and apparatus for monitoring video for estimating gradient of single object
US9911204B2 (en) Image processing method, image processing apparatus, and recording medium
CN104036284A (en) Adaboost algorithm based multi-scale pedestrian detection method
JP5290227B2 (en) Object detection device and learning device thereof
JP2012059030A (en) Human body identification method and human body identification apparatus using range image camera
JP6410450B2 (en) Object identification device, object identification method, and program
EP3376468B1 (en) Object detection device and object detection method
JP5691834B2 (en) Image identification apparatus and program
JP2011165170A (en) Object detection device and program
JP5100688B2 (en) Object detection apparatus and program
JP4894747B2 (en) Partial region detection device, object identification device, and program
CN101567045B (en) Accurate positioning method of human face characteristic points
JP2010262576A (en) Subject detecting apparatus and program
JP2010224681A (en) Image detection device, image detection method, and image detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees