JP5020920B2 - Pedestrian detection device and program - Google Patents

Pedestrian detection device and program Download PDF

Info

Publication number
JP5020920B2
JP5020920B2 JP2008277909A JP2008277909A JP5020920B2 JP 5020920 B2 JP5020920 B2 JP 5020920B2 JP 2008277909 A JP2008277909 A JP 2008277909A JP 2008277909 A JP2008277909 A JP 2008277909A JP 5020920 B2 JP5020920 B2 JP 5020920B2
Authority
JP
Japan
Prior art keywords
image
person
divided
learning model
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008277909A
Other languages
Japanese (ja)
Other versions
JP2010108138A (en
Inventor
美也子 馬場
映夫 深町
祥一 早坂
祥雅 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2008277909A priority Critical patent/JP5020920B2/en
Publication of JP2010108138A publication Critical patent/JP2010108138A/en
Application granted granted Critical
Publication of JP5020920B2 publication Critical patent/JP5020920B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、歩行者検出装置及びプログラムに関し、特に、撮像した画像から歩行者を検出する歩行者検出装置及びプログラムに関する。 The present invention relates to a pedestrian detecting device, and a program, in particular, relates to a pedestrian detecting device and a program for detecting a pedestrian from the captured image.

近年、車載カメラで撮像した車両周辺の映像を画像処理し、歩行者などの対象物を検出してドライバに検出結果を提示する対象物検出装置を搭載する車両が増加している。   2. Description of the Related Art In recent years, an increasing number of vehicles are equipped with an object detection device that performs image processing on an image around a vehicle imaged by an in-vehicle camera, detects an object such as a pedestrian, and presents a detection result to a driver.

対象物を検出する方法として、予め対象物パターンを学習させた学習モデル辞書を生成しておき、入力された画像が学習モデル辞書に登録されたデータに近いか否かを判断することで対象物を検出する方法が一般的である。具体的には、例えば、Viola&Jonesの手法等、様々な手法がある。   As a method for detecting an object, a learning model dictionary in which an object pattern is learned in advance is generated, and it is determined whether or not an input image is close to data registered in the learning model dictionary. The method of detecting is common. Specifically, for example, there are various techniques such as the technique of Viola & Jones.

例えば、入力画像の画素の組の2画素間の輝度値の差分を特徴量として求め、求めた特徴量に基づいて予め学習により定められた複数個の判別手段により、画素の組が検知対象画像の輪郭部分であるか否かを判定することにより、入力画像の検知対象物を検知する対象物検知装置が提案されている(特許文献1)。
特開2006−318341号公報
For example, a difference in luminance value between two pixels of a set of pixels of an input image is obtained as a feature amount, and the set of pixels is detected by a plurality of discriminating means previously determined by learning based on the obtained feature amount. An object detection device that detects a detection target object of an input image by determining whether or not it is a contour part of the input image has been proposed (Patent Document 1).
JP 2006-318341 A

しかしながら、特許文献1の対象物検知装置では、例えば、図9に示すように、人物を検出するために抽出した画像が、(a)複数の人物が重なっている、(b)人物が斜めに傾いていたり、片側に大きな荷物を持っていたりする、(c)背景のライトなどの光により人物の輪郭が不明瞭になっている、(d)背景の白線や標識等と人物が重なって人物の輪郭が不明瞭になっている、(e)人物が自転車等に乗っている(特に横向きの場合)等の場合には、正確に人物を検出できない場合がある、という問題がある。   However, in the object detection device of Patent Document 1, for example, as illustrated in FIG. 9, an image extracted for detecting a person includes (a) a plurality of persons overlapping, and (b) a person obliquely. Inclined or carrying a large piece of luggage on one side, (c) The outline of the person is unclear due to light from the background light, etc. (d) The person overlaps the background with white lines or signs, etc. If the outline of the figure is unclear, or (e) a person is riding a bicycle or the like (especially in a landscape orientation), the person may not be detected accurately.

本発明は、上述した問題を解決するために提案されたものであり、人物の検出の精度を向上させることができる人物検出装置及びプログラムを提供することを目的とする。   The present invention has been proposed to solve the above-described problems, and an object thereof is to provide a person detection apparatus and program capable of improving the accuracy of person detection.

上記目的を達成するために本発明の歩行者検出装置は、入力画像から抽出した抽出画像を左右の領域に分割する画像分割手段と、前記画像分割手段により分割された左側領域の画像と前記左側領域の画像に対応する人物を検出するための学習モデルとの比較、前記画像分割手段により分割された右側領域の画像と前記右側領域の画像に対応する人物を検出するための学習モデルとの比較、及び前記抽出画像の全体と前記抽出画像の全体に対応する人物を検出するための学習モデルとの比較のいずれか1つの比較で人物が検出された場合に、前記抽出画像に人物有りと判定する判定手段と、を含んで構成されている。 In order to achieve the above object, a pedestrian detection apparatus according to the present invention includes an image dividing unit that divides an extracted image extracted from an input image into left and right regions, an image of a left region divided by the image dividing unit, and the left side. Comparison with a learning model for detecting a person corresponding to an image in the area, comparison between an image in the right area divided by the image dividing means and a learning model for detecting a person corresponding to the image in the right area And a person is detected in the extracted image when the person is detected by one of the comparison between the whole extracted image and a learning model for detecting a person corresponding to the whole extracted image. Determining means for performing the above-described operation.

本発明の歩行者検出装置によれば、画像分割手段が、入力画像から抽出した抽出画像を左右の領域に分割し、判定手段が、画像分割手段により分割された左側領域の画像と左側領域の画像に対応する人物を検出するための学習モデルとの比較、画像分割手段により分割された右側領域の画像と右側領域の画像に対応する人物を検出するための学習モデルとの比較、及び抽出画像の全体と抽出画像の全体に対応する人物を検出するための学習モデルとの比較のいずれか1つの比較で人物が検出された場合に、前記抽出画像に人物有りと判定する。 According to the pedestrian detection device of the present invention, the image dividing unit divides the extracted image extracted from the input image into left and right regions, and the determining unit includes the left region image and the left region divided by the image dividing unit. Comparison with a learning model for detecting a person corresponding to an image, comparison between a right region image divided by the image dividing means and a learning model for detecting a person corresponding to the right region image, and an extracted image When the person is detected by any one of the comparisons with the learning model for detecting the person corresponding to the whole of the extracted image and the person corresponding to the whole of the extracted image, it is determined that there is a person in the extracted image.

このように、左側領域の画像及び右側領域の画像それそれで人物の検出を行うため、抽出画像の左側領域及び右側領域のいずれかの領域に不要な情報が含まれていても、精度良く人物を検出することができる。   In this way, since the image of the left region and the image of the right region are detected as such, the person can be accurately detected even if unnecessary information is included in either the left region or the right region of the extracted image. Can be detected.

また、本発明の歩行者検出装置は、入力画像から抽出した抽出画像を左右の領域に分割する画像分割手段と、前記画像分割手段により分割された左側領域の画像及び右側領域の画像の各々の左右を反転させる画像反転手段と、前記画像分割手段により分割された左側領域の画像の右端の画素に前記画像反転手段により反転された左側領域の画像の左端の画素が隣接するように、前記分割された左側領域の画像と前記反転された左側領域の画像とを合成した画像、前記画像分割手段により分割された右側領域の画像の左端の画素に前記画像反転手段により反転された右側領域の画像の右端の画素が隣接するように、前記分割された右側領域の画像と前記反転された右側領域の画像とを合成した画像、及び前記抽出画像の全体のいずれかと、歩行者を検出するための学習モデルとの比較で歩行者が検出された場合に、前記抽出画像に歩行者有りと判定する判定手段と、を含んで構成されている。 The pedestrian detection apparatus of the present invention includes an image dividing unit that divides an extracted image extracted from an input image into left and right regions, and an image in a left region and an image in a right region that are divided by the image dividing unit. Image reversing means for reversing the left and right, and the division so that the leftmost pixel of the image in the left area reversed by the image reversing means is adjacent to the rightmost pixel of the image in the left area divided by the image dividing means An image obtained by combining the image of the left area and the image of the inverted left area, and an image of the right area inverted by the image inversion means to the leftmost pixel of the image of the right area divided by the image dividing means of as the right edge of the pixel are adjacent, either of the whole of the divided right area image and the image obtained by synthesizing the image of the inverted right area, and the extracted image, walking Pedestrians in comparison to training models for detecting the if it is detected, is configured to include a, a determining means for determining that there is a pedestrian on the extracted image.

本発明の歩行者検出手段によると、画像反転手段が、画像分割手段により分割された左側領域の画像及び右側領域の画像の各々の左右を反転させ、判定手段が、画像分割手段により分割された左側領域の画像の右端の画素に画像反転手段により反転された左側領域の画像の左端の画素が隣接するように、分割された左側領域の画像と反転された左側領域の画像とを合成した画像、画像分割手段により分割された右側領域の画像の左端の画素に画像反転手段により反転された右側領域の画像の右端の画素が隣接するように、分割された右側領域の画像と前記反転された右側領域の画像とを合成した画像、及び抽出画像の全体のいずれかと、歩行者を検出するための学習モデルとの比較で歩行者が検出された場合に、抽出画像に歩行者有りと判定する。 According to the pedestrian detection means of the present invention, the image inversion means inverts the left and right of the left area image and the right area image divided by the image dividing means, and the determination means is divided by the image dividing means. as the leftmost pixel of the image of the left region which is inverted by the image inverting means to the right end of the pixels of the image of the left area are adjacent divided image and inverted left area of the left region image and the synthesized image The right-side divided image and the image of the right-side area divided by the image-dividing means are adjacent to the right- side pixel of the right- side area image inverted by the image inverting means . determination image obtained by synthesizing the image of the right area, and either the whole extracted image, when a pedestrian in comparison with a learning model for detecting pedestrian has been detected, the pedestrian extraction image there and That.

このように、画像分割手段により分割された左側領域の画像と画像反転手段により反転された左側領域の画像とを合成した画像、画像分割手段により分割された右側領域の画像と画像反転手段により反転された右側領域の画像とを合成した画像を用いることにより、前述と同様に、抽出画像の左側領域及び右側領域のいずれかの領域に不要な情報が含まれていても、精度良く人物を検出することができる。また、左側領域の画像、右側領域の画像、及び抽出画像全体の画像に対応する学習モデルを準備する必要がなく、抽出画像全体の画像に対応する学習モデルを共通で用いることができる。   In this way, an image obtained by synthesizing the image of the left area divided by the image dividing means and the image of the left area inverted by the image inverting means, and the image of the right area divided by the image dividing means and the image inverted by the image inverting means. By using an image that is synthesized with the image of the right area, the person can be detected accurately even if unnecessary information is included in either the left area or the right area of the extracted image, as described above. can do. In addition, it is not necessary to prepare a learning model corresponding to the left region image, the right region image, and the entire extracted image, and the learning model corresponding to the entire extracted image can be used in common.

また、本発明の歩行者検出装置の前記判定手段は、画像の特徴量を用いて学習モデルと比較することができる。従って、学習モデルとの比較で用いる手法、例えば、Viola&JonesやSVM(Support Vector Machine)等の手法に対応した特徴量を用いるようにするとよい。 Moreover, the said determination means of the pedestrian detection apparatus of this invention can be compared with a learning model using the feature-value of an image. Therefore, it is preferable to use a feature amount corresponding to a technique used in comparison with the learning model, for example, a technique such as Viola & Jones or SVM (Support Vector Machine).

また、本発明の歩行者検出プログラムは、コンピュータを、入力画像から抽出した抽出画像を左右の領域に分割する画像分割手段と、前記画像分割手段により分割された左側領域の画像と前記左側領域の画像に対応する歩行者を検出するための学習モデルとの比較、前記画像分割手段により分割された右側領域の画像と前記右側領域の画像に対応する歩行者を検出するための学習モデルとの比較、及び前記抽出画像の全体と前記抽出画像の全体に対応する歩行者を検出するための学習モデルとの比較のいずれか1つの比較で歩行者が検出された場合に、前記抽出画像に歩行者有りと判定する判定手段と、して機能させるためのものである。 The pedestrian detection program according to the present invention includes a computer that divides an extracted image extracted from an input image into left and right areas, an image of a left area divided by the image dividing means, and an image of the left area. Comparison with a learning model for detecting a pedestrian corresponding to an image, Comparison between an image in the right area divided by the image dividing means and a learning model for detecting a pedestrian corresponding to the image in the right area and if the whole with a pedestrian in any one of the comparison of the comparison of the learning model for detecting pedestrians corresponding to the entire of the extracted image of the extracted image is detected, the pedestrian on the extracted image It is for functioning as a determination means for determining presence.

また、本発明の歩行者検出プログラムは、コンピュータを、入力画像から抽出した抽出画像を左右の領域に分割する画像分割手段と、前記画像分割手段により分割された左側領域の画像及び右側領域の画像の各々の左右を反転させる画像反転手段と、前記画像分割手段により分割された左側領域の画像と前記画像反転手段により反転された左側領域の画像とを合成した画像、前記画像分割手段により分割された右側領域の画像と前記画像反転手段により反転された右側領域の画像とを合成した画像、及び前記抽出画像の全体のいずれかと、歩行者を検出するための学習モデルとの比較で歩行者が検出された場合に、前記抽出画像に歩行者有りと判定する判定手段と、して機能させるためのものである。 The pedestrian detection program according to the present invention includes a computer that divides an extracted image extracted from an input image into left and right regions, an image of a left region and an image of a right region divided by the image dividing unit. Image reversing means for reversing the left and right of each of the above, an image obtained by combining the image of the left area divided by the image dividing means and the image of the left area reversed by the image reversing means, divided by the image dividing means The pedestrian is compared with a learning model for detecting a pedestrian and either the image obtained by combining the image of the right region and the image of the right region inverted by the image inverting means or the entire extracted image. When it is detected, it serves as a determination means for determining that there is a pedestrian in the extracted image.

以上説明したように、本発明によれば、歩行者の検出の精度を向上させることができる、という効果が得られる。 As described above, according to the present invention, it is possible to improve the detection accuracy of pedestrians .

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態) (First embodiment)

図1に示すように、第1の実施の形態に係る人物検出装置10は、識別対象領域を含む範囲を撮像する撮像装置12と、撮像装置12から出力される撮像画像に基づいて人物(歩行者)を検出する人物検出処理ルーチンを実行するコンピュータ16と、コンピュータ16での処理結果を表示するための表示装置18とを備えている。 As illustrated in FIG. 1, the person detection device 10 according to the first embodiment includes an imaging device 12 that captures a range including a region to be identified, and a person (walking) based on a captured image output from the imaging device 12. A computer 16 for executing a person detection processing routine for detecting a person ) and a display device 18 for displaying a processing result in the computer 16.

撮像装置12は、識別対象領域を含む範囲を撮像し、画像信号を生成する撮像部(図示省略)と、撮像部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The imaging device 12 captures an area including an identification target region and generates an image signal (not shown), and A / D conversion that converts an analog image signal generated by the imaging unit into a digital signal And an image memory (not shown) for temporarily storing the A / D converted image signal.

コンピュータ16は、人物検出装置10全体の制御を司るCPU、後述する人物検出処理のプログラムを記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12から出力される撮像画像を入力する画像入力部20と、画像入力部20によって入力された撮像画像から所定領域を抽出するウインドウ画像抽出部22と、ウインドウ画像抽出部22により抽出された画像から人物の有無を判定するための分割画像を生成する分割画像生成部24と、学習用画像により予め生成された学習モデルが記憶された学習モデルDB26と、分割画像生成部24で生成された画像及び学習モデルDB26に記憶された学習モデルに基づいて人物の有無を判定する判定部28と、撮像装置12によって撮像された撮像画像に、判定部28による判定結果を重畳させて表示装置18に表示するよう制御する表示制御部30とを含んだ構成で表すことができる。   The computer 16 includes a CPU that controls the entire person detection apparatus 10, a ROM as a storage medium that stores a person detection processing program to be described later, a RAM that temporarily stores data as a work area, and a bus that connects these. It is configured. If the computer 16 is described with functional blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 1, an image input unit 20 for inputting a captured image output from the imaging device 12. A window image extraction unit 22 that extracts a predetermined area from the captured image input by the image input unit 20, and a division that generates a divided image for determining the presence or absence of a person from the image extracted by the window image extraction unit 22 Based on the image generation unit 24, the learning model DB 26 storing a learning model generated in advance by a learning image, the image generated by the divided image generation unit 24, and the learning model stored in the learning model DB 26. The determination unit 28 for determining the presence or absence and the determination result by the determination unit 28 are superimposed on the captured image captured by the imaging device 12. Is allowed can be represented by the structure that includes a display control unit 30 for controlling so as to be displayed on the display device 18.

ウインドウ画像抽出部22は、画像入力部20から入力された入力画像から人物を検出する際に、入力画像から予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ピッチと呼称)だけ移動させながら画像を切り取り、切り取った画像から人物を検出する。ここでは、切り取った画像をウインドウ画像といい、ウインドウ画像のサイズ(すなわち探索ウインドウのサイズ)をウインドウサイズと呼称する。ウインドウサイズは様々なサイズの人物を検出するために複数種設定されており、ウインドウ画像抽出部22は、設定されている全てのウインドウサイズの探索ウインドウを用いてウインドウ画像を抽出する。また、ウインドウ画像抽出部22は、抽出したウインドウ画像を予め設定された画素数の画像(例えば、横16×縦32画素の画像)に変換する。   When the window image extraction unit 22 detects a person from the input image input from the image input unit 20, a window having a predetermined size (referred to as a search window) from the input image is determined in advance for each step. The image is cut while being moved by the movement amount (referred to as a search pitch), and a person is detected from the cut image. Here, the cut image is referred to as a window image, and the size of the window image (that is, the size of the search window) is referred to as a window size. A plurality of types of window sizes are set in order to detect persons of various sizes, and the window image extraction unit 22 extracts window images using search windows of all the set window sizes. In addition, the window image extraction unit 22 converts the extracted window image into an image having a preset number of pixels (for example, an image of 16 horizontal x 32 vertical pixels).

分割画像生成部24は、画像毎に異なる輝度分布の影響をなくし、後述する学習モデルと、抽出したウインドウ画像との比較が行えるように、抽出したウインドウ画像の輝度値を正規化し、ウインドウ画像を左側領域及び右側領域に分割する。ここでは、左側領域の画像と右側領域の画像との画素数が等しくなるよう(例えば、横8×縦32画素)に、ウインドウ画像の中央で分割する。   The divided image generation unit 24 normalizes the luminance value of the extracted window image so as to be able to compare the learning model described later and the extracted window image so as to eliminate the influence of the luminance distribution that is different for each image. Divide into left and right regions. Here, the window image is divided at the center of the window image so that the number of pixels of the left region image and the right region image is equal (for example, 8 × 32 pixels).

学習モデルDB26は、ハードディスクドライブ(HDD)やCD−ROM等のように、内蔵または外付けの記憶手段であって、学習モデルを記憶できる媒体により構成されている。学習モデルは、学習モデル生成部32において、後述する学習モデル生成処理ルーチンにより、抽出画像の左側領域の画像に対応する学習モデル、右側領域に対応する学習モデル、及び抽出画像の全体に対応する学習モデルの各々が生成される。学習モデルDB26に記憶された学習モデルは、人物検出装置10の判定部28で人物の検出に利用される。   The learning model DB 26 is a built-in or external storage unit such as a hard disk drive (HDD) or a CD-ROM, and is configured of a medium that can store the learning model. In the learning model generation unit 32, the learning model is generated by a learning model generation processing routine described later, the learning model corresponding to the image in the left region of the extracted image, the learning model corresponding to the right region, and the learning corresponding to the entire extracted image. Each of the models is generated. The learning model stored in the learning model DB 26 is used for detection of a person by the determination unit 28 of the person detection device 10.

学習モデル生成部32は、CPU、ROM、RAM、及び内蔵HDD等を含んで構成されたコンピュータで構成することができる。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。また、学習モデル生成部32を人物検出装置10と互いに独立したマイクロコンピュータで構成してもよいし、同一コンピュータ上で構成することも可能である。   The learning model generation unit 32 can be configured by a computer including a CPU, a ROM, a RAM, a built-in HDD, and the like. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To. In addition, the learning model generation unit 32 may be configured by a microcomputer independent of the person detection apparatus 10 or may be configured on the same computer.

判定部28は、分割画像生成部24により生成された抽出画像の左側領域の画像、右側領域の画像、及び抽出画像の全体の画像と、学習モデルDB26に記憶された各々対応する学習モデルとの比較により、左側領域の画像、右側領域の画像、及び抽出画像の全体の画像が人物であるか否かを判定し、いずれか1つの画像が人物であると判定された場合には、ウインドウ画像が人物であると判定する。   The determination unit 28 includes an image of the left region, an image of the right region, and an entire image of the extracted image generated by the divided image generation unit 24, and the corresponding learning model stored in the learning model DB 26. By comparison, it is determined whether the image of the left region, the image of the right region, and the entire extracted image is a person. If any one of the images is determined to be a person, the window image Is determined to be a person.

ここで、図2を参照して、学習モデル26に記憶される学習モデルの生成処理ルーチンについて説明する。ここでは、学習の手法としてSVMを用いる場合について説明する。学習に用いる画像(学習用画像)の対象物画像として、人物(向き、背景、服装、及び持ち物等が異なるもの)が撮影された画像、及び学習用画像の非対象物画像として、人物以外(電柱や看板等、特に人物に似ている物)が撮影された画像を所定枚数(例えば、各1000枚)用意しておく。   Here, a learning model generation processing routine stored in the learning model 26 will be described with reference to FIG. Here, a case where SVM is used as a learning method will be described. As an object image of an image used for learning (learning image), an image in which a person (one with different orientation, background, clothes, and belongings) is taken, and a non-object image of a learning image other than a person ( A predetermined number of images (for example, 1000 images each) in which a telephone pole, a signboard, or the like, in particular, an object similar to a person) is taken is prepared.

ステップ100で、学習モデル生成部32に、学習用画像を1枚入力し、次にステップ102で、入力された学習用画像の中で、人物または人物に相当する対象が含まれている領域を所定の縦横比(例えば、横1:縦2)で切り取り、次にステップ104で、切り取った画像をバイリニア法等により、所定のサイズ(例えば、16×32画素)に正規化する。   In step 100, one learning image is input to the learning model generation unit 32. Next, in step 102, an area including a person or a target corresponding to a person is included in the input learning image. The image is cut with a predetermined aspect ratio (for example, horizontal 1: vertical 2), and then, in step 104, the cut image is normalized to a predetermined size (for example, 16 × 32 pixels) by a bilinear method or the like.

次に、ステップ106で、所定サイズに正規化された画像(全体画像)を左側領域の画像と右側領域の画像とに分割する。ここでは、左側領域の画像と右側領域の画像とが同サイズ(例えば、8×32画素)になるように、全体画像の中央で分割する。例えば、図3(A)に示すような16×32画素に正規化された全体画像において、aが全体画像の中央を示す線(左端から8画素目と9画素目の境界線)を表している場合、全体画像を線aで分割して、(B)に示す左半分画像、及び(C)に示す右半分画像を生成する。生成された画像及び全体画像は一旦学習モデル生成部32内のRAMに格納する。   Next, in step 106, the image normalized to a predetermined size (entire image) is divided into an image in the left region and an image in the right region. Here, the image in the left area and the image in the right area are divided at the center of the entire image so that they have the same size (for example, 8 × 32 pixels). For example, in the entire image normalized to 16 × 32 pixels as shown in FIG. 3A, a represents a line indicating the center of the entire image (boundary line between the eighth pixel and the ninth pixel from the left end). If so, the entire image is divided by line a to generate a left half image shown in (B) and a right half image shown in (C). The generated image and the entire image are temporarily stored in the RAM in the learning model generation unit 32.

次に、ステップ108で、用意しておいたすべての学習用画像について、左半分画像及び右半分画像を生成する処理が終了したか否かを判断する。終了した場合には、ステップ110へ進み、終了していない場合には、ステップ100へ戻り、次の学習用画像を入力して、左半分画像及び右半分画像を生成する処理を繰り返す。   Next, in step 108, it is determined whether or not the processing for generating the left half image and the right half image has been completed for all prepared learning images. If completed, the process proceeds to step 110. If not completed, the process returns to step 100 to input the next learning image and repeat the process of generating the left half image and the right half image.

ステップ110で、学習モデル生成部32内のRAMに格納しておいた左半分画像を読み出して、例えば標準偏差を用いて輝度の正規化を行って、画像の特徴量として4方向面特徴を抽出し、SVMの手法を用いて左半分画像用の学習モデルを生成する。右半分画像及び全体画像についても同様に処理し、右半分画像用の学習モデル及び全体画像用の学習モデルを生成する。生成した学習モデルは、学習モデルDB26に記憶される。   In step 110, the left half image stored in the RAM in the learning model generation unit 32 is read out, and the luminance is normalized using, for example, the standard deviation, and the four-directional surface features are extracted as image feature amounts. Then, a learning model for the left half image is generated using the SVM method. The right half image and the entire image are processed in the same manner, and a learning model for the right half image and a learning model for the entire image are generated. The generated learning model is stored in the learning model DB 26.

次に、図4を参照して、第1の実施の形態における人物検出の処理ルーチンについて説明する。   Next, a person detection processing routine in the first embodiment will be described with reference to FIG.

ステップ200で、撮像装置12で撮像された画像が、画像入力部20により人物を検出する対象となる画像としてウインドウ画像抽出部22に入力される。   In step 200, the image captured by the imaging device 12 is input to the window image extraction unit 22 as an image to be detected by the image input unit 20.

次に、ステップ202で、ウインドウ画像抽出部22は、入力画像に対して例えば16×32画素の探索ウインドウを入力画像の所定領域(例えば、左角の領域)に設定し、設定した探索ウインドウを用いて、入力画像から16×32画素のウインドウ画像を抽出する。   Next, in step 202, the window image extraction unit 22 sets a search window of, for example, 16 × 32 pixels for the input image as a predetermined area (for example, a left corner area) of the input image, and sets the set search window. And a 16 × 32 pixel window image is extracted from the input image.

次に、ステップ204で、分割画像生成部24は、ウインドウ画像抽出部22により抽出されたウインドウ画像について、標準偏差を用いて輝度を正規化する。なお、輝度の正規化の方法は、輝度値が閾値を超えている画素について、輝度値が閾値になるように補正する等の様々な方法を用いることが可能であり、標準偏差を用いる場合に限られないが、学習モデル生成の際に用いた方法と同一の方法で行う。   Next, in step 204, the divided image generation unit 24 normalizes the luminance of the window image extracted by the window image extraction unit 22 using the standard deviation. As a method for normalizing the luminance, it is possible to use various methods such as correcting the luminance value so that the luminance value becomes the threshold value for pixels whose luminance value exceeds the threshold value. Although it is not limited, the same method as that used when generating the learning model is used.

次に、ステップ206で、分割画像生成部24は、ウインドウ画像を左側領域の画像と右側領域の画像とに分割する。ここでは、左側領域の画像と右側領域の画像とが同サイズ(例えば、8×32画素)になるように、全体画像の中央で分割する。例えば、図5(A)に示すようなウインドウ画像において、bがウインドウ画像の中央を示す線(左端から8画素目と9画素目の境界線)を表している場合、ウインドウ画像を線bで分割して、同図(B)に示す左半分画像を生成する。   Next, in step 206, the divided image generation unit 24 divides the window image into a left region image and a right region image. Here, the image in the left area and the image in the right area are divided at the center of the entire image so that they have the same size (for example, 8 × 32 pixels). For example, in the window image as shown in FIG. 5A, when b represents a line indicating the center of the window image (the boundary line of the eighth and ninth pixels from the left end), the window image is represented by the line b. The image is divided to generate the left half image shown in FIG.

次に、ステップ208で、判定部28は、左半分画像の特徴量として4方向面特徴を計算し、次のステップ210で、学習モデルDB26に記憶されている左半分画像用の学習モデルと比較して、SVMの手法を用いて人物の確からしさを評価値として算出する。   Next, in step 208, the determination unit 28 calculates the four-direction plane feature as the feature amount of the left half image, and in the next step 210, compares it with the learning model for the left half image stored in the learning model DB 26. Then, the probability of the person is calculated as an evaluation value using the SVM method.

次に、ステップ212で、判定部28は、算出した評価値に基づいて左半分画像が人物であるか否かを判定する。人物であると判定した場合には、ステップ228へ進み、人物ではないと判定した場合には、ステップ214へ進む。   Next, in step 212, the determination unit 28 determines whether the left half image is a person based on the calculated evaluation value. If it is determined that the person is a person, the process proceeds to step 228. If it is determined that the person is not a person, the process proceeds to step 214.

ステップ214で、ステップ206と同様の処理により、図5(C)に示す右半分画像を生成する。なお、ステップ206で、左半分画像を生成する際に、あわせて右半分画像を生成しておき、本ステップを省略することも可能である。   In step 214, the right half image shown in FIG. 5C is generated by the same processing as in step 206. In step 206, when the left half image is generated, the right half image is also generated and this step can be omitted.

次に、ステップ216〜ステップ220で、ステップ208〜ステップ212の左半分画像の場合と同様に、右半分画像についても、学習モデルDB26に記憶されている右半分画像用の学習モデルと比較して、右半分画像が人物であるか否かを判定する。人物であると判定した場合には、ステップ228へ進み、人物ではないと判定した場合には、ステップ222へ進む。   Next, in step 216 to step 220, as in the case of the left half image in step 208 to step 212, the right half image is also compared with the learning model for the right half image stored in the learning model DB 26. Then, it is determined whether or not the right half image is a person. If it is determined that the person is a person, the process proceeds to step 228. If it is determined that the person is not a person, the process proceeds to step 222.

ステップ222〜ステップ226で、ステップ208〜ステップ212の左半分画像の場合と同様に、ウインドウ画像全体についても、学習モデルDB26に記憶されている全体画像用の学習モデルと比較して、ウインドウ画像が人物であるか否かを判定する。人物であると判定した場合には、ステップ228へ進み、人物ではないと判定した場合には、ステップ230へ進む。   In step 222 to step 226, as in the case of the left half image in step 208 to step 212, the window image is also compared with the learning model for the entire image stored in the learning model DB 26. It is determined whether or not it is a person. If it is determined that the person is a person, the process proceeds to step 228. If it is determined that the person is not a person, the process proceeds to step 230.

ステップ228で、判定部28は、ステップ212、ステップ220、及びステップ226で各画像が人物であると判定したときの探索ウインドウの位置及び大きさ等の情報をリストとしてRAMに保存する。   In step 228, the determination unit 28 stores information such as the position and size of the search window when each image is determined to be a person in steps 212, 220, and 226 as a list in the RAM.

次に、ステップ230で、判定部28は、入力画像全体について探索ウインドウをスキャンして探索が終了したか否かを判定する。終了した場合は、ステップ234へ進み、終了していない場合は、ステップ232へ進む。   Next, in step 230, the determination unit 28 scans the search window for the entire input image and determines whether the search has ended. If completed, the process proceeds to step 234. If not completed, the process proceeds to step 232.

ステップ232で、ウインドウ画像抽出部22は、探索ウインドウの位置を予め定められた探索ピッチだけ移動させて、ステップ202に戻り、ステップ202〜ステップ230までの処理を繰り返す。探索ウインドウが画像全体の探索を終了すると、ステップ234へ進む。   In step 232, the window image extraction unit 22 moves the position of the search window by a predetermined search pitch, returns to step 202, and repeats the processing from step 202 to step 230. When the search window finishes searching the entire image, the process proceeds to step 234.

ステップ234で、判定部28は、全てのサイズの探索ウインドウでの探索が終了したか否かを判定する。ここで、探索ウインドウは人物を検出するためのウインドウ画像を抽出するためのフレームとして用いられているが、探索ウインドウのサイズが異なれば、様々なサイズの人物を検出することができる。本実施の形態では、様々なサイズの探索ウインドウが予め用意されており、各々の探索ウインドウで画像全体を探索する必要がある。終了した場合は、ステップ238へ進み、終了していない場合は、ステップ236へ進む。   In step 234, the determination unit 28 determines whether or not the search in the search windows of all sizes has been completed. Here, the search window is used as a frame for extracting a window image for detecting a person. However, if the size of the search window is different, persons of various sizes can be detected. In the present embodiment, search windows of various sizes are prepared in advance, and it is necessary to search the entire image in each search window. If completed, the process proceeds to step 238. If not completed, the process proceeds to step 236.

ステップ236で、ウインドウ画像抽出部22は、探索ウインドウのサイズを1ステップ拡大(例えば、探索ウインドウのサイズを1.2倍)して、ステップ202へ戻り、ステップ202〜ステップ234までの処理を繰り返す。なお、設定した探索ウインドウが16×32画素を超えるサイズのウインドウであった場合には、抽出したウインドウ画像を16×32画素に変換する。すべてのサイズの探索ウインドウサイズで探索が終了すると、ステップ238へ進む。   In step 236, the window image extraction unit 22 enlarges the size of the search window by one step (for example, the search window size is 1.2 times), returns to step 202, and repeats the processing from step 202 to step 234. . When the set search window is a window having a size exceeding 16 × 32 pixels, the extracted window image is converted to 16 × 32 pixels. When the search is completed for all search window sizes, the process proceeds to step 238.

ステップ238で、判定部28は、リストに保存した情報を表示制御部30に供給する。表示制御部30は、リストの情報に基づいて、入力画像に対して、検出された人物がウインドウで囲まれて表示されるように表示装置18を制御する。   In step 238, the determination unit 28 supplies the information stored in the list to the display control unit 30. Based on the information in the list, the display control unit 30 controls the display device 18 so that the detected person is displayed surrounded by a window with respect to the input image.

以上説明したように、第1の実施の形態における人物検出装置10では、左半分画像、右半分画像、及び全体画像を用いて人物の有無を判定しているため、例えば、図5(A)に示すように人物の片側の大きな荷物や背景の照明などの影響により、全体としては人物であると判定されにくい場合でも、不要な情報が除かれた同図(B)に示す左半部画像では、人物であると判定されやすいため、人物の検出の精度を向上させることができる。   As described above, in the person detection apparatus 10 according to the first embodiment, the presence / absence of a person is determined using the left half image, the right half image, and the entire image. For example, FIG. As shown in the left half image shown in FIG. 3B, unnecessary information is removed even if it is difficult to determine that the person is a person as a whole due to the influence of large luggage on one side of the person or background lighting. Then, since it is easy to determine that it is a person, the accuracy of detection of the person can be improved.

(第2の実施の形態) (Second Embodiment)

第1の実施の形態では、ウインドウ画像(抽出画像)から、左半分画像及び右半分画像を生成して、学習モデルとの比較を行うことにより人物を検出する場合について説明したが、第2の実施の形態では、左反転画像及び右反転画像を生成して、学習モデルとの比較を行うことにより人物を検出する場合について説明する。なお、第2の実施の形態の人物検出装置の構成において、上記第1の実施の形態の人物検出装置10の構成と同一の構成、及び同一の処理については同一の符号を付し、その説明を省略する。   In the first embodiment, a case has been described in which a left half image and a right half image are generated from a window image (extracted image) and a person is detected by comparison with a learning model. In the embodiment, a case will be described in which a left inverted image and a right inverted image are generated and a person is detected by comparison with a learning model. Note that, in the configuration of the person detection device of the second embodiment, the same configuration and the same processing as those of the human detection device 10 of the first embodiment are denoted by the same reference numerals, and the description thereof will be given. Is omitted.

第2の実施の形態の人物検出装置10は、図6に示すように、画像入力部20と、ウインドウ画像抽出部22と、ウインドウ画像抽出部22により抽出された画像から人物の有無を判定するための反転画像を生成する反転画像生成部34と、学習モデルDB26と、判定部28と、表示制御部30とを備えている。   As shown in FIG. 6, the person detection apparatus 10 according to the second embodiment determines the presence / absence of a person from an image input unit 20, a window image extraction unit 22, and an image extracted by the window image extraction unit 22. The reverse image generation part 34 which produces | generates the reverse image for this, The learning model DB26, the determination part 28, and the display control part 30 are provided.

反転画像生成部34は、画像毎に異なる輝度分布の影響をなくし、学習モデルと、抽出したウインドウ画像との比較が行えるように、抽出したウインドウ画像の輝度値を正規化し、ウインドウ画像を左側領域及び右側領域に分割する。ここでは、左側領域の画像と右側領域の画像との画素数が等しくなるよう(例えば、横8×縦32画素)に、ウインドウ画像の中央で分割する。さらに、分割した左側領域の画像に左側領域の画像を左右反転させた画像を合成して、左反転画像を生成する。また、分割した右側領域の画像に右側領域の画像を左右反転させた画像を合成して、右反転画像を生成する。   The inverted image generation unit 34 normalizes the brightness value of the extracted window image so that the learning model can be compared with the extracted window image so as to eliminate the influence of different brightness distributions for each image, and the window image is converted into the left region. And divide it into a right region. Here, the window image is divided at the center of the window image so that the number of pixels of the left region image and the right region image is equal (for example, 8 × 32 pixels). Further, a left inverted image is generated by synthesizing an image obtained by horizontally inverting the left side image with the divided left side image. Further, an image obtained by horizontally inverting the image in the right region is combined with the divided image in the right region to generate a right inverted image.

次に、第2の実施の形態における学習モデル生成処理ルーチンについて説明する。第2の実施の形態では、左反転画像及び右反転画像の縦横比は、全体画像の縦横比(例えば、横1×縦2)と同じになるため、第1の実施の形態のように、左反転画像、右反転画像、及び全体画像の各々に対応した学習モデルを生成する必要がない。従って、図2に示す第1の実施の形態における学習モデル生成処理ルーチンにおいて、ステップ106と、ステップ110における左半分画像及び右半分画像の学習モデル生成の処理について省略することができる。   Next, a learning model generation processing routine in the second embodiment will be described. In the second embodiment, the aspect ratio of the left inverted image and the right inverted image is the same as the aspect ratio of the entire image (for example, horizontal 1 × vertical 2). Therefore, as in the first embodiment, There is no need to generate a learning model corresponding to each of the left inverted image, the right inverted image, and the entire image. Accordingly, in the learning model generation processing routine in the first embodiment shown in FIG. 2, the learning model generation processing for the left half image and the right half image in step 106 and step 110 can be omitted.

次に、図7を参照して、第2の実施の形態における人物検出の処理ルーチンについて説明する。   Next, a person detection processing routine in the second embodiment will be described with reference to FIG.

ステップ200で、ウインドウ画像抽出部22に画像が入力され、ステップ202で、ウインドウ画像抽出部22がウインドウ画像を抽出し、ステップ204で、反転画像生成部34が、ウインドウ画像の輝度を正規化する。   In step 200, an image is input to the window image extraction unit 22. In step 202, the window image extraction unit 22 extracts a window image. In step 204, the inverted image generation unit 34 normalizes the luminance of the window image. .

次に、ステップ300で、反転画像生成部34は、ウインドウ画像を左側領域の画像と右側領域の画像とに分割する。ここでは、左側領域の画像と右側領域の画像とが同サイズ(例えば、8×32画素)になるように、全体画像の中央で分割し、分割した左側領域の画像を左右反転した画像を生成して、左側領域の画像と合成して左反転画像を生成する。例えば、図8(A)に示すようなウインドウ画像において、cがウインドウ画像の中央を示す線(左端から8画素目と9画素目の境界線)を表している場合、ウインドウ画像を線cで分割して左半分画像を生成し、左半分画像の左右反転画像を生成し、左半分画像に右端の画素に反転画像の左端の画素が隣接するように左半分画像と左半分画像の反転画像を合成して、同図(B)に示す左反転画像を生成する。   Next, in step 300, the reverse image generation unit 34 divides the window image into a left region image and a right region image. Here, the left side image and the right side image are divided at the center of the entire image so that the image of the right side is the same size (for example, 8 × 32 pixels), and an image obtained by horizontally inverting the divided left side image is generated. Then, a left inverted image is generated by combining with the image in the left region. For example, in a window image as shown in FIG. 8A, when c represents a line indicating the center of the window image (a boundary line between the eighth pixel and the ninth pixel from the left end), the window image is represented by a line c. The left half image is divided to generate a left-right inverted image of the left half image, and the left half image and the left half image are inverted so that the left end pixel of the inverted image is adjacent to the right end pixel of the left half image. Are combined to generate a left inverted image shown in FIG.

次に、ステップ300で、判定部28は、左反転画像の特徴量を抽出し、次のステップ304で、学習モデルDB26に記憶されている学習モデルと比較して、SVMの手法を用いて人物の確からしさを評価値として算出する。   Next, in step 300, the determination unit 28 extracts the feature amount of the left inverted image, and in the next step 304, the determination unit 28 compares the learning model stored in the learning model DB 26 with the SVM technique. Is calculated as an evaluation value.

次に、ステップ212で、判定部28が、ウインドウ画像が人物であるか否かを判定する。人物であると判定した場合には、ステップ228へ進み、人物ではないと判定した場合には、ステップ306へ進む。   Next, in step 212, the determination unit 28 determines whether the window image is a person. If it is determined that the person is a person, the process proceeds to step 228. If it is determined that the person is not a person, the process proceeds to step 306.

ステップ306で、ステップ300と同様の処理により、図8(C)に示す右反転画像を生成する。なお、ステップ300で、左反転画像を生成する際に、あわせて右反転画像を生成しておき、本ステップを省略することも可能である。   In step 306, the right inverted image shown in FIG. In step 300, when generating a left inverted image, it is also possible to generate a right inverted image and omit this step.

次に、ステップ308、ステップ310、及びステップ220で、ステップ208〜ステップ212の左反転画像の場合と同様に、右反転画像についても、学習モデルDB26に記憶されている学習モデルと比較して、ウインドウ画像が人物であるか否かを判定する。ここで、比較に用いる学習モデルは、左半分画像用、右半分画像用、及び全体画像用の学習モデルを用いた第1の実施の形態の場合と異なり、左反転画像、右反転画像、及び全体画像で共通の学習モデルを用いることができる。人物であると判定した場合には、ステップ228へ進み、人物ではないと判定した場合には、ステップ222へ進む。   Next, in Step 308, Step 310, and Step 220, as in the case of the left inverted image in Step 208 to Step 212, the right inverted image is also compared with the learning model stored in the learning model DB 26. It is determined whether or not the window image is a person. Here, the learning model used for comparison is different from the case of the first embodiment using the learning model for the left half image, the right half image, and the whole image, and the left inverted image, the right inverted image, and A common learning model can be used for the entire image. If it is determined that the person is a person, the process proceeds to step 228. If it is determined that the person is not a person, the process proceeds to step 222.

以上説明したように、第2の実施の形態における人物検出装置10では、左反転画像、右反転画像、及び全体画像を用いて人物の有無を判定しているため、例えば、図8(A)に示すように人物の片側の大きな荷物や背景の照明などの影響により、全体としては人物であると判定されにくい場合でも、不要な情報が除かれた同図(B)に示す左反転画像では、人物であると判定されやすいため、第1の実施の形態の場合と同様に、人物の検出の精度を向上させることができると共に、判定画像として生成する左反転画像及び右反転画像は、抽出画像と同サイズとなるため、比較する学習モデルを左反転画像用、右反転画像用、及び全体画像用と個別に設ける必要がなく、学習モデルの生成を簡略化できる。   As described above, in the person detection apparatus 10 according to the second embodiment, the presence or absence of a person is determined using the left inverted image, the right inverted image, and the entire image. For example, FIG. Even if it is difficult to determine that the person is a person as a whole due to the influence of large luggage on one side of the person or background lighting, the left inverted image shown in FIG. Since it is easy to determine that the person is a person, it is possible to improve the accuracy of detection of the person as in the case of the first embodiment, and the left inverted image and the right inverted image generated as the determination image are extracted. Since it is the same size as the image, it is not necessary to provide separate learning models for the left inverted image, the right inverted image, and the entire image, and the generation of the learning model can be simplified.

なお、上記第1の実施の形態及び第2の実施の形態では、学習モデルの生成及び人物の検出にSVMの手法を用いる場合について説明したが、特徴量としてHaar−like featureを計算して、Viola&Jonesの手法を用いてもよい。   In the first embodiment and the second embodiment, the case where the SVM method is used for generating the learning model and detecting the person has been described. However, the Haar-like feature is calculated as the feature amount, The method of Viola & Jones may be used.

第1の実施の形態の人物検出装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the person detection apparatus 10 of 1st Embodiment. 第1の実施の形態の学習モデルの生成処理ルーチンを示すフローチャートである。It is a flowchart which shows the production | generation process routine of the learning model of 1st Embodiment. 第1の実施の形態における学習モデル生成を説明する図である。It is a figure explaining learning model generation in a 1st embodiment. 第1の実施の形態の人物検出処理ルーチンを示すフローチャートである。It is a flowchart which shows the person detection process routine of 1st Embodiment. 第1の実施の形態における分割画像生成を説明する図である。It is a figure explaining the division | segmentation image generation in 1st Embodiment. 第2の実施の形態の人物検出装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the person detection apparatus 10 of 2nd Embodiment. 第2の実施の形態の人物検出処理ルーチンを示すフローチャートである。It is a flowchart which shows the person detection processing routine of 2nd Embodiment. 第2の実施の形態における反転画像生成を説明する図である。It is a figure explaining the reverse image generation in 2nd Embodiment. 抽出画像の一例を示す図である。It is a figure which shows an example of an extraction image.

符号の説明Explanation of symbols

10 人物検出装置
22 ウインドウ画像抽出部
24 分割画像生成部
26 学習モデルDB
28 判定部
DESCRIPTION OF SYMBOLS 10 Person detection apparatus 22 Window image extraction part 24 Division | segmentation image generation part 26 Learning model DB
28 judgment part

Claims (3)

入力画像から抽出した抽出画像を左右の領域に分割する画像分割手段と、
前記画像分割手段により分割された左側領域の画像及び右側領域の画像の各々の左右を反転させる画像反転手段と、
前記画像分割手段により分割された左側領域の画像の右端の画素に前記画像反転手段により反転された左側領域の画像の左端の画素が隣接するように、前記分割された左側領域の画像と前記反転された左側領域の画像とを合成した画像、前記画像分割手段により分割された右側領域の画像の左端の画素に前記画像反転手段により反転された右側領域の画像の右端の画素が隣接するように、前記分割された右側領域の画像と前記反転された右側領域の画像とを合成した画像、及び前記抽出画像の全体のいずれかと、歩行者を検出するための学習モデルとの比較で歩行者が検出された場合に、前記抽出画像に歩行者有りと判定する判定手段と、
を含む歩行者検出装置。
Image dividing means for dividing the extracted image extracted from the input image into left and right regions;
Image reversing means for reversing the left and right of the image of the left area and the image of the right area divided by the image dividing means;
The divided left side image and the inversion so that the left end pixel of the left region image inverted by the image inversion unit is adjacent to the right end pixel of the left region image divided by the image dividing unit. An image obtained by combining the image of the left area, and the right end pixel of the right area image inverted by the image inversion means is adjacent to the left end pixel of the right area image divided by the image dividing means. The pedestrian is compared with a learning model for detecting a pedestrian with either the image obtained by combining the image of the divided right region and the image of the inverted right region, or the entire extracted image. A determination means for determining that there is a pedestrian in the extracted image when detected,
A pedestrian detection device.
前記判定手段は、画像の特徴量と前記学習モデルとを比較する請求項1記載の歩行者検出装置。 The pedestrian detection apparatus according to claim 1 , wherein the determination unit compares a feature amount of an image with the learning model. コンピュータを、
入力画像から抽出した抽出画像を左右の領域に分割する画像分割手段と、
前記画像分割手段により分割された左側領域の画像及び右側領域の画像の各々の左右を反転させる画像反転手段と、
前記画像分割手段により分割された左側領域の画像の右端の画素に前記画像反転手段により反転された左側領域の画像の左端の画素が隣接するように、前記分割された左側領域の画像と前記反転された左側領域の画像とを合成した画像、前記画像分割手段により分割された右側領域の画像の左端の画素に前記画像反転手段により反転された右側領域の画像の右端の画素が隣接するように、前記分割された右側領域の画像と前記反転された右側領域の画像とを合成した画像、及び前記抽出画像の全体のいずれかと、歩行者を検出するための学習モデルとの比較で歩行者が検出された場合に、前記抽出画像に歩行者有りと判定する判定手段と、
して機能させるための歩行者検出プログラム。
Computer
Image dividing means for dividing the extracted image extracted from the input image into left and right regions;
Image reversing means for reversing the left and right of the image of the left area and the image of the right area divided by the image dividing means;
The divided left side image and the inversion so that the left end pixel of the left region image inverted by the image inversion unit is adjacent to the right end pixel of the left region image divided by the image dividing unit. An image obtained by combining the image of the left area, and the right end pixel of the right area image inverted by the image inversion means is adjacent to the left end pixel of the right area image divided by the image dividing means. The pedestrian is compared with a learning model for detecting a pedestrian with either the image obtained by combining the image of the divided right region and the image of the inverted right region, or the entire extracted image. A determination means for determining that there is a pedestrian in the extracted image when detected,
Pedestrian detection program to make it function.
JP2008277909A 2008-10-29 2008-10-29 Pedestrian detection device and program Expired - Fee Related JP5020920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008277909A JP5020920B2 (en) 2008-10-29 2008-10-29 Pedestrian detection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008277909A JP5020920B2 (en) 2008-10-29 2008-10-29 Pedestrian detection device and program

Publications (2)

Publication Number Publication Date
JP2010108138A JP2010108138A (en) 2010-05-13
JP5020920B2 true JP5020920B2 (en) 2012-09-05

Family

ID=42297547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008277909A Expired - Fee Related JP5020920B2 (en) 2008-10-29 2008-10-29 Pedestrian detection device and program

Country Status (1)

Country Link
JP (1) JP5020920B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550675A (en) * 2016-02-02 2016-05-04 天津大学 Binocular pedestrian detection method based on optimization polymerization integration channel

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5910250B2 (en) * 2012-03-30 2016-04-27 スズキ株式会社 Object identification device
JP6364189B2 (en) * 2013-12-20 2018-07-25 株式会社今仙電機製作所 Pedestrian detection method
JP2021196755A (en) * 2020-06-11 2021-12-27 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264985A (en) * 1991-02-20 1992-09-21 Hamamatsu Photonics Kk Image recognition system
DE19810792A1 (en) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Personal identity verification method for access control e.g. for automatic banking machine
JP2005084824A (en) * 2003-09-05 2005-03-31 Toshiba Corp Face image collation apparatus and face image collation method and passage controller
JP4165350B2 (en) * 2003-09-08 2008-10-15 松下電工株式会社 Image processing method and image processing apparatus
JP2006004051A (en) * 2004-06-16 2006-01-05 Digital Fashion Ltd Image processing program, device, and method
JP2005339389A (en) * 2004-05-28 2005-12-08 Matsushita Electric Works Ltd Picture processing method and picture processor
JP2006065447A (en) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program
JP2006072770A (en) * 2004-09-02 2006-03-16 Sanyo Electric Co Ltd Face detection device and face direction estimation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550675A (en) * 2016-02-02 2016-05-04 天津大学 Binocular pedestrian detection method based on optimization polymerization integration channel
CN105550675B (en) * 2016-02-02 2019-02-22 天津大学 A kind of binocular pedestrian detection method based on optimization polymerization integrating channel

Also Published As

Publication number Publication date
JP2010108138A (en) 2010-05-13

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
KR102027405B1 (en) Moving object recognizer
JP5058002B2 (en) Object detection device
JP2008286725A (en) Person detector and detection method
KR101772438B1 (en) Apparatus and method for detecting bar-type traffic sign in traffic sign recognition system
JP2005318546A (en) Image recognition system, image recognition method, and image recognition program
JP5100688B2 (en) Object detection apparatus and program
JP5020920B2 (en) Pedestrian detection device and program
JP6110174B2 (en) Image detection apparatus, control program, and image detection method
JP5691834B2 (en) Image identification apparatus and program
JP2010262576A (en) Subject detecting apparatus and program
JP2009276910A (en) Image processor, method and program
JP2011165170A (en) Object detection device and program
JP6340228B2 (en) Object detection device
JP5201184B2 (en) Image processing apparatus and program
CN116324911A (en) Method for extracting characters from a vehicle license plate and license plate character extraction device for performing the method
CN109074646B (en) Image recognition device and image recognition program
JP6393495B2 (en) Image processing apparatus and object recognition method
JP4842301B2 (en) Pedestrian detection device and program
EP2784721A2 (en) Object detection apparatus
JP5220482B2 (en) Object detection apparatus and program
JP6276504B2 (en) Image detection apparatus, control program, and image detection method
JP7192312B2 (en) Image processing device
JP2011018175A (en) Character recognition apparatus and character recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120613

R150 Certificate of patent or registration of utility model

Ref document number: 5020920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees