JP5829155B2 - Pedestrian detection device and program - Google Patents

Pedestrian detection device and program Download PDF

Info

Publication number
JP5829155B2
JP5829155B2 JP2012056193A JP2012056193A JP5829155B2 JP 5829155 B2 JP5829155 B2 JP 5829155B2 JP 2012056193 A JP2012056193 A JP 2012056193A JP 2012056193 A JP2012056193 A JP 2012056193A JP 5829155 B2 JP5829155 B2 JP 5829155B2
Authority
JP
Japan
Prior art keywords
flow
pedestrian
image
score
window image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012056193A
Other languages
Japanese (ja)
Other versions
JP2013190949A (en
Inventor
邦博 後藤
邦博 後藤
文洋 奥村
文洋 奥村
貴史 町田
貴史 町田
清水 宏明
宏明 清水
西嶋 征和
征和 西嶋
勇彦 田中
勇彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2012056193A priority Critical patent/JP5829155B2/en
Publication of JP2013190949A publication Critical patent/JP2013190949A/en
Application granted granted Critical
Publication of JP5829155B2 publication Critical patent/JP5829155B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、歩行者検出装置及びプログラムに係り、特に、撮像した画像から歩行者を検出するための歩行者検出装置及びプログラムに関する。   The present invention relates to a pedestrian detection apparatus and program, and more particularly to a pedestrian detection apparatus and program for detecting a pedestrian from a captured image.

歩行者検出では、歩行者の姿勢パタンの多様性から未検出になる場合があり、歩行者が移動物であるということから、フロー(動き)情報を利用して歩行者検出を行う歩行者検出装置が知られている(例えば、特許文献1)。   In pedestrian detection, pedestrian detection may be undetected due to the variety of pedestrian posture patterns, and pedestrian detection is performed using flow (motion) information because the pedestrian is a moving object. An apparatus is known (for example, Patent Document 1).

この歩行者検出装置では、カメラにより連続的に撮像することによって得られた各画像内の動きが揃った領域を移動体領域と特定し、各画像内の動きが揃った移動体領域の下部に、当該移動体領域のサイズに応じたサイズの下部領域を設定し、設定された下部領域内の特徴点の動きが不揃いであるか否かを判定し、動きが不揃いであると判定された下部領域及び当該下部領域に対応する移動体領域を、歩行者の全身領域と特定している。   In this pedestrian detection device, a region in which movements in each image obtained by continuously capturing images with a camera are identified as a moving body region, and a lower part of the moving body region in which movements in each image are aligned. , Set the lower area of the size corresponding to the size of the moving body area, determine whether or not the movement of the feature points in the set lower area is uneven, the lower part where the movement is determined to be uneven The moving body area corresponding to the area and the lower area is specified as the whole body area of the pedestrian.

特開2009−157581号公報JP 2009-157581 A

しかしながら、上記の特許文献1に記載の技術は、フローを基本とした検出手法であるため、移動している歩行者のみが検出対象となる。また、上記の特許文献1に記載の技術は、画像から得られたフロー情報をグループ化し、グループ化した領域の脚部のフローの不均一性や画像パタンを利用して歩行者判定を行っている。しかし、横断時の腕の振りの動きから上半身部分にもフローの不均一性は生じるため、歩行者を移動体領域として抽出するのは困難である、という問題がある。更に、自車に対して平行に進行している歩行者は脚部の見かけの変化が少ないため、移動体領域下部におけるフローの不均一性が生じにくく検出が困難になる、という問題がある。   However, since the technique described in Patent Document 1 is a detection method based on a flow, only a moving pedestrian is a detection target. In addition, the technique described in Patent Literature 1 described above groups flow information obtained from an image, and performs pedestrian determination using non-uniformity in the flow of legs in the grouped region and an image pattern. Yes. However, there is a problem that it is difficult to extract a pedestrian as a moving body region because non-uniformity of the flow also occurs in the upper body part due to the movement of the arm swing at the time of crossing. Furthermore, since the pedestrian traveling in parallel with the own vehicle has little change in the appearance of the leg portion, there is a problem that the non-uniformity of the flow in the lower part of the moving body region does not easily occur and is difficult to detect.

本発明は、上述した問題を解決するために成されたものであり、歩行者の動きに関わらず、歩行者を安定して検出することができる歩行者検出装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide a pedestrian detection apparatus and program capable of stably detecting a pedestrian regardless of the movement of the pedestrian. And

上記目的を達成するために本発明の歩行者検出装置は、移動体に搭載された自装置の周辺を撮像した時系列の複数の撮像画像から、各特徴点について、前記撮像画像間で対応する前記特徴点の動きを示すフローを抽出するフロー抽出手段と、前記フロー抽出手段で抽出されたフローから、移動物上のフローを抽出する移動物フロー抽出手段と、前記撮像画像からウインドウ画像を抽出するウインドウ画像抽出手段と、予め学習された歩行者を識別するための識別モデルと、前記ウインドウ抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記歩行者らしさを示すスコアを算出するスコア算出手段と、前記撮像画像上の歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する歩行者フロー抽出手段と、前記歩行者フロー抽出手段による抽出結果と、前記スコア算出手段によって算出された前記スコアとに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する識別手段と、を含んで構成されている。   In order to achieve the above object, the pedestrian detection device of the present invention corresponds to each feature point between the captured images from a plurality of time-series captured images obtained by imaging the periphery of the own device mounted on the moving body. A flow extraction unit that extracts a flow indicating the movement of the feature point, a moving object flow extraction unit that extracts a flow on a moving object from the flow extracted by the flow extraction unit, and a window image extracted from the captured image Score calculation for calculating a score indicating the pedestrian-likeness based on a window image extracting means for performing identification, a pre-learned identification model for identifying a pedestrian, and the window image extracted by the window extracting means And the moving object flow extraction hand based on a predetermined flow size range corresponding to the distance to the pedestrian candidate on the captured image. The pedestrian flow extraction means for extracting a flow having a size within the range from the flow on the moving object in the window image extracted by the above, an extraction result by the pedestrian flow extraction means, and the score calculation means Identification means for identifying whether or not the window image is an image representing the pedestrian based on the score calculated by the above.

本発明のプログラムは、コンピュータを、移動体に搭載された自装置の周辺を撮像した時系列の複数の撮像画像から、各特徴点について、前記撮像画像間で対応する前記特徴点の動きを示すフローを抽出するフロー抽出手段、前記フロー抽出手段で抽出されたフローから、移動物上のフローを抽出する移動物フロー抽出手段、前記撮像画像からウインドウ画像を抽出するウインドウ画像抽出手段、予め学習された歩行者を識別するための識別モデルと、前記ウインドウ抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記歩行者らしさを示すスコアを算出するスコア算出手段、前記撮像画像上の歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する歩行者フロー抽出手段及び、前記歩行者フロー抽出手段による抽出結果と、前記スコア算出手段によって算出された前記スコアとに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する識別手段として機能させるためのプログラムである。   The program according to the present invention shows, for each feature point, the movement of the corresponding feature point between the captured images from a plurality of time-series captured images obtained by imaging the periphery of the own device mounted on the mobile body. A flow extracting means for extracting a flow; a moving object flow extracting means for extracting a flow on a moving object from a flow extracted by the flow extracting means; a window image extracting means for extracting a window image from the captured image; Score calculating means for calculating a score indicating the pedestrian-likeness based on an identification model for identifying a pedestrian and the window image extracted by the window extracting means, pedestrian candidates on the captured image Extracted by the moving object flow extraction means based on a predetermined flow size range corresponding to the distance to Calculated from the flow on the moving object in the window image by the pedestrian flow extraction means for extracting a flow having a size within the range, the extraction result by the pedestrian flow extraction means, and the score calculation means It is a program for functioning as an identification means for identifying whether or not the window image is an image representing the pedestrian based on the score.

本発明によれば、フロー抽出手段によって、移動体に搭載された自装置の周辺を撮像した時系列の複数の撮像画像から、各特徴点について、前記撮像画像間で対応する前記特徴点の動きを示すフローを抽出する。移動物フロー抽出手段によって、前記フロー抽出手段で抽出されたフローから、移動物上のフローを抽出する。   According to the present invention, for each feature point from the plurality of time-series captured images obtained by capturing the periphery of the own device mounted on the moving body by the flow extraction unit, the movement of the corresponding feature point between the captured images. Is extracted. The flow on the moving object is extracted from the flow extracted by the flow extracting means by the moving object flow extracting means.

そして、ウインドウ画像抽出手段によって、前記撮像画像からウインドウ画像を抽出する。スコア算出手段によって、予め学習された歩行者を識別するための識別モデルと、前記ウインドウ抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記歩行者らしさを示すスコアを算出する。   Then, a window image is extracted from the captured image by the window image extracting means. A score indicating the pedestrian-likeness is calculated by the score calculation means based on the identification model for identifying the pedestrian learned in advance and the window image extracted by the window extraction means.

そして、歩行者フロー抽出手段によって、前記撮像画像上の歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する。識別手段によって、前記歩行者フロー抽出手段による抽出結果と、前記スコア算出手段によって算出された前記スコアとに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する。   Then, the window extracted by the moving object flow extraction unit based on a predetermined flow size range corresponding to the distance to the pedestrian candidate on the captured image by the pedestrian flow extraction unit. A flow having a size within the range is extracted from the flow on the moving object in the image. The identifying means identifies whether the window image is an image representing the pedestrian based on the extraction result by the pedestrian flow extracting means and the score calculated by the score calculating means.

このように、歩行者候補までの距離に対応して予め定められたフローの大きさの範囲内のフローを、ウインドウ画像内の移動物上のフローから抽出し、フローの抽出結果と、歩行者らしさを示すスコアとに基づいて、ウインドウ画像が前記歩行者を表す画像か否かを識別することにより、歩行者の動きに関わらず、歩行者を安定して検出することができる。   As described above, the flow within the predetermined flow size range corresponding to the distance to the pedestrian candidate is extracted from the flow on the moving object in the window image, and the flow extraction result and the pedestrian By identifying whether the window image is an image representing the pedestrian based on the score indicating the likelihood, the pedestrian can be stably detected regardless of the movement of the pedestrian.

上記のフローの大きさの範囲は、前記撮像画像上の歩行者候補までの距離が遠いほど、フローの大きさが小さくなるように予め定められたものとすることができる。   The range of the size of the flow may be determined in advance so that the size of the flow becomes smaller as the distance to the pedestrian candidate on the captured image increases.

上記のフローの大きさの範囲は、前記撮像画像上の前記ウインドウ画像の位置から求められる歩行者候補の横位置が、前記移動体の横位置より離れているほど、フローの大きさが大きくなるように予め定められたものとすることができる。   The range of the size of the flow is such that the larger the lateral position of the pedestrian candidate obtained from the position of the window image on the captured image is, the larger the size of the flow is. As such, it can be determined in advance.

本発明に係る識別手段は、前記歩行者フロー抽出手段によって抽出された前記フローの数に応じて、前記スコア算出手段によって算出された前記スコアを補正し、前記補正された前記スコアに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別するようにすることができる。   The identifying means according to the present invention corrects the score calculated by the score calculating means according to the number of the flows extracted by the pedestrian flow extracting means, and based on the corrected score, Whether the window image is an image representing the pedestrian or not can be identified.

本発明に係るスコア算出手段は、歩行者の向き毎に予め学習された前記識別モデルと、前記ウインドウ抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記向き毎に、前記歩行者らしさを示すスコアを算出し、前記歩行者フロー抽出手段は、前記撮像画像上の前記歩行者候補までの距離と、前記スコアが最大となる前記向きとに対応して予め定められたフローの大きさの範囲に基づいて、前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出するようにすることができる。これによって、歩行者らしきもののフローを更に限定して抽出することができる。   The score calculation means according to the present invention calculates the pedestrian-likeness for each orientation based on the identification model learned in advance for each pedestrian orientation and the window image extracted by the window extraction means. The pedestrian flow extraction means calculates a predetermined flow size corresponding to the distance to the pedestrian candidate on the captured image and the direction in which the score is maximized. Based on the range, a flow having a size within the range can be extracted from the flow on the moving object in the window image. As a result, the flow of what seems to be a pedestrian can be further limited and extracted.

本発明に係るスコア算出手段は、歩行者の姿勢毎に予め学習された前記識別モデルと、前記ウインドウ抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記姿勢毎に、前記歩行者らしさを示すスコアを算出し、前記識別手段は、前記スコアが最大となる前記姿勢に対して予め定められた歩行者の動きの有無と、前記歩行者フロー抽出手段によって抽出された前記フローの数との整合性に応じて、前記スコア算出手段によって算出された前記スコアを補正し、補正されたスコアに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別するようにすることができる。   The score calculation means according to the present invention calculates the pedestrian-likeness for each posture based on the identification model learned in advance for each posture of the pedestrian and the window image extracted by the window extraction means. The identification means calculates the presence / absence of a pedestrian movement predetermined for the posture with the maximum score and the number of flows extracted by the pedestrian flow extraction means. The score calculated by the score calculation means is corrected according to the consistency, and it is possible to identify whether the window image is an image representing the pedestrian based on the corrected score. .

本発明に係る移動物フロー抽出手段は、前記移動体の運動に基づいて、前記フロー抽出手段で抽出されたフローから、前記移動物上のフローを抽出するようにすることができる。   The moving object flow extraction means according to the present invention can extract the flow on the moving object from the flow extracted by the flow extraction means based on the motion of the moving body.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明によれば、ウインドウ画像の位置に対応して予め定められたフローの大きさの範囲内のフローを、ウインドウ画像内の移動物上のフローから抽出し、フローの抽出結果と、歩行者らしさを示すスコアとに基づいて、ウインドウ画像が前記歩行者を表す画像か否かを識別することにより、歩行者の動きに関わらず、歩行者を安定して検出することができる、という効果が得られる。   As described above, according to the present invention, a flow within a predetermined flow size range corresponding to the position of the window image is extracted from the flow on the moving object in the window image. By detecting whether the window image is an image representing the pedestrian based on the extraction result and the score indicating the pedestrian-likeness, the pedestrian can be stably detected regardless of the movement of the pedestrian. The effect of being able to be obtained.

第1の実施の形態に係る歩行者検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the pedestrian detection apparatus which concerns on 1st Embodiment. 各向きの歩行者の全身モデルを示す図である。It is a figure which shows the whole body model of the pedestrian of each direction. 各姿勢の歩行者の部位モデルを示す図である。It is a figure which shows the part model of the pedestrian of each attitude | position. 歩行者の向き及び姿勢を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring a pedestrian's direction and attitude | position. 歩行者の距離とフローの大きさとの関係を示すグラフである。It is a graph which shows the relationship between the distance of a pedestrian and the magnitude | size of a flow. 歩行者までの距離を示す図である。It is a figure which shows the distance to a pedestrian. 撮像画像上のウインドウ画像を示す図である。It is a figure which shows the window image on a captured image. 撮像画像上のウインドウ画像の下端位置から歩行者候補までの距離を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating the distance from the lower end position of the window image on a captured image to a pedestrian candidate. 第1の実施の形態の歩行者検出装置における歩行者検出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pedestrian detection process routine in the pedestrian detection apparatus of 1st Embodiment. 第1の実施の形態の歩行者検出装置における全身モデルを用いたスコアの算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the calculation process of the score using the whole body model in the pedestrian detection apparatus of 1st Embodiment. 第1の実施の形態の歩行者検出装置における部位モデルを用いたスコアの算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the calculation process of the score using the site | part model in the pedestrian detection apparatus of 1st Embodiment. 歩行者の距離とフローの大きさとの関係を示すグラフである。It is a graph which shows the relationship between the distance of a pedestrian and the magnitude | size of a flow. 部位モデルに付加した動き情報を示す図である。It is a figure which shows the movement information added to the site | part model.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では、車両に搭載され、歩行者を検出する歩行者検出装置に本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case will be described in which the present invention is applied to a pedestrian detection device that is mounted on a vehicle and detects a pedestrian.

図1に示すように、第1の実施の形態に係る歩行者検出装置10は、自車両の前方における識別対象領域を含む範囲を撮像する撮像装置12と、撮像装置12から出力される撮像画像に基づいて歩行者を検出する歩行者検出処理ルーチンを実行するコンピュータ16と、コンピュータ16での処理結果を表示するための表示装置18と、を備えている。   As illustrated in FIG. 1, the pedestrian detection device 10 according to the first embodiment includes an imaging device 12 that captures a range including an identification target region in front of the host vehicle, and a captured image output from the imaging device 12. The computer 16 which performs the pedestrian detection process routine which detects a pedestrian based on this, and the display apparatus 18 for displaying the process result in the computer 16 are provided.

撮像装置12は、自車両の前方における識別対象領域を含む範囲を連続して撮像し、複数の画像信号を生成する撮像部(図示省略)と、撮像部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。なお、用いる画像はカラーでもモノクロでも良いし、可視光画像でも近赤画像でもよい。   The imaging device 12 continuously captures a range including an identification target region in front of the host vehicle, and generates an image signal (not shown), and an image signal that is an analog signal generated by the imaging unit An A / D converter (not shown) for converting the signal into a digital signal, and an image memory (not shown) for temporarily storing the A / D converted image signal. The image to be used may be color or monochrome, and may be a visible light image or a near red image.

コンピュータ16は、歩行者検出装置10全体の制御を司るCPU、後述する歩行者検出処理ルーチンのプログラム等を記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。   The computer 16 is a CPU that controls the pedestrian detection apparatus 10 as a whole, a ROM as a storage medium that stores a program for a pedestrian detection processing routine, which will be described later, a RAM that temporarily stores data as a work area, and a connection between them. It is configured to include a bus. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To.

このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12で連続して撮像されコンピュータ16へ入力された複数の撮像画像を取得する画像取得部19と、取得した撮像画像から所定領域のウインドウ画像を抽出するウインドウ画像抽出部20と、ウインドウ画像抽出部20により抽出されたウインドウ画像について画像特徴量を抽出する特徴量抽出部21と、ウインドウ画像について抽出された画像特徴量と識別モデルとを比較して、歩行者らしさを示すスコアを算出するスコア算出部22と、識別モデルが記憶された識別モデル記憶部24と、を含んだ構成で表すことができる。   When the computer 16 is described with functional blocks divided for each function realization means determined based on hardware and software, as shown in FIG. 1, a plurality of images captured continuously by the imaging device 12 and input to the computer 16 An image acquisition unit 19 that acquires a captured image of the image, a window image extraction unit 20 that extracts a window image of a predetermined area from the acquired captured image, and an image feature amount extracted from the window image extracted by the window image extraction unit 20 The feature amount extraction unit 21, the score calculation unit 22 that compares the image feature amount extracted for the window image with the identification model and calculates a score indicating the pedestrian-likeness, and the identification model storage unit that stores the identification model 24.

ウインドウ画像抽出部20は、撮像画像から予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ステップと呼称)だけ移動させながら画像を切り取る。ここでは、切り取った画像をウインドウ画像といい、ウインドウ画像のサイズ(すなわち探索ウインドウのサイズ)をウインドウサイズと呼称する。ウインドウサイズは様々なサイズの歩行者を検出するために複数種設定されており、ウインドウ画像抽出部20は、設定されている全てのウインドウサイズの探索ウインドウを用いてウインドウ画像を抽出する。また、ウインドウ画像抽出部20は、抽出したウインドウ画像を予め設定された画素数の画像に変換する。   The window image extraction unit 20 cuts an image from a captured image while moving a predetermined size window (referred to as a search window) by a predetermined amount of movement (referred to as a search step) per step. Here, the cut image is referred to as a window image, and the size of the window image (that is, the size of the search window) is referred to as a window size. A plurality of types of window sizes are set to detect pedestrians of various sizes, and the window image extraction unit 20 extracts window images using search windows of all the set window sizes. The window image extraction unit 20 converts the extracted window image into an image having a preset number of pixels.

特徴量抽出部21は、各ウインドウ画像について画像特徴量を抽出する。画像特徴量として、Haar-Like Feature、HOG(Histograms of Oriented Gradients)、FIND(Feature Interaction Descriptor)などが利用できる。なお、FINDについては、非特許文献(Hui CAO, Koichiro YAMAGUCHI, Mitsuhiko OHTA, Takashi NAITO and Yoshiki NINOMIYA:" Feature Interaction Descriptor for Pedestrian Detection", IEICE TRANSACTIONS on Information and Systems, Volume E93-D No.9, pp.2651-2655, 2010)に記載されているものを利用すればよいため、詳細な説明を省略する。   The feature amount extraction unit 21 extracts an image feature amount for each window image. As the image feature amount, Haar-Like Feature, HOG (Histograms of Oriented Gradients), FIND (Feature Interaction Descriptor), etc. can be used. Regarding FIND, non-patent literature (Hui CAO, Koichiro YAMAGUCHI, Mitsuhiko OHTA, Takashi NAITO and Yoshiki NINOMIYA: "Feature Interaction Descriptor for Pedestrian Detection", IEICE TRANSACTIONS on Information and Systems, Volume E93-D No.9, pp. .2651-2655, 2010) may be used, and detailed description thereof is omitted.

また、特徴量抽出部21は、ウインドウ画像内の、後述する部位モデルの部位毎に、対応する局所領域について画像特徴量を抽出する。   Further, the feature amount extraction unit 21 extracts an image feature amount for a corresponding local region for each part of a part model to be described later in the window image.

識別モデル記憶部24には、予め学習により生成され、かつ、スコア算出部22でスコアを算出する際に参照される識別モデルが記憶されている。なお、ここでは、識別モデル記憶部24をコンピュータ16に設ける場合について説明するが、他の外部装置の記憶手段に識別モデルを記憶しておき、ネットワークや通信手段を介して他の外部装置に接続して、他の外部装置の記憶手段に記憶された識別モデルを読み込むような構成としてもよい。   The identification model storage unit 24 stores an identification model that is generated by learning in advance and that is referred to when the score calculation unit 22 calculates a score. Here, the case where the identification model storage unit 24 is provided in the computer 16 will be described. However, the identification model is stored in the storage unit of another external device and connected to the other external device via a network or communication unit. And it is good also as a structure which reads the identification model memorize | stored in the memory | storage means of another external apparatus.

ここで、識別モデル記憶部24に記憶される識別モデルについて説明する。   Here, the identification model stored in the identification model storage unit 24 will be described.

画像パタンを用いた歩行者検出において、歩行者の姿勢には非常に多様性があるため、歩行者を未検出する場合や、歩行者と類似した物体を誤検出する場合がある。このような事情を鑑みて、歩行者全身の歩行者モデルを用いて検出するだけでなく、歩行者の各部位(例えば歩行者の頭部、胴体、脚部)のモデルを用いて検出を行う場合がある。この場合には、全身モデルによるおおまかな歩行者候補を抽出し、その後、各部位の歩行者モデルを用いたより詳細な識別を行うことで、未検出や誤検出を低減させることができる。   In the detection of pedestrians using image patterns, since the postures of pedestrians are very diverse, there are cases where pedestrians are not detected or objects similar to pedestrians are erroneously detected. In view of such circumstances, not only detection is performed using a pedestrian model of the entire pedestrian, but also detection is performed using models of each part of the pedestrian (for example, the pedestrian's head, trunk, and leg). There is a case. In this case, undetected and erroneous detection can be reduced by extracting rough pedestrian candidates based on the whole body model and then performing more detailed identification using the pedestrian model of each part.

また、このとき利用する全身および各部位の歩行者モデルは、いくつかの姿勢ごとにモデルを生成することでより性能を向上させることができ、例えば、図2(A)〜(C)に示すように、全身の歩行者モデルを歩行者の向きごとに生成し、更に図3(A)〜(D)に示すような各部位のモデルを姿勢に応じたいくつかのモデルを生成することで検出性能を向上させることができる。このように、向きごと、姿勢ごとに歩行者モデルを構成することで、図4に示すように歩行者の位置や大きさだけではなく、歩行者の向きや各部位の姿勢を知ることが可能になる。   Moreover, the pedestrian model of the whole body and each part utilized at this time can improve a performance more by producing | generating a model for every some attitude | position, for example, it shows to FIG. 2 (A)-(C) In this way, a pedestrian model of the whole body is generated for each pedestrian orientation, and several models corresponding to postures are generated from models of each part as shown in FIGS. 3 (A) to (D). Detection performance can be improved. In this way, by configuring the pedestrian model for each orientation and posture, it is possible to know not only the position and size of the pedestrian but also the orientation of the pedestrian and the posture of each part as shown in FIG. become.

そこで、本実施の形態では、識別モデル記憶部24は、識別モデルとして、歩行者の向き(例えば、前後向き、左向き、右向き)毎に学習した向き別の全身モデルをそれぞれ記憶すると共に、歩行者の姿勢毎に学習した姿勢別の部位モデルを、各部位についてそれぞれ記憶する。   Therefore, in the present embodiment, the identification model storage unit 24 stores, as an identification model, a whole body model for each orientation learned for each pedestrian direction (for example, front-rear direction, left direction, right direction), and pedestrians. The part model for each posture learned for each posture is stored for each part.

向き別全身モデルの学習処理では、歩行者の向き毎に、予め歩行者が撮影された歩行者の学習用画像、及び歩行者以外が撮影された非歩行者の学習用画像を所定枚数用意し、対象物の学習用画像を、歩行者の向き毎に分類し、歩行者の向き毎に、当該向きに分類された歩行者の学習用画像と、非歩行者の学習用画像とを用いて、各学習用画像の画像特徴量と教師ラベルとに従って学習を行い、当該向きに対する識別モデルを生成する。   In the learning process for the orientation-based whole body model, for each pedestrian orientation, a predetermined number of pedestrian learning images in which pedestrians have been photographed and non-pedestrian learning images in which other than pedestrians have been photographed are prepared. The learning image of the object is classified for each direction of the pedestrian, and for each direction of the pedestrian, the learning image for the pedestrian classified in the direction and the learning image for the non-pedestrian are used. Then, learning is performed according to the image feature amount and the teacher label of each learning image, and an identification model for the direction is generated.

姿勢別部位モデルの学習処理では、歩行者の部位の姿勢毎に、予め歩行者の当該部位が撮影された歩行者部位の学習用画像、及び歩行者以外が撮影された非歩行者の学習用画像を所定枚数用意し、歩行者部位の学習用画像を、当該部位の姿勢毎に分類し、歩行者の当該部位の姿勢毎に、当該姿勢に分類された歩行者部位の学習用画像と、非歩行者の学習用画像とを用いて、各学習用画像の画像特徴量と教師ラベルとに従って学習を行い、当該部位の姿勢に対する識別モデルを生成する。   In the learning process of the position-specific part model, for each posture of the pedestrian part, a learning image of the pedestrian part in which the part of the pedestrian is photographed in advance, and for non-pedestrian learning in which the part other than the pedestrian is photographed Prepare a predetermined number of images, classify the pedestrian part learning image for each posture of the part, and for each pedestrian part posture, the pedestrian part learning image classified into the posture, Learning is performed in accordance with the image feature amount of each learning image and the teacher label using the non-pedestrian learning image, and an identification model for the posture of the part is generated.

また、スコア算出部22が、各ウインドウ画像について、抽出された画像特徴量と向き毎の全身モデルとに基づいて、向き毎に、識別器によって、ウインドウ画像内に歩行者が存在するかどうかの確信度を示すスコアを算出する。識別器としてBoostingや、SVMなどが利用できる。また、非特許文献(HT Lin, CJ Lin and RC Weng:" A note on Platt's probabilistic outputs for support vector machines", Machine Learning, Springer, 2007)に記載されている手法を用いて、識別器から出力されるスコアを確率値に変換した値をスコアとするようにしてもよい。   In addition, the score calculation unit 22 determines, for each window image, whether or not there is a pedestrian in the window image by the discriminator for each direction based on the extracted image feature amount and the whole body model for each direction. A score indicating the certainty level is calculated. Boosting or SVM can be used as an identifier. It is also output from the discriminator using the method described in non-patent literature (HT Lin, CJ Lin and RC Weng: “A note on Platt's probabilistic outputs for support vector machines”, Machine Learning, Springer, 2007). A value obtained by converting a score to a probability value may be used as the score.

また、スコア算出部22は、全ての向き別全身モデルを用いて算出されたスコアの大きさの各々が閾値より低い場合には非歩行者と判定し、そうでない場合には歩行者候補として以降の処理を続ける。ここで設定される閾値は、すべての向きに対して同一でもよいし、向きごとに異なる値を設定することもできる。このとき、歩行者候補とされたウインドウ画像に対して、向きごとの全身モデルを用いて得られたスコアによってウインドウ画像内の歩行者向きを決定する。上記図3の例では、3方向の向き別の全身モデルを用いたスコア算出の結果、左向きモデルを用いた場合のスコアが最も高く、このウインドウ画像には"左向き歩行者"とのラベルを付することができる。   Moreover, the score calculation part 22 determines as a non-pedestrian, when each of the magnitude | size of the score calculated using all the whole body models classified by direction is lower than a threshold value, and when that is not right, it is after that as a pedestrian candidate. Continue processing. The threshold value set here may be the same for all orientations, or a different value may be set for each orientation. At this time, the direction of the pedestrian in the window image is determined based on the score obtained using the whole body model for each direction with respect to the window image set as the pedestrian candidate. In the example of FIG. 3 above, as a result of the score calculation using the whole body model according to the orientation in the three directions, the score when the left-facing model is used is the highest, and this window image is labeled “left-handed pedestrian”. can do.

次に、スコア算出部22は、全身モデルにより歩行者候補とされたウインドウ画像に対し、歩行者の各部位の姿勢ごとの部位モデルを用いてスコアの算出を行う。   Next, the score calculation part 22 calculates a score using the site | part model for every attitude | position of each part of a pedestrian with respect to the window image made into the pedestrian candidate by the whole body model.

スコア算出部22は、各部位について姿勢毎に、全身の場合と同様に、ウインドウ画像内の、部位モデルと対応する局所領域について抽出された画像特徴量を用いて、ウインドウ画像の局所領域内に歩行者が存在するかどうかの確信度を示すスコアを算出する。そして、スコア算出部22は、向き毎の全身モデルから得られた最大のスコアと各部位モデルから得られた最大のスコアとを用いて、統合スコアを算出する。統合スコアの算出には、SVMや線形識別関数などが利用できる。ここで得られる統合スコアがあらかじめ設定された閾値より低い場合には非歩行者と判定し、そうでない場合には当該ウインドウ画像を歩行者候補として以降の処理を続ける。ここでは、統合スコアの算出に全身モデルを用いた算出結果を利用したが、各部位モデルを用いた算出結果のみを用いてもよい。   The score calculation unit 22 uses the image feature amount extracted for the local region corresponding to the region model in the window image in the local region of the window image for each posture for each region as in the case of the whole body. A score indicating the certainty of whether or not there is a pedestrian is calculated. And the score calculation part 22 calculates an integrated score using the maximum score obtained from the whole body model for every direction and the maximum score obtained from each part model. For the calculation of the integrated score, an SVM, a linear discriminant function, or the like can be used. If the integrated score obtained here is lower than a preset threshold value, it is determined as a non-pedestrian, and if not, the subsequent processing is continued with the window image as a pedestrian candidate. Here, the calculation result using the whole body model is used for calculating the integrated score, but only the calculation result using each part model may be used.

このとき、全身モデルと同様に歩行者候補とされたウインドウ画像の局所領域には、各部位モデルを用いて得られた結果によって局所領域内の姿勢を決定する。上記図4の例では、脚部の領域に対して部位モデルを適用し、跳ね上げモデルを用いた場合のスコアが最も高く、この局所領域に"跳ね上げパタン"というラベルを付することができる。   At this time, as in the whole body model, the posture in the local region is determined based on the result obtained by using each part model for the local region of the window image that is a pedestrian candidate. In the example of FIG. 4 above, the part model is applied to the leg region, and the score when using the flip-up model is the highest, and this local region can be labeled as “bounce-up pattern”. .

なお、全身モデルと部位モデルの識別には同じ特徴量、識別器を利用してもよいし、異なる特徴量、識別器を利用してもよい。   Note that the same feature quantity and discriminator may be used for identification of the whole body model and the part model, or different feature quantities and discriminators may be used.

また、コンピュータ16は、取得した複数の撮像画像から、撮像画像間の特徴点の動きを示すオプティカルフロー(以降、フローと称する)を特徴点毎に抽出するフロー抽出部26と、フロー抽出部26によって抽出されたフローから、移動物上のフローを抽出する移動物フロー抽出部28と、ウインドウ画像の位置に応じて、移動物上のフローを限定する移動物フロー限定部30と、ウインドウ画像が検出対象の歩行者を表す画像であるか否かを識別する歩行者識別部32と、を含んだ構成で表すことができる。なお、移動物フロー限定部30は、歩行者フロー抽出手段の一例である。   Further, the computer 16 extracts an optical flow (hereinafter referred to as a flow) indicating the movement of the feature points between the captured images from the plurality of acquired captured images for each feature point, and the flow extraction unit 26. The moving object flow extracting unit 28 for extracting the flow on the moving object from the flow extracted by the above, the moving object flow limiting unit 30 for limiting the flow on the moving object according to the position of the window image, and the window image It can represent with the structure containing the pedestrian identification part 32 which identifies whether it is an image showing the pedestrian of a detection target. The moving object flow restriction unit 30 is an example of a pedestrian flow extraction unit.

フロー抽出部26は、撮像画像中のオプティカルフローを、現時刻tの撮像画像と時刻t−1の撮像画像を用いて算出する。オプティカルフローは、各画像中の特徴点の位置の変化から各特徴点の動きを検出し、各特徴点のフローベクトルを算出して求めることができる。特徴点の検出方法として、HarrisオペレータやFAST、Tomasi−Kanadeの方法などが利用できる。また、特徴点の追跡方法としては、Lucas & Kanadeアルゴリズムなどが利用できる。   The flow extraction unit 26 calculates the optical flow in the captured image using the captured image at the current time t and the captured image at the time t−1. The optical flow can be obtained by detecting the movement of each feature point from the change in the position of the feature point in each image and calculating the flow vector of each feature point. As a feature point detection method, a Harris operator, FAST, Tomasi-Kanade method, or the like can be used. As a feature point tracking method, a Lucas & Kanade algorithm or the like can be used.

移動物フロー抽出部28は、抽出されたフロー中から、移動物に対応する特徴点から算出された、移動物上のフローを抽出する。移動物フロー抽出部28は、各特徴点から算出されたフローの中で、自車運動に従わないフローを移動物上のフローとして抽出することができる。なお、自車運動は車両に取り付けられたセンサから取得しても良いし、算出したフローからStructure from Motionに基づく手法によって推定することもできる。   The moving object flow extraction unit 28 extracts the flow on the moving object calculated from the feature points corresponding to the moving object from the extracted flows. The moving object flow extraction unit 28 can extract a flow that does not follow the movement of the vehicle as a flow on the moving object from among the flows calculated from the feature points. In addition, the own vehicle motion may be acquired from a sensor attached to the vehicle, or may be estimated from the calculated flow by a method based on Structure from Motion.

次に、本実施の形態の原理について説明する。   Next, the principle of this embodiment will be described.

移動物フロー抽出部28により求められた移動物上のフローを用いてスコアの補正を行う前に、フローの限定を行う。移動物フロー抽出部28により得られたフローは、様々な距離にある物体から抽出された特徴点から算出されており、また、静止物上のフローを誤って移動物上のフローとして抽出している場合もある。そこで、ウインドウ画像内の歩行者らしきものに関するフローのみを利用して、後述するスコアの補正をすることで、安定した歩行者検出を可能にする。具体的には、対象としている歩行者候補のウインドウ画像内から得られた移動物上のフローの中から、スコア補正に利用するフローを限定する。図5に示すように、歩行者から得られるフローの大きさは、歩行者の位置、向き(進行方向)によって大きさが異なるので、これを利用して、ウインドウ画像の撮像画像上の位置に応じたフローの大きさの範囲に基づいて、利用する移動物上のフローを限定する。例えば、ウインドウ画像の位置(高さ方向の位置)が、50m先の歩行者候補の位置に相当するときには、ウインドウ画像内に大きさが10画素のフローが存在していれば、上記図5より、明らかに歩行者以外の物体に関するフローとみなすことができるので、次に述べるスコア補正に利用しないようにすることができる。なお、上記図5は、歩行者の横位置が、自車両の横位置より2.5m離れた位置であって、自車両の速度が30km/hであり、カメラの解像度がSXGA、水平画角55度、10フレーム/sである場合の、歩行者までの距離に応じたフローの大きさを表わしている。また、歩行者から得られるフローの大きさは、車速、カメラパラメータによっても大きさが異なるので、これらも利用して、フローを限定するようにしてもよい。   The flow is limited before the score is corrected using the flow on the moving object obtained by the moving object flow extraction unit 28. The flow obtained by the moving object flow extraction unit 28 is calculated from feature points extracted from objects at various distances, and the flow on the stationary object is erroneously extracted as the flow on the moving object. There may be. Therefore, stable pedestrian detection can be performed by correcting a score, which will be described later, using only a flow related to a pedestrian in the window image. Specifically, the flow used for score correction is limited from among the flows on the moving object obtained from the window image of the target pedestrian candidate. As shown in FIG. 5, the size of the flow obtained from the pedestrian varies depending on the position and direction (traveling direction) of the pedestrian. The flow on the moving object to be used is limited based on the corresponding flow size range. For example, when the position of the window image (the position in the height direction) corresponds to the position of a pedestrian candidate 50 m ahead, if a flow having a size of 10 pixels exists in the window image, the above-described FIG. Obviously, it can be regarded as a flow relating to an object other than a pedestrian, so that it can be prevented from being used for score correction described below. Note that FIG. 5 shows that the lateral position of the pedestrian is 2.5 m away from the lateral position of the host vehicle, the speed of the host vehicle is 30 km / h, the resolution of the camera is SXGA, and the horizontal angle of view. The flow size corresponding to the distance to the pedestrian in the case of 55 degrees and 10 frames / s is shown. Moreover, since the magnitude | size of the flow obtained from a pedestrian changes with vehicle speed and a camera parameter, you may make it limit a flow also using these.

また、限定するフローの大きさの範囲は、ウインドウ画像の撮像画像中の位置(高さ方向の位置)から求められる歩行者候補までの距離と、カメラパラメータと、仮定される歩行者の身長とに基づいて求めることが可能である。   Further, the range of the size of the flow to be limited includes the distance from the position (position in the height direction) in the captured image of the window image to the pedestrian candidate, the camera parameters, and the assumed pedestrian height. It is possible to obtain based on

そこで、本実施の形態では、移動物フロー限定部30によって、スコア算出部22によって算出された統合スコアが閾値以上であるウインドウ画像について、当該ウインドウ画像の撮像画像上の下端位置(高さ方向の位置)に応じて予め定められたフローの大きさの範囲に基づいて、当該ウインドウ画像内の移動物上のフローから、当該範囲内のフローに限定する。なお、ウインドウ画像の撮像画像上の各下端位置(高さ方向の位置)について、当該下端位置に応じた距離D(図6、図7参照)から、歩行者上のフローの大きさの範囲を予め求めておけばよい。また、ウインドウ画像の下端位置に応じた距離は、カメラパラメータ(カメラの取り付け高さ、カメラ俯角、カメラ垂直画角)及び仮定する道路平面に応じたパラメータ(画像高さ、画像上のy座標)に基づいて求めることが可能である。すなわち、図8に示すように、歩行者の足下位置(ウインドウの下端位置)のy座標から、カメラの取り付け高さ、カメラ俯角、カメラ垂直画角などを用いて、以下の(1)式に従って、距離Dを算出する。   Therefore, in the present embodiment, for the window image in which the integrated score calculated by the score calculation unit 22 by the moving object flow restriction unit 30 is equal to or greater than the threshold value, the lower end position (in the height direction) of the window image on the captured image. Based on the range of the size of the flow predetermined according to the position), the flow on the moving object in the window image is limited to the flow within the range. In addition, about each lower end position (position of a height direction) on the picked-up image of a window image, the range of the magnitude | size of the flow on a pedestrian is calculated from the distance D (refer FIG. 6, FIG. 7) according to the said lower end position. Find it in advance. The distance according to the lower end position of the window image is determined by the camera parameters (camera mounting height, camera depression angle, camera vertical angle of view) and parameters according to the assumed road plane (image height, y coordinate on the image). It is possible to obtain based on That is, as shown in FIG. 8, from the y coordinate of the pedestrian's foot position (bottom edge position), using the camera mounting height, camera depression angle, camera vertical angle of view, etc., according to the following equation (1) The distance D is calculated.


ただし、θaodはカメラ俯角であり、θvertはカメラ垂直画角であり、Hcameraはカメラ取り付け高さ[m]である。また、Himageは画像高さ[pixel]であり、Dは距離[m]であり、yは画像上のy座標[pixel]である。

However, θ aod is the camera depression angle, θ vert is the camera vertical field angle, and H camera is the camera mounting height [m]. H image is the image height [pixel], D is the distance [m], and y is the y coordinate [pixel] on the image.

歩行者識別部32は、以下に説明するように、各ウインドウ画像について、ウインドウ画像内のフローの有無を利用して、統合スコアの補正を行い、歩行者識別処理を行う。   As will be described below, the pedestrian identification unit 32 corrects the integrated score for each window image using the presence or absence of a flow in the window image, and performs pedestrian identification processing.

移動物フロー限定部30によって、対象とする歩行者候補のウインドウ画像の位置に応じたフローに限定されているので、統合スコアの補正では、ウインドウ画像について限定されたフローが存在する場合には、歩行者の可能性がより高くなると考え、統合スコアの値を大きくするように補正する。   Since the moving object flow restriction unit 30 restricts the flow according to the position of the window image of the target pedestrian candidate, in the correction of the integrated score, when there is a limited flow for the window image, Considering that the possibility of pedestrians will be higher, correction is made to increase the value of the integrated score.

例えば、ウインドウ画像に応じて限定されたフローがあらかじめ設定した数以上であれば、一律に統合スコアを上げるように補正してもよいし、フローの数に応じて統合スコアを上げるように補正してもよい。   For example, if the number of flows limited according to the window image is equal to or greater than a preset number, the integrated score may be uniformly increased, or the integrated score may be increased according to the number of flows. May be.

歩行者識別部32は、補正された統合スコアが閾値以上であれば、ウインドウ画像が歩行者を表す画像であると判定し、補正された統合スコアが閾値未満であれば、ウインドウ画像が歩行者を表す画像でないと判定する。また、歩行者識別部32は、識別結果を撮像画像に重畳して表示するよう、表示装置18を制御する。   The pedestrian identification unit 32 determines that the window image is an image representing a pedestrian if the corrected integrated score is greater than or equal to the threshold value, and if the corrected integrated score is less than the threshold value, the window image is a pedestrian. It is determined that the image does not represent. Moreover, the pedestrian identification part 32 controls the display apparatus 18 so that an identification result may be superimposed and displayed on a captured image.

なお、歩行者が静止している場合であっても、スコア算出部22により算出される統合スコアが大きければ、当該歩行者を表わすウインドウ画像が、歩行者を表す画像であると判定される。   Even if the pedestrian is stationary, if the integrated score calculated by the score calculation unit 22 is large, it is determined that the window image representing the pedestrian is an image representing the pedestrian.

次に、図9を参照して、第1の実施の形態の歩行者検出装置10のコンピュータ16で実行される歩行者検出処理ルーチンについて説明する。   Next, a pedestrian detection processing routine executed by the computer 16 of the pedestrian detection apparatus 10 according to the first embodiment will be described with reference to FIG.

ステップ100で、識別モデル記憶部24から向き別の全身モデル、姿勢別の部位モデルを読み込む。ステップ102で、撮像装置12で連続して撮像された、時刻t−1の撮像画像及び時刻tの撮像画像を取得し、次に、ステップ104で、時刻t−1、tの撮像画像から、フローを算出する。   In step 100, the whole body model for each orientation and the part model for each posture are read from the identification model storage unit 24. In step 102, a captured image at time t-1 and a captured image at time t, which are continuously captured by the imaging device 12, are acquired. Next, in step 104, from the captured images at time t-1, t, Calculate the flow.

そして、ステップ106で、時刻tの撮像画像に対して探索ウインドウを撮像画像に設定し、設定した探索ウインドウを用いて、撮像画像からウインドウ画像xを抽出する。   In step 106, a search window is set as a captured image for the captured image at time t, and a window image x is extracted from the captured image using the set search window.

次に、ステップ108で、上記ステップ106で抽出されたウインドウ画像xから画像特徴量を抽出すると共に、各部位の部位モデルに対応する局所領域から画像特徴量を抽出する。   Next, in step 108, the image feature amount is extracted from the window image x extracted in step 106, and the image feature amount is extracted from the local region corresponding to the part model of each part.

ステップ110では、向き別の全身モデルと、上記ステップ108で抽出された画像特徴量とに基づいて、スコアを算出する。   In step 110, a score is calculated based on the orientation-specific whole body model and the image feature amount extracted in step 108.

上記ステップ110は、図10に示す処理ルーチンにより実現される。   Step 110 is realized by the processing routine shown in FIG.

ステップ150において、N個の向き別の全身モデルをセットする。ステップ152では、全身モデルを識別する変数Kを初期値である1に設定し、ステップ154において、K番目の向き別全身モデルと、上記ステップ108で抽出された画像特徴量とに基づいて、スコアを算出する。そして、ステップ156では、上記ステップ154で算出されたスコアをメモリ(図示省略)に記録する。   In step 150, N orientation-specific whole body models are set. In step 152, the variable K for identifying the whole body model is set to an initial value of 1. In step 154, the score is calculated based on the Kth orientation-specific whole body model and the image feature amount extracted in step 108. Is calculated. In step 156, the score calculated in step 154 is recorded in a memory (not shown).

ステップ158では、変数Kを1インクリメントして、ステップ160において、変数Kが、向き別全身モデルの個数を示す定数N以下であるか否かを判定する。変数Kが定数N以下である場合には、上記ステップ154へ戻るが、一方、変数Kが定数Nより大きい場合には、全ての向き別全身モデルについてスコアを算出したと判断し、処理ルーチンを終了する。   In step 158, the variable K is incremented by 1. In step 160, it is determined whether or not the variable K is equal to or smaller than a constant N indicating the number of orientation-specific whole body models. If the variable K is less than or equal to the constant N, the process returns to step 154. On the other hand, if the variable K is greater than the constant N, it is determined that the scores have been calculated for all the whole body models by orientation, and the processing routine is executed. finish.

そして、上記図9の歩行者検出処理ルーチンのステップ112では、上記ステップ154で算出した向き毎のスコアに基づいて、ウインドウ画像xが非歩行者画像であるか否かを判定する。向き毎のスコアの全てが、閾値未満である場合には、ウインドウ画像xが非歩行者画像であると判定し、後述するステップ130へ移行する。一方、向き毎のスコアの少なくとも1つが、閾値以上である場合には、ウインドウ画像xが非歩行者画像でないと判定し、ステップ114へ進む。また、スコアが最大となる向きを、歩行者候補の向きとして決定する。   Then, in step 112 of the pedestrian detection processing routine of FIG. 9, it is determined whether or not the window image x is a non-pedestrian image based on the score for each direction calculated in step 154. When all the scores for each direction are less than the threshold, it is determined that the window image x is a non-pedestrian image, and the process proceeds to step 130 described later. On the other hand, if at least one of the scores for each direction is equal to or greater than the threshold value, it is determined that the window image x is not a non-pedestrian image, and the process proceeds to step 114. Also, the direction in which the score is maximized is determined as the direction of the pedestrian candidate.

ステップ114では、姿勢別の部位モデルと、上記ステップ108で抽出された局所領域の画像特徴量とに基づいて、スコアを算出する。   In step 114, a score is calculated based on the part model for each posture and the image feature amount of the local area extracted in step 108.

上記ステップ114は、図11に示す処理ルーチンにより実現される。   Step 114 is realized by the processing routine shown in FIG.

ステップ170において、M個の部位ごとの、HM個の姿勢別の部位モデルをセットする。ステップ172では、部位を識別する変数Hを初期値である1に設定し、ステップ174において、部位モデルの姿勢を識別する変数Kを初期値である1に設定する。   In step 170, HM position-specific part models for each of the M parts are set. In step 172, a variable H for identifying a part is set to 1 as an initial value, and in step 174, a variable K for identifying a posture of the part model is set to 1 as an initial value.

そして、ステップ176では、H番目の部位のK番目の姿勢別部位モデルと、上記ステップ108で抽出された、H番目の部位に対応する局所領域の画像特徴量とに基づいて、スコアを算出する。そして、ステップ178では、上記ステップ176で算出されたスコアをメモリ(図示省略)に記録する。   In step 176, a score is calculated based on the Kth posture-specific part model of the Hth part and the image feature amount of the local region corresponding to the Hth part extracted in step 108 above. . In step 178, the score calculated in step 176 is recorded in a memory (not shown).

ステップ180では、変数Kを1インクリメントして、ステップ182において、変数Kが、H番目の部位の姿勢別部位モデルの個数を示す定数NM以下であるか否かを判定する。変数Kが定数NM以下である場合には、上記ステップ176へ戻るが、一方、変数Kが定数NMより大きい場合には、H番目の部位の全ての姿勢別部位モデルについてスコアを算出したと判断し、ステップ184へ進む。   In step 180, the variable K is incremented by 1. In step 182, it is determined whether or not the variable K is equal to or less than a constant NM indicating the number of posture-specific part models of the H-th part. If the variable K is less than or equal to the constant NM, the process returns to step 176. On the other hand, if the variable K is greater than the constant NM, it is determined that the scores have been calculated for all the posture-specific part models of the Hth part. Then, the process proceeds to Step 184.

ステップ184では、変数Hを1インクリメントして、ステップ186において、変数Hが、部位の個数を示す定数M以下であるか否かを判定する。変数Hが定数M以下である場合には、上記ステップ174へ戻るが、一方、変数Hが定数Mより大きい場合には、全ての部位についてスコアを算出したと判断し、処理ルーチンを終了する。   In step 184, the variable H is incremented by 1. In step 186, it is determined whether or not the variable H is equal to or smaller than a constant M indicating the number of parts. If the variable H is less than or equal to the constant M, the process returns to step 174. On the other hand, if the variable H is greater than the constant M, it is determined that the scores have been calculated for all the parts, and the processing routine ends.

そして、上記図9の歩行者検出処理ルーチンのステップ116では、上記ステップ154で算出した向き毎のスコアの最大スコアと、上記ステップ176で算出した各部位に対する姿勢毎のスコアの最大スコアとに基づいて、統合スコアを算出する。   Then, in step 116 of the pedestrian detection processing routine of FIG. 9, the maximum score of the score for each direction calculated in step 154 and the maximum score of the score for each posture for each part calculated in step 176 are calculated. To calculate an integrated score.

次のステップ118では、上記ステップ116で算出した統合スコアに基づいて、ウインドウ画像xが非歩行者画像であるか否かを判定する。統合スコアが、閾値未満である場合には、ウインドウ画像xが非歩行者画像であると判定し、後述するステップ130へ移行する。一方、統合スコアが、閾値以上である場合には、ウインドウ画像xが非歩行者画像でないと判定し、ステップ120へ進む。また、部位毎に、スコアが最大となる姿勢を、歩行者候補の部位の姿勢として決定する。   In the next step 118, based on the integrated score calculated in step 116, it is determined whether or not the window image x is a non-pedestrian image. If the integrated score is less than the threshold value, it is determined that the window image x is a non-pedestrian image, and the process proceeds to step 130 described later. On the other hand, if the integrated score is greater than or equal to the threshold value, it is determined that the window image x is not a non-pedestrian image, and the process proceeds to step 120. In addition, for each part, the posture with the maximum score is determined as the posture of the part of the pedestrian candidate.

ステップ120では、上記ステップ104で算出されたフローのうちのウインドウ画像x内のフローから、ウインドウ画像xの位置に応じて定められたフローの大きさの範囲内となるフローに限定する。   In step 120, the flow in the window image x in the flow calculated in step 104 is limited to the flow within the range of the flow size determined according to the position of the window image x.

次のステップ122では、上記ステップ120で限定されたフローの数に応じて、上記ステップ116で算出された統合スコアを補正する。そして、ステップ124において、上記ステップ122で補正した統合スコアに基づいて、ウインドウ画像xが歩行者画像であるか否かを識別する。   In the next step 122, the integrated score calculated in step 116 is corrected according to the number of flows limited in step 120. In step 124, it is determined whether or not the window image x is a pedestrian image based on the integrated score corrected in step 122.

次のステップ126では、上記ステップ124で歩行者画像であると識別されたか否かを判定し、歩行者画像でないと識別された場合には、後述するステップ130へ移行するが、一方、歩行者画像であると識別された場合には、ステップ128において、ウインドウ画像xを歩行者領域として記録して、ステップ130へ移行する。   In the next step 126, it is determined whether or not the image is identified as a pedestrian image in step 124. If it is identified that the image is not a pedestrian image, the process proceeds to step 130 described later. If it is identified as an image, the window image x is recorded as a pedestrian area in step 128 and the process proceeds to step 130.

ステップ130では、上記ステップ102で取得された時刻tの撮像画像の全体について探索ウインドウをスキャンして探索が終了したか否かを判断する。終了していない場合は、ステップ106へ戻り、探索ウインドウの位置を予め定められた探索ステップだけ移動させた位置からウインドウ画像を抽出し、ステップ108〜ステップ128の処理を繰り返す。また、現サイズの探索ウインドウでの画像全体の探索が終了した場合には、同様にステップ106へ戻り、探索ウインドウのサイズを変更して、ステップ106〜ステップ118の処理を繰り返す。撮像画像全体について、全てのサイズの探索ウインドウでの探索が終了した場合には、ステップ132へ移行する。   In step 130, it is determined whether or not the search is completed by scanning the search window for the entire captured image at time t acquired in step 102. If not completed, the process returns to step 106, the window image is extracted from the position where the position of the search window has been moved by a predetermined search step, and the processing of step 108 to step 128 is repeated. If the search for the entire image in the search window of the current size is completed, the process returns to step 106 in the same manner, the size of the search window is changed, and the processing from step 106 to step 118 is repeated. When the search in all size search windows is completed for the entire captured image, the process proceeds to step 132.

ステップ132では、検出結果の出力として、上記ステップ128で記録された歩行者領域に基づいて、撮像画像に対して、検出された歩行者がウインドウで囲まれて表示されるように表示装置18を制御して、処理を終了する。   In step 132, as an output of the detection result, based on the pedestrian area recorded in step 128, the display device 18 is displayed so that the detected pedestrian is surrounded and displayed on the captured image. Control and end the process.

以上説明したように、第1の実施の形態の歩行者検出装置10によれば、ウインドウ画像の位置に対応して予め定められたフローの大きさの範囲内のフローを、ウインドウ画像内の移動物上のフローから抽出し、フローの抽出結果と、識別モデルを用いて算出されたスコアとに基づいて、ウインドウ画像が歩行者を表す画像か否かを識別することにより、歩行者の動きに関わらず、歩行者を安定して検出することができる。また、画像パタンにより歩行者候補であると判断されたウインドウ画像と画像から得られるフローの情報との整合性を判定することで、未検出、誤検出を低減し安定した歩行者検出が可能となる。   As described above, according to the pedestrian detection apparatus 10 of the first embodiment, a flow within a predetermined flow size range corresponding to the position of the window image is moved within the window image. By extracting from the flow on the object and identifying whether the window image is an image representing a pedestrian based on the flow extraction result and the score calculated using the identification model, Regardless, pedestrians can be detected stably. In addition, by determining the consistency between the window image determined to be a pedestrian candidate based on the image pattern and the flow information obtained from the image, it is possible to reduce undetected and false detections and enable stable pedestrian detection. Become.

また、複数の向きからなる全身モデル、及び各部位の姿勢別の部位モデルを識別モデルとして用いてスコアを算出し、ウインドウ画像が歩行者を表す画像か否かを識別することにより、歩行者を安定して検出することができる。   Moreover, by calculating a score using a whole body model composed of a plurality of directions and a part model for each part posture as an identification model, and identifying whether the window image is an image representing a pedestrian, It can be detected stably.

次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る歩行者検出装置は、第1の実施の形態と同様の構成となるため、同一符号を付して説明を省略する。   Next, a second embodiment will be described. In addition, since the pedestrian detection apparatus which concerns on 2nd Embodiment becomes the structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第2の実施の形態では、歩行者候補のウインドウ画像で仮定される歩行者の横位置を更に考慮して、ウインドウ画像内の移動物上のフローを限定している点が、第1の実施の形態と異なっている。   In the second embodiment, the flow on the moving object in the window image is limited in consideration of the lateral position of the pedestrian assumed in the window image of the pedestrian candidate. The form is different.

図12に、上記図5の例とは異なる横位置(5m)に歩行者が存在する場合における距離とフローの大きさとの関係を示す。上記図5、図12に示すように、歩行者の横位置の違いによりフローの大きさは異なる。すなわち、画像から得られるフローは、カメラ中心からの横位置が遠くなるほど大きなフローが得られる。   FIG. 12 shows the relationship between the distance and the flow size when a pedestrian is present in a lateral position (5 m) different from the example of FIG. As shown in FIG. 5 and FIG. 12, the size of the flow differs depending on the lateral position of the pedestrian. That is, a larger flow can be obtained from the image as the lateral position from the camera center becomes farther.

そこで、本実施の形態では、移動物フロー限定部30は、スコア算出部22によって算出された統合スコアが閾値以上であるウインドウ画像について、撮像画像上の当該ウインドウ画像の位置から、歩行者候補の横位置を算出し、当該ウインドウ画像の撮像画像上の高さ方向の位置及び算出した歩行者候補の横位置に応じて予め定められたフローの大きさの範囲に基づいて、当該ウインドウ画像内の移動物上のフローから、当該範囲のフローに限定する。なお、ウインドウ画像の撮像画像上の各位置(高さ方向の位置)について、当該位置に応じた距離と、横位置の各値との組み合わせの各々から、歩行者上のフローの大きさの範囲を予め求めておけばよい。   Therefore, in the present embodiment, the moving object flow restriction unit 30 determines the pedestrian candidate's position from the position of the window image on the captured image for the window image whose integrated score calculated by the score calculation unit 22 is greater than or equal to the threshold value. The horizontal position is calculated, and based on the range of the flow size predetermined according to the height position on the captured image of the window image and the calculated horizontal position of the pedestrian candidate, The flow on the moving object is limited to the flow in the range. For each position (position in the height direction) on the captured image of the window image, the range of the flow size on the pedestrian from each combination of the distance corresponding to the position and each value of the horizontal position. Can be obtained in advance.

なお、第2の実施の形態に係る歩行者検出装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of a pedestrian detection apparatus which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、ウインドウ画像の高さ方向の位置及びウインドウ画像から仮定される歩行者候補の横位置に対応して予め定められたフローの大きさの範囲内のフローを、ウインドウ画像内の移動物上のフローから抽出し、フローの抽出結果と、識別モデルを用いて算出されたスコアとに基づいて、ウインドウ画像が歩行者を表す画像か否かを識別することにより、歩行者の動きに関わらず、歩行者を安定して検出することができる。   As described above, the flow within the predetermined flow size range corresponding to the position in the height direction of the window image and the lateral position of the pedestrian candidate assumed from the window image is represented as a moving object in the window image. Based on the flow extraction result and the score calculated using the identification model, whether the window image represents a pedestrian or not is identified based on the flow extraction result. Therefore, a pedestrian can be detected stably.

次に、第3の実施の形態について説明する。なお、第3の実施の形態に係る歩行者検出装置は、第1の実施の形態と同様の構成となるため、同一符号を付して説明を省略する。   Next, a third embodiment will be described. In addition, since the pedestrian detection apparatus which concerns on 3rd Embodiment becomes a structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第3の実施の形態では、スコアに基づいて得られた歩行者の向きを更に考慮して、ウインドウ画像内の移動物上のフローを限定している点が、第1の実施の形態と異なっている。   The third embodiment is different from the first embodiment in that the flow on the moving object in the window image is limited in consideration of the orientation of the pedestrian obtained based on the score. ing.

本実施の形態では、スコア算出部22で得られた歩行者の向き情報を利用する。上記図5に示すように、歩行者の方向(横向き、前向き、後向き)によって、算出されるフローの大きさも異なる。   In the present embodiment, pedestrian orientation information obtained by the score calculation unit 22 is used. As shown in FIG. 5 described above, the size of the calculated flow varies depending on the direction of the pedestrian (sideways, forward, and backward).

そこで、本実施の形態では、移動物フロー限定部30は、スコア算出部22によって算出された統合スコアが閾値以上であるウインドウ画像について、スコア算出部22によって得られた歩行者の向きと、当該ウインドウ画像の撮像画像上の高さ方向の位置とに応じて予め定められたフローの大きさの範囲に基づいて、当該ウインドウ画像内の移動物上のフローから、当該範囲のフローに限定する。なお、ウインドウ画像の撮像画像上の各位置(高さ方向の位置)について、当該位置に応じた距離と、歩行者の向きとの組み合わせの各々から、歩行者上のフローの大きさの範囲を予め求めておけばよい。   Therefore, in the present embodiment, the moving object flow restriction unit 30 uses the orientation of the pedestrian obtained by the score calculation unit 22 and the window image in which the integrated score calculated by the score calculation unit 22 is equal to or greater than the threshold, Based on a predetermined range of the flow size according to the height position on the captured image of the window image, the flow on the moving object in the window image is limited to the flow in the range. For each position (position in the height direction) on the captured image of the window image, the range of the flow size on the pedestrian is determined from each combination of the distance according to the position and the direction of the pedestrian. Find it in advance.

なお、第3の実施の形態に係る歩行者検出装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the pedestrian detection apparatus which concern on 3rd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、ウインドウ画像の高さ方向の位置及びスコアに基づく歩行者候補の向きに対応して予め定められたフローの大きさの範囲内のフローを、ウインドウ画像内の移動物上のフローから抽出し、フローの抽出結果と、識別モデルを用いて算出されたスコアとに基づいて、ウインドウ画像が歩行者を表す画像か否かを識別することにより、歩行者の動きに関わらず、歩行者を安定して検出することができる。また、歩行者の向きを利用することにより、対象としている歩行者が移動していれば進行方向が推定できるため、スコア補正に利用するフローをより限定することができる。   Thus, the flow within the range of the predetermined flow size corresponding to the direction of the pedestrian candidate based on the position in the height direction of the window image and the score is determined from the flow on the moving object in the window image. The pedestrian is extracted regardless of the movement of the pedestrian by identifying whether the window image is an image representing the pedestrian based on the extraction result of the flow and the score calculated using the identification model. Can be detected stably. Moreover, since the advancing direction can be estimated if the target pedestrian is moving by using the direction of the pedestrian, the flow used for score correction can be further limited.

なお、上記の第2の実施の形態と同様に、ウインドウ画像について求められる横位置を更に考慮して、フローの大きさの範囲を限定するようにしてもよい。   Note that, similarly to the second embodiment described above, the range of the flow size may be limited in consideration of the lateral position obtained for the window image.

次に、第4の実施の形態について説明する。なお、第3の実施の形態に係る歩行者検出装置は、第1の実施の形態と同様の構成となるため、同一符号を付して説明を省略する。   Next, a fourth embodiment will be described. In addition, since the pedestrian detection apparatus which concerns on 3rd Embodiment becomes a structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第4の実施の形態では、スコアに基づいて得られた部位に関する姿勢について予め求められた動き情報を用いて、スコアを補正している点が、第1の実施の形態と異なっている。   The fourth embodiment is different from the first embodiment in that the score is corrected using the motion information obtained in advance for the posture related to the part obtained based on the score.

第4の実施の形態に係る歩行者検出装置の識別モデル記憶部24では、各部位の姿勢毎の部位モデルについて、図13(A)〜(C)に示すように、一般的なパタン認識に用いられるモデルの他に、当該部位モデルの姿勢が動きを有するかどうかの情報を保持している。例えば、上記図13(A)に示す脚部モデル1の場合には、この姿勢パタンの歩行者が動いている確率は0.9であるという情報を保持している。この動き情報は、多量の学習データから求めることが可能である。なお、ウインドウ画像のスコアを算出する場合には、動き情報は使用せず、パタン認識に用いられるモデルのみを使用する。   In the identification model storage unit 24 of the pedestrian detection device according to the fourth embodiment, as shown in FIGS. 13 (A) to (C), the general pattern recognition is performed on the part model for each posture of each part. In addition to the model to be used, information on whether or not the posture of the part model has a movement is held. For example, in the case of the leg model 1 shown in FIG. 13A, the information that the probability that the pedestrian in this posture pattern is moving is 0.9. This movement information can be obtained from a large amount of learning data. Note that when calculating the score of a window image, only the model used for pattern recognition is used without using motion information.

ここで、本実施の形態の原理について説明する。   Here, the principle of the present embodiment will be described.

移動している歩行者を検出する場合にはフロー(動き)情報が有効である。上記図3に示した脚部の部位モデルのうち、上記図3(A)と図3(B)の部位モデルに関しては、歩行者が動いている可能性が高いという特徴がある。また、上記図3(D)に関しては、静止しているのか動いているのかは判定が難しいという特徴がある。画像パタンから得られたある部位で認識された姿勢において動いている可能性が高く、あわせてフローが確かに検出されていれば、その物体は歩行者である確信度(スコア)を高くすることで、歩行者の未検出を減らすことができる。   Flow (motion) information is effective when detecting a moving pedestrian. Among the leg part models shown in FIG. 3, the part models shown in FIGS. 3A and 3B are characterized by a high possibility that a pedestrian is moving. 3D has a feature that it is difficult to determine whether it is stationary or moving. If there is a high possibility that the body is moving in the posture recognized by a certain part obtained from the image pattern, and if the flow is surely detected, the certainty (score) that the object is a pedestrian is increased. Thus, undetected pedestrians can be reduced.

また、ある部位で認識された姿勢において動いている可能性が低く、フローが検出されない場合には、静止歩行者の確信度を上げることが可能になる。逆に、ある部位で認識された姿勢において動いている可能性が低いにも関わらずフローが検出されていれば歩行者である確信度を下げることで誤検出低減が実現できる。   In addition, when there is a low possibility of moving in a posture recognized at a certain part and no flow is detected, the certainty of a stationary pedestrian can be increased. On the contrary, if the flow is detected despite the low possibility of moving in the posture recognized at a certain part, the false detection can be reduced by lowering the certainty of being a pedestrian.

このように、画像パタン(見え方)の情報から得られる姿勢に付加した動き情報と、画像から得られるフローの情報との整合性を利用することで、安定した検出を行うことができる。   Thus, stable detection can be performed by using the consistency between the motion information added to the posture obtained from the image pattern (appearance) information and the flow information obtained from the image.

そこで、本実施の形態では、歩行者識別部32によって、以下に説明するように、各ウインドウ画像について、各部位について得られた姿勢とフローの有無との整合性を利用して、統合スコアの補正を行い、歩行者識別処理を行う。   Therefore, in the present embodiment, as described below, the pedestrian identification unit 32 uses the consistency between the posture obtained for each part and the presence / absence of the flow for each window image to calculate the integrated score. Correction is performed and pedestrian identification processing is performed.

スコア算出部22において各部位の姿勢別部位モデルにより各部位の姿勢が検出される。例えば、脚部領域が上記図4に示す脚部モデル2(跳ね上げ)と検出された場合を考える。脚部モデル2にはパタン識別に利用するモデル以外に動き情報を保持しており、脚部モデル2の動き情報はこの姿勢の場合に歩行者が動いている確率が0.95であり、動いている可能性が非常に高いという情報を持っている。このとき、ウインドウ画像内にフローが存在しなければ歩行者候補は動いていないことになり、脚部モデル2の動き情報との不整合が生じる。一方、ウインドウ画像内にフローが存在していれば歩行者候補は動いていることになり、脚部モデル2の動き情報と整合する。そこで、動き情報とフローの情報から、以下の(2)式に従ってスコアを補正することができる。   In the score calculation unit 22, the posture of each part is detected by the position-specific part model of each part. For example, consider a case where the leg region is detected as the leg model 2 (bounce up) shown in FIG. In addition to the model used for pattern identification, the leg model 2 holds motion information, and the motion information of the leg model 2 has a probability that the pedestrian is moving in this posture, which is 0.95. Have information that is very likely. At this time, if there is no flow in the window image, the pedestrian candidate is not moving and inconsistency with the motion information of the leg model 2 occurs. On the other hand, if there is a flow in the window image, the pedestrian candidate is moving and matches the motion information of the leg model 2. Therefore, the score can be corrected from the motion information and the flow information according to the following equation (2).


ここでS’は補正後の統合スコアであり、Sは、スコア算出部22で求められる統合スコアである。また、Kは部位の数であり、Pmは、スコア算出部22で求められた部位iの姿勢に対応するモデルが保持する動き情報(動きありの確率)である。α(>0)は補正パラメータであり、αの値が大きければ補正の量が大きくなり、小さければ補正の量は小さくなる。Nは移動物フロー限定部30により限定されたウインドウ画像内に含まれるフローの数で、thはあらかじめ設定したフローの数の閾値である。

Here, S ′ is the corrected integrated score, and S is the integrated score obtained by the score calculation unit 22. K is the number of parts, and Pm i is motion information (probability of motion) held by the model corresponding to the posture of the part i obtained by the score calculation unit 22. α (> 0) is a correction parameter. If the value of α is large, the amount of correction is large, and if it is small, the amount of correction is small. N f is the number of flows included in the window image limited by the moving object flow limiting unit 30, and th is a preset threshold value for the number of flows.

上記(1)式によれば、フローの数が少ない場合(N≦th)には、ある部位について得られた姿勢に対する動きありの確率Pmが高い(0.5以上)と、スコアが小さくなるように補正され、フローの数が多い場合(N≧th)には、動きありの確率Pmが高い(0.5以上)と、スコアが大きくなるように補正される。 According to the above equation (1), when the number of flows is small (N f ≦ th), if the probability Pm of motion with respect to the posture obtained for a certain part is high (0.5 or more), the score is small. When the number of flows is large (N f ≧ th), if the probability Pm with motion is high (0.5 or more), the score is corrected so as to increase.

なお、第4の実施の形態に係る歩行者検出装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of a pedestrian detection apparatus which concerns on 4th Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

以上説明したように、第4の実施の形態に係る歩行者検出装置によれば、各部位の姿勢別部位モデルに動きに関する情報を予め付加し、画像パタンによる歩行者検出から得られる各部位の姿勢と、画像から得られるフローの情報との整合性を判定することで、安定した歩行者検出が可能となる。   As described above, according to the pedestrian detection apparatus according to the fourth embodiment, information on movement is added in advance to the position-specific part model of each part, and each part obtained from the pedestrian detection based on the image pattern. By determining the consistency between the posture and the flow information obtained from the image, stable pedestrian detection is possible.

また、各部位の姿勢ごとに学習された複数の歩行者モデルを用いて検出を行うため、歩行者の位置、大きさに加えて、歩行者の姿勢情報を知ることができる。一方、ある時刻における歩行者の各部位の姿勢から、その歩行者が動いている可能性が高いか低いかを推測することが可能である。そこで、画像パタンで得られる歩行者の姿勢情報と画像全体から得られるフローの情報を用いることで、画像パタンの認識結果とフロー情報の整合性を判断して、歩行者検出の性能を向上させることができる。   Further, since detection is performed using a plurality of pedestrian models learned for each posture of each part, in addition to the position and size of the pedestrian, pedestrian posture information can be known. On the other hand, it is possible to infer from the posture of each part of the pedestrian at a certain time whether the possibility that the pedestrian is moving is high or low. Therefore, by using the pedestrian's posture information obtained from the image pattern and the flow information obtained from the entire image, the consistency between the image pattern recognition result and the flow information is judged, and the pedestrian detection performance is improved. be able to.

なお、上記の第2の実施の形態、第3の実施の形態と同様に、ウインドウ画像について求められる横位置、または歩行者候補の向きを更に考慮して、フローの大きさの範囲を限定するようにしてもよい。   As in the second and third embodiments, the range of the flow size is limited by further considering the horizontal position obtained for the window image or the orientation of the pedestrian candidate. You may do it.

次に、第5の実施の形態について説明する。なお、第5の実施の形態に係る歩行者検出装置は、第1の実施の形態と同様の構成となるため、同一符号を付して説明を省略する。   Next, a fifth embodiment will be described. In addition, since the pedestrian detection apparatus which concerns on 5th Embodiment becomes a structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第5の実施の形態では、ウインドウ画像サイズから、歩行者候補までの距離を算出している点が、第1の実施の形態と異なっている。   The fifth embodiment is different from the first embodiment in that the distance to the pedestrian candidate is calculated from the window image size.

上記図6、図7に示すように、歩行者候補までの距離は、撮像画像におけるウインドウ画像の位置だけでなく、ウインドウ画像サイズからも算出することが可能である。そこで、本実施の形態では、移動物フロー限定部30によって、スコア算出部22によって算出された統合スコアが閾値以上であるウインドウ画像について、当該ウインドウ画像の撮像画像上のサイズ(高さ方向のサイズ)に応じて予め定められたフローの大きさの範囲に基づいて、当該ウインドウ画像内の移動物上のフローから、当該範囲内のフローに限定する。なお、ウインドウ画像の撮像画像上の各サイズ(高さ方向のサイズ)について、当該サイズに応じた距離D(上記図6、図7参照)から、歩行者上のフローの大きさの範囲を予め求めておけばよい。また、ウインドウ画像のサイズに応じた歩行者候補までの距離は、歩行者の身長を仮定(例えば日本人の平均身長約170cm)して求めることが可能である。すなわち、以下の(3)式に従って、距離Dを算出する。   As shown in FIGS. 6 and 7, the distance to the pedestrian candidate can be calculated not only from the position of the window image in the captured image but also from the window image size. Therefore, in the present embodiment, for a window image in which the integrated score calculated by the score calculation unit 22 by the moving object flow restriction unit 30 is equal to or greater than a threshold, the size of the window image on the captured image (the size in the height direction) ), The flow on the moving object in the window image is limited to the flow in the range based on the range of the flow size determined in advance. For each size (size in the height direction) on the captured image of the window image, the range of the flow size on the pedestrian is determined in advance from the distance D (see FIGS. 6 and 7) corresponding to the size. Find it. The distance to the pedestrian candidate according to the size of the window image can be obtained by assuming the height of the pedestrian (for example, the average height of a Japanese person is about 170 cm). That is, the distance D is calculated according to the following equation (3).


ただし、Wheightは、ウインドウ画像の高さ[pixel]であり、Pedheightは、仮定した歩行者身長[m]である。

Here, W height is the height [pixel] of the window image, and Ped height is the assumed pedestrian height [m].

なお、第5の実施の形態に係る歩行者検出装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of a pedestrian detection apparatus which concerns on 5th Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

上記の第1の実施の形態〜第5の実施では、対象としているウインドウ画像の位置やサイズから、歩行者候補の距離や横位置を算出する場合を例に説明したが、これに限定されるものではない。例えば、ステレオカメラやレーザーレーダーなどの距離を測定できるものを利用可能な場合には、それらから得られた情報を用いて歩行者候補の距離や横位置を求めるようにしてもよい。   In the first to fifth embodiments, the case where the distance and the lateral position of the pedestrian candidate are calculated from the position and size of the target window image has been described as an example. However, the present invention is not limited to this. It is not a thing. For example, when a device capable of measuring a distance, such as a stereo camera or a laser radar, can be used, the distance and lateral position of the pedestrian candidate may be obtained using information obtained from them.

また、上記の第1の実施の形態〜第5の実施の形態において、スコアの閾値処理により、非歩行者のウインドウ画像を取り除く処理を行う場合を例に説明したが、スコアの閾値処理により非歩行者のウインドウ画像を取り除く処理を省略してもよい。   In the first to fifth embodiments described above, the case of performing the process of removing the non-pedestrian window image by the score threshold process has been described as an example. You may abbreviate | omit the process which removes a pedestrian's window image.

10 歩行者検出装置
12 撮像装置
16 コンピュータ
18 表示装置
19 画像取得部
20 ウインドウ画像抽出部
21 特徴量抽出部
22 スコア算出部
24 識別モデル記憶部
26 フロー抽出部
28 移動物フロー抽出部
30 移動物フロー限定部
32 歩行者識別部
DESCRIPTION OF SYMBOLS 10 Pedestrian detection apparatus 12 Imaging device 16 Computer 18 Display apparatus 19 Image acquisition part 20 Window image extraction part 21 Feature-value extraction part 22 Score calculation part 24 Identification model memory | storage part 26 Flow extraction part 28 Moving object flow extraction part 30 Moving object flow Limiting part 32 Pedestrian identification part

Claims (10)

移動体に搭載された自装置の周辺を撮像した時系列の複数の撮像画像から、各特徴点について、前記撮像画像間で対応する前記特徴点の動きを示すフローを抽出するフロー抽出手段と、
前記フロー抽出手段で抽出されたフローから、移動物上のフローを抽出する移動物フロー抽出手段と、
前記撮像画像からウインドウ画像を抽出するウインドウ画像抽出手段と、
予め学習された歩行者を識別するための識別モデルと、前記ウインドウ画像抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記歩行者らしさを示すスコアを算出するスコア算出手段と、
前記撮像画像上の歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する歩行者フロー抽出手段と、
前記歩行者フロー抽出手段による抽出結果と、前記スコア算出手段によって算出された前記スコアとに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する識別手段と、
を含む歩行者検出装置。
Flow extraction means for extracting, from each of a plurality of time-series captured images obtained by imaging the periphery of the device mounted on the moving body, a flow indicating the movement of the corresponding feature points between the captured images for each feature point;
A moving object flow extracting means for extracting a flow on the moving object from the flow extracted by the flow extracting means;
Window image extraction means for extracting a window image from the captured image;
Score calculating means for calculating a score indicating the pedestrian-likeness based on an identification model for identifying a pedestrian learned in advance and the window image extracted by the window image extracting means;
The flow on the moving object in the window image extracted by the moving object flow extraction means based on a predetermined flow size range corresponding to the distance to the pedestrian candidate on the captured image. Pedestrian flow extraction means for extracting a flow having a size within the range,
Identification means for identifying whether the window image is an image representing the pedestrian based on the extraction result by the pedestrian flow extraction means and the score calculated by the score calculation means;
A pedestrian detection device.
前記フローの大きさの範囲は、前記撮像画像上の歩行者候補までの距離が遠いほど、フローの大きさが小さくなるように予め定められた請求項1記載の歩行者検出装置。   The pedestrian detection device according to claim 1, wherein the flow size range is determined in advance such that the flow size decreases as the distance to the pedestrian candidate on the captured image increases. 前記フローの大きさの範囲は、前記撮像画像上の前記ウインドウ画像の位置から求められる歩行者候補の横位置が、前記移動体の横位置より離れているほど、フローの大きさが大きくなるように予め定められた請求項1又は2記載の歩行者検出装置。   The range of the size of the flow is such that the larger the lateral position of the pedestrian candidate obtained from the position of the window image on the captured image is, the larger the size of the flow is. The pedestrian detection device according to claim 1 or 2, which is previously determined. 前記識別手段は、前記歩行者フロー抽出手段によって抽出された前記フローの数に応じて、前記スコア算出手段によって算出された前記スコアを補正し、前記補正された前記スコアに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する請求項1〜請求項3の何れか1項記載の歩行者検出装置。   The identification unit corrects the score calculated by the score calculation unit according to the number of the flows extracted by the pedestrian flow extraction unit, and based on the corrected score, the window image The pedestrian detection device according to any one of claims 1 to 3, wherein whether or not an image representing the pedestrian is identified. 前記スコア算出手段は、歩行者の向き毎に予め学習された前記識別モデルと、前記ウインドウ画像抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記向き毎に、前記歩行者らしさを示すスコアを算出し、
前記歩行者フロー抽出手段は、前記撮像画像上の前記歩行者候補までの距離と、前記スコアが最大となる前記向きとに対応して予め定められたフローの大きさの範囲に基づいて、前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する請求項1〜請求項4の何れか1項記載の歩行者検出装置。
The score calculation means, based on the identification model learned in advance for each pedestrian orientation and the window image extracted by the window image extraction means, shows a pedestrian-like score for each orientation. To calculate
The pedestrian flow extraction means is based on a predetermined flow size range corresponding to the distance to the pedestrian candidate on the captured image and the direction in which the score is maximized. The pedestrian detection device according to any one of claims 1 to 4, wherein a flow having a size within the range is extracted from a flow on the moving object in a window image.
前記スコア算出手段は、歩行者の姿勢毎に予め学習された前記識別モデルと、前記ウインドウ画像抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記姿勢毎に、前記歩行者らしさを示すスコアを算出し、
前記識別手段は、前記スコアが最大となる前記姿勢に対して予め定められた歩行者の動きの有無と、前記歩行者フロー抽出手段によって抽出された前記フローの数との整合性に応じて、前記スコア算出手段によって算出された前記スコアを補正し、補正されたスコアに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する請求項1〜請求項4の何れか1項記載の歩行者検出装置。
The score calculation means is a score indicating the pedestrian-likeness for each posture based on the identification model learned in advance for each posture of the pedestrian and the window image extracted by the window image extraction means. To calculate
According to the consistency between the presence or absence of movement of a pedestrian predetermined for the posture with the maximum score and the number of flows extracted by the pedestrian flow extraction means, the identification means The score calculated by the score calculation means is corrected, and based on the corrected score, it is identified whether the window image is an image representing the pedestrian or not. The pedestrian detection device described.
前記歩行者フロー抽出手段は、前記撮像画像上の前記ウインドウ画像の位置から求められる前記歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する請求項1〜請求項6の何れか1項記載の歩行者検出装置。   The pedestrian flow extraction unit is configured to generate the moving object flow based on a predetermined flow size range corresponding to a distance from the window image position on the captured image to the pedestrian candidate. The pedestrian detection device according to any one of claims 1 to 6, wherein a flow having a size within the range is extracted from a flow on the moving object in the window image extracted by an extraction unit. 前記歩行者フロー抽出手段は、前記撮像画像上の前記ウインドウ画像のサイズから求められる前記歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する請求項1〜請求項6の何れか1項記載の歩行者検出装置。   The pedestrian flow extraction means is configured to generate the moving object flow based on a predetermined flow size range corresponding to the distance to the pedestrian candidate obtained from the size of the window image on the captured image. The pedestrian detection device according to any one of claims 1 to 6, wherein a flow having a size within the range is extracted from a flow on the moving object in the window image extracted by an extraction unit. 前記移動物フロー抽出手段は、前記移動体の運動に基づいて、前記フロー抽出手段で抽出されたフローから、前記移動物上のフローを抽出する請求項1〜請求項8の何れか1項記載の歩行者検出装置。   The said moving object flow extraction means extracts the flow on the said moving object from the flow extracted by the said flow extraction means based on the exercise | movement of the said mobile body. Pedestrian detection device. コンピュータを、
移動体に搭載された自装置の周辺を撮像した時系列の複数の撮像画像から、各特徴点について、前記撮像画像間で対応する前記特徴点の動きを示すフローを抽出するフロー抽出手段、
前記フロー抽出手段で抽出されたフローから、移動物上のフローを抽出する移動物フロー抽出手段、
前記撮像画像からウインドウ画像を抽出するウインドウ画像抽出手段、
予め学習された歩行者を識別するための識別モデルと、前記ウインドウ画像抽出手段によって抽出された前記ウインドウ画像とに基づいて、前記歩行者らしさを示すスコアを算出するスコア算出手段、
前記撮像画像上の歩行者候補までの距離に対応して予め定められたフローの大きさの範囲に基づいて、前記移動物フロー抽出手段によって抽出された前記ウインドウ画像内の前記移動物上のフローから、大きさが前記範囲内のフローを抽出する歩行者フロー抽出手段及び、
前記歩行者フロー抽出手段による抽出結果と、前記スコア算出手段によって算出された前記スコアとに基づいて、前記ウインドウ画像が前記歩行者を表す画像か否かを識別する識別手段
として機能させるためのプログラム。
Computer
A flow extraction unit that extracts, from each of a plurality of time-series captured images obtained by imaging the periphery of the device mounted on the moving body, a flow indicating the movement of the corresponding feature point between the captured images for each feature point;
A moving object flow extracting means for extracting a flow on the moving object from the flow extracted by the flow extracting means;
Window image extraction means for extracting a window image from the captured image;
Score calculating means for calculating a score indicating the pedestrian-likeness based on an identification model for identifying a pedestrian learned in advance and the window image extracted by the window image extracting means;
The flow on the moving object in the window image extracted by the moving object flow extraction means based on a predetermined flow size range corresponding to the distance to the pedestrian candidate on the captured image. Pedestrian flow extraction means for extracting a flow having a size within the range, and
A program for functioning as an identification unit for identifying whether the window image is an image representing the pedestrian based on an extraction result by the pedestrian flow extraction unit and the score calculated by the score calculation unit .
JP2012056193A 2012-03-13 2012-03-13 Pedestrian detection device and program Active JP5829155B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012056193A JP5829155B2 (en) 2012-03-13 2012-03-13 Pedestrian detection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012056193A JP5829155B2 (en) 2012-03-13 2012-03-13 Pedestrian detection device and program

Publications (2)

Publication Number Publication Date
JP2013190949A JP2013190949A (en) 2013-09-26
JP5829155B2 true JP5829155B2 (en) 2015-12-09

Family

ID=49391137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012056193A Active JP5829155B2 (en) 2012-03-13 2012-03-13 Pedestrian detection device and program

Country Status (1)

Country Link
JP (1) JP5829155B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101953796B1 (en) * 2015-12-23 2019-03-05 에스엘 주식회사 Apparatus and method for monitoring environment of vehicle
CN111856445B (en) * 2019-04-11 2023-07-04 杭州海康威视数字技术股份有限公司 Target detection method, device, equipment and system
JP2024001527A (en) * 2022-06-22 2024-01-10 株式会社Jvcケンウッド Image recognition apparatus and image recognition method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5320828B2 (en) * 2008-06-04 2013-10-23 日産自動車株式会社 Pedestrian detection device and pedestrian detection method
JP5258651B2 (en) * 2009-03-25 2013-08-07 株式会社東芝 Object detection apparatus, object detection method, and program
JP4840472B2 (en) * 2009-04-15 2011-12-21 トヨタ自動車株式会社 Object detection device
FR2947657B1 (en) * 2009-07-06 2016-05-27 Valeo Vision METHOD FOR DETECTING AN OBSTACLE FOR A MOTOR VEHICLE
JP2012221162A (en) * 2011-04-07 2012-11-12 Toyota Central R&D Labs Inc Object detection device and program

Also Published As

Publication number Publication date
JP2013190949A (en) 2013-09-26

Similar Documents

Publication Publication Date Title
CN107358149B (en) Human body posture detection method and device
Keller et al. A new benchmark for stereo-based pedestrian detection
Wojek et al. Monocular 3d scene understanding with explicit occlusion reasoning
JP5726125B2 (en) Method and system for detecting an object in a depth image
JP5197679B2 (en) Object detection apparatus and program
KR101994316B1 (en) Device and method for object pose estimation
JP5822255B2 (en) Object identification device and program
JP5407898B2 (en) Object detection apparatus and program
US9672634B2 (en) System and a method for tracking objects
EP2544149A1 (en) Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP2013140515A (en) Solid object detection device and program
JP2012221162A (en) Object detection device and program
KR20120044484A (en) Apparatus and method for tracking object in image processing system
WO2014181386A1 (en) Vehicle assessment device
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
JP2012123626A (en) Object detector and program
KR101375765B1 (en) Apparatus and method for tracking moving objects by using kaman filter
JP5691834B2 (en) Image identification apparatus and program
JP5829155B2 (en) Pedestrian detection device and program
JP2010262576A (en) Subject detecting apparatus and program
JP6077785B2 (en) Object detection apparatus and program
JP2018092354A (en) Object detection apparatus and method for detecting objects
KR100977259B1 (en) Method for a human searching and tracking using a multifulscale histogram of oriented gradient
KR101350387B1 (en) Method for detecting hand using depth information and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151021

R150 Certificate of patent or registration of utility model

Ref document number: 5829155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250