JP2006202047A - Moving-object detection device and method - Google Patents

Moving-object detection device and method Download PDF

Info

Publication number
JP2006202047A
JP2006202047A JP2005013084A JP2005013084A JP2006202047A JP 2006202047 A JP2006202047 A JP 2006202047A JP 2005013084 A JP2005013084 A JP 2005013084A JP 2005013084 A JP2005013084 A JP 2005013084A JP 2006202047 A JP2006202047 A JP 2006202047A
Authority
JP
Japan
Prior art keywords
pedestrian
moving object
detected
image
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005013084A
Other languages
Japanese (ja)
Other versions
JP4609076B2 (en
Inventor
Hiroaki Shimizu
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005013084A priority Critical patent/JP4609076B2/en
Publication of JP2006202047A publication Critical patent/JP2006202047A/en
Application granted granted Critical
Publication of JP4609076B2 publication Critical patent/JP4609076B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving-object detection device which can very precisely trace a moving object, and also provide a moving-object detection method. <P>SOLUTION: This is a moving-object detection device 1 which detects a moving object from a picked-up image. In addition, the device comprises; an image pickup means 2; a moving-object detection means 13 which detects a moving object from an picked-up image taken with the image pickup means 2; a direction detection means 15 which detects the direction of the picked-up image detected by the moving-object detection means 13; a movement detection means 16 which detects the movement of the moving object from the positions of moving objects detected from each of the picked-up images taken in different time by the image pickup means 2; and an area forecasting means 17 which forecasts an area, in which the moving object in the picked-up image exists, based on the direction of the moving object detected by the direction detection means 15 and the movement of the moving object detected by the movement detection means 16. The moving object is detected from the inside of the area forecasted by the area forecasting means 17. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮像画像から移動物体を検出し、検出した移動物体を追跡する移動物体検出装置及び移動物体検出方法に関する。   The present invention relates to a moving object detection apparatus and a moving object detection method for detecting a moving object from a captured image and tracking the detected moving object.

近年、運転支援や安全性向上などを目的として、車両前方に存在する歩行者を検出する装置が提案されている(特許文献1参照)。特許文献1に記載されている歩行者検出装置では、一定時間毎に撮像される各撮像画像から歩行者の中心線の中心点を順次求め、連続する撮像画像間の各中心点から歩行者の移動ベクトルを求め、移動ベクトルを利用して歩行者を追跡する。この移動ベクトルは、歩行者の過去の移動してきた方向の向きと大きさを示すものであり、歩行者の移動していく方向の予測に利用される。
特開2004−86417号公報
In recent years, an apparatus for detecting a pedestrian existing in front of a vehicle has been proposed for the purpose of driving assistance and safety improvement (see Patent Document 1). In the pedestrian detection device described in Patent Document 1, the center point of the pedestrian's center line is sequentially obtained from each captured image captured at regular intervals, and the pedestrian's center point is determined from each center point between successive captured images. A movement vector is obtained, and a pedestrian is tracked using the movement vector. This movement vector indicates the direction and size of the direction in which the pedestrian has moved in the past, and is used for prediction of the direction in which the pedestrian moves.
JP 2004-86417 A

従来の移動ベクトルに基づく歩行者の追跡では、過去の歩行者の移動方向だけを用いて未来の移動方向を予測している。しかし、歩行者は、一定方向に向かって移動しているだけではなく、歩道から横断歩道を渡るときなど急に移動方向を変える場合がある。このように歩行者が過去と異なる方向に移動する場合、過去の情報から求められる移動ベクトルにはその移動方向を変える情報が含まれていない。そのため、この移動ベクトルに基づいて未来の撮像画像で歩行者の追跡を行うと、その移動ベクトルの方向から歩行者が外れるので、追跡を失敗する可能性が高い。特に、歩行者の移動が速い場合、連続する撮像画像間での歩行者の移動量が増えるので、失敗する確率が高くなる。   In the pedestrian tracking based on the conventional movement vector, the future movement direction is predicted using only the movement direction of the past pedestrian. However, pedestrians are not only moving in a certain direction, but may suddenly change the direction of movement, such as when crossing a pedestrian crossing from a sidewalk. When the pedestrian moves in a direction different from the past as described above, the movement vector obtained from the past information does not include information for changing the moving direction. For this reason, if a pedestrian is tracked with a future captured image based on this movement vector, the pedestrian moves away from the direction of the movement vector, so there is a high possibility that tracking will fail. In particular, when the movement of the pedestrian is fast, the amount of movement of the pedestrian between successive captured images increases, so the probability of failure increases.

そこで、本発明は、移動物体を高精度に追跡可能な移動物体検出装置及び移動物体検出方法を提供することを課題とする。   Therefore, an object of the present invention is to provide a moving object detection apparatus and a moving object detection method that can track a moving object with high accuracy.

本発明に係る移動物体検出装置は、撮像手段と、撮像手段で撮像した撮像画像から移動物体を検出する移動物体検出手段と、移動物体検出手段で検出した移動物体の向きを検出する向き検出手段と、撮像手段で異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出手段と、向き検出手段で検出した移動物体の向きと動き検出手段で検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測手段とを備え、領域予測手段で予測した領域内から移動物体を検出する。   A moving object detection device according to the present invention includes an imaging unit, a moving object detection unit that detects a moving object from an image captured by the imaging unit, and a direction detection unit that detects the direction of the moving object detected by the moving object detection unit. A motion detection means for detecting the movement of the moving object from the position of the moving object detected from each captured image captured at different times by the imaging means, and a direction and motion detection means for the moving object detected by the direction detection means. An area predicting unit that predicts an area where the moving object exists in the captured image based on the detected movement of the moving object, and detects the moving object from the area predicted by the area predicting unit.

この移動物体検出装置では、撮像手段により撮像し、移動物体検出手段によりその撮像画像から移動物体(例えば、歩行者、自転車、動物)を検出する。そして、移動物体検出手段では、向き検出手段により現時点の撮像画像から移動物体の向いている方向を検出する。この移動物体の向きにより、移動物体が現時点で向かおうとしている方向が判り、未来の移動しようとしている方向を推測できる。また、移動物体検出手段では、動き検出手段により現時点以前の異なる時間の各撮像画像からそれぞれ検出された移動物体の位置から移動物体の動きを検出する。この移動物体の動きにより、移動物体が現時点にいたるまでに移動してきた方向が判る。したがって、移動物体の向きと動きとが同様の方向となっている場合には、移動物体は現時点以降も過去と同様の方向に移動しようとしていると推測できる。一方、移動物体の向きと動きとが明らかに異なった方向となっている場合には、移動物体は未来においては過去と異なる方向に移動しようとしていると推測できる。そこで、移動物体検出装置では、領域予測手段により、この移動物体の向きと動きに基づいて、未来の撮像画像において移動物体が存在する領域を予測する。そして、移動物体検出装置では、この予測した領域から移動物体を検出することにより、既に検出されている移動物体を追跡していく。このように、移動物体検出装置では、移動物体が一定方向に移動している場合でもあるいは移動する方向を変える場合でも、未来の撮像画像における移動物体の存在する領域を高精度に予測することができる。その結果、移動物体を高精度に追跡していくことができる。   In this moving object detection device, an image is picked up by an image pickup means, and a moving object (for example, a pedestrian, bicycle, animal) is detected from the picked-up image by the moving object detection means. Then, in the moving object detection means, the direction detection means detects the direction in which the moving object is facing from the current captured image. From the direction of the moving object, the direction in which the moving object is going at the present time is known, and the direction in which the moving object is going to be moved can be estimated. The moving object detection unit detects the movement of the moving object from the position of the moving object detected from each captured image at different times before the current time by the movement detection unit. By the movement of the moving object, the direction in which the moving object has moved up to the present time can be determined. Therefore, when the direction and movement of the moving object are in the same direction, it can be estimated that the moving object is going to move in the same direction as in the past after the current time. On the other hand, when the direction and movement of the moving object are clearly different directions, it can be estimated that the moving object is moving in a different direction from the past in the future. Therefore, in the moving object detection device, an area in which a moving object is present in a future captured image is predicted by the area predicting unit based on the direction and movement of the moving object. Then, the moving object detection device tracks the already detected moving object by detecting the moving object from the predicted region. As described above, the moving object detection apparatus can predict the region where the moving object exists in the future captured image with high accuracy even when the moving object is moving in a certain direction or when the moving direction is changed. it can. As a result, it is possible to track a moving object with high accuracy.

本発明に係る移動物体検出方法は、撮像ステップと、撮像ステップで撮像した撮像画像から移動物体を検出する移動物体検出ステップと、移動物体検出ステップで検出した移動物体の向きを検出する向き検出ステップと、撮像ステップで異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出ステップと、向き検出ステップで検出した移動物体の向きと動き検出ステップで検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測ステップとを含み、領域予測ステップで予測した領域内から移動物体を検出することを特徴とする。なお、この移動物体検出方法は、上記移動物体検出装置と同様の作用効果を有している。   The moving object detection method according to the present invention includes an imaging step, a moving object detection step that detects a moving object from the captured image captured in the imaging step, and a direction detection step that detects the direction of the moving object detected in the moving object detection step. And a motion detection step for detecting the motion of the moving object from the position of the moving object detected from each captured image captured at different times in the imaging step, and a direction and motion detection step of the moving object detected in the orientation detection step. A region prediction step of predicting a region where the moving object is present in the captured image based on the detected movement of the moving object, and detecting the moving object from within the region predicted in the region prediction step. This moving object detection method has the same effects as the moving object detection apparatus.

本発明によれば、移動物体を高精度に追跡することができる。   According to the present invention, a moving object can be tracked with high accuracy.

以下、図面を参照して、本発明に係る移動物体検出装置及び移動物体検出方法の実施の形態を説明する。   Hereinafter, embodiments of a moving object detection device and a moving object detection method according to the present invention will be described with reference to the drawings.

本実施の形態では、本発明を、車両に搭載される歩行者検出装置に適用する。本実施の形態に係る歩行者検出装置は、車両前方に存在する歩行者を検出し、その検出した歩行者の情報を運転者に提供する。特に、本実施の形態に係る歩行者検出装置では、一度検出した歩行者については次フレームに存在する領域を予測し、その予測領域を用いて歩行者を形跡していく。   In the present embodiment, the present invention is applied to a pedestrian detection device mounted on a vehicle. The pedestrian detection device according to the present embodiment detects a pedestrian existing in front of the vehicle and provides the driver with information on the detected pedestrian. In particular, in the pedestrian detection device according to the present embodiment, for a pedestrian that has been detected once, an area existing in the next frame is predicted, and the pedestrian is traced using the predicted area.

図1〜図3を参照して、歩行者検出装置1について説明する。図1は、本実施の形態に係る歩行者検出装置の構成図である。図2は、図1の歩行者検出装置における追跡処理の基本的な流れを示す画像であり、(a)があるフレームで新しい歩行者を検出した画像であり、(b)が次のフレームにおける追跡中歩行者が存在する予測領域を示す画像であり、(c)が次のフレームで追跡中歩行者を検出した画像であり、(d)が次の次のフレームにおける追跡中歩行者が存在する予測領域を示す画像であり、(e)が次の次のフレームで追跡中歩行者を検出した画像であり、(f)が次の次の次のフレームにおける追跡中歩行者が存在する予測領域と追跡中歩行者を検出した画像である。図3は、歩行者の動きの向き及び大きさの算出方法の説明図である。   With reference to FIGS. 1-3, the pedestrian detection apparatus 1 is demonstrated. FIG. 1 is a configuration diagram of a pedestrian detection device according to the present embodiment. FIG. 2 is an image showing a basic flow of the tracking process in the pedestrian detection apparatus of FIG. 1, (a) is an image in which a new pedestrian is detected in a certain frame, and (b) is in the next frame. It is an image showing a prediction area where a tracking pedestrian exists, (c) is an image in which a tracking pedestrian is detected in the next frame, and (d) is a tracking pedestrian in the next frame (E) is an image in which a tracking pedestrian is detected in the next next frame, and (f) is a prediction in which there is a tracking pedestrian in the next next frame. It is the image which detected the area | region and the pedestrian in tracking. FIG. 3 is an explanatory diagram of a method of calculating the direction and size of a pedestrian's movement.

歩行者検出装置1は、車両の前方を撮像し、その撮像画像から歩行者を検出する。この際、歩行者検出装置1では、撮像画像全体から歩行者を検出し、新たに検出した歩行者を順次追跡対象としてその追跡中歩行者の存在する領域を予測しながら、予測領域から追跡中歩行者を検出することにより歩行者を追跡していく。特に、歩行者検出装置1では、歩行者を高精度に追跡するために、領域を予測する際に歩行者の向きと歩行者の動きの情報を利用する。そのために、歩行者検出装置1は、カメラ2、モニタ3及び画像ECU[Electronic Control Unit]4を備えており、画像ECU4に検出結果保存メモリ10、予測領域保存メモリ11、画像入力部12、歩行者検出部13、追跡検出部14、向き算出部15、動き算出部16、領域予測部17、結果表示部18が構成される。   The pedestrian detection device 1 images the front of the vehicle and detects a pedestrian from the captured image. At this time, the pedestrian detection device 1 detects a pedestrian from the entire captured image, and sequentially tracks a newly detected pedestrian as a tracking target while predicting a region where the pedestrian being tracked exists, while tracking from the predicted region. The pedestrian is tracked by detecting the pedestrian. In particular, in the pedestrian detection apparatus 1, in order to track a pedestrian with high accuracy, information on the direction of the pedestrian and the movement of the pedestrian is used when the region is predicted. For this purpose, the pedestrian detection apparatus 1 includes a camera 2, a monitor 3, and an image ECU [Electronic Control Unit] 4. The image ECU 4 includes a detection result storage memory 10, a prediction area storage memory 11, an image input unit 12, a walking. A person detection unit 13, a tracking detection unit 14, a direction calculation unit 15, a motion calculation unit 16, a region prediction unit 17, and a result display unit 18 are configured.

なお、本実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、歩行者検出部13が特許請求の範囲に記載する移動物体検出手段に相当し、向き算出部15が特許請求の範囲に記載する向き検出手段に相当し、動き算出部16が特許請求の範囲に記載する動き検出手段に相当し、領域予測部17が特許請求の範囲に記載する領域予測手段に相当する。   In the present embodiment, the camera 2 corresponds to the imaging unit described in the claims, the pedestrian detection unit 13 corresponds to the moving object detection unit described in the claims, and the direction calculation unit 15 includes It corresponds to the direction detection means described in the claims, the motion calculation unit 16 corresponds to the motion detection means described in the claims, and the region prediction unit 17 corresponds to the region prediction means described in the claims. To do.

カメラ2は、歩行者検出装置1を搭載する車両の前方に取り付けられ、車両の前方を撮像する。この撮像画像は、カラー画像でも、白黒画像でもよい。カメラ2では、その撮像画像のデータを画像ECU4に送信する。カメラ2は、左右方向に撮像範囲が広く、車道の外側に設けられる歩道、路側帯などまで撮像可能である。   The camera 2 is attached in front of a vehicle on which the pedestrian detection device 1 is mounted, and images the front of the vehicle. This captured image may be a color image or a black and white image. The camera 2 transmits the captured image data to the image ECU 4. The camera 2 has a wide imaging range in the left-right direction, and can capture images such as sidewalks and roadside zones provided outside the roadway.

モニタ3は、車室内の前方で、運転者が視認可能な位置に取り付けられる。モニタ3では、画像ECU4から画像信号が送信され、その画像信号に応じた画像を画面表示する。   The monitor 3 is attached to the front of the passenger compartment at a position where the driver can visually recognize it. In the monitor 3, an image signal is transmitted from the image ECU 4, and an image corresponding to the image signal is displayed on the screen.

画像ECU4は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなり、各処理部や各メモリが構成される。画像ECU4では、カメラ2から撮像画像のデータを取り入れ、その撮像画像から車両前方の歩行者を検出し、検出した歩行者の情報をモニタ3に表示させる。   The image ECU 4 includes a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like, and each processing unit and each memory are configured. The image ECU 4 takes captured image data from the camera 2, detects a pedestrian in front of the vehicle from the captured image, and displays the detected pedestrian information on the monitor 3.

検出結果保存メモリ10は、RAMに構成され、歩行者検出部13で検出された歩行者に関する情報及び追跡検出部14で検出された追跡中の歩行者に関する情報を保存するためのメモリである。歩行者検出部13で検出された歩行者に関する情報は、現フレームにおいて検出された歩行者の情報であり、その歩行者の画像中の位置及び領域である。追跡中の歩行者の情報は、現在追跡中の歩行者の情報であり、その追跡中歩行者の画像中の位置、領域、向き、動き(向きと大きさ)である。   The detection result storage memory 10 is a memory configured to store the information about the pedestrian detected by the pedestrian detection unit 13 and the information about the pedestrian being tracked detected by the tracking detection unit 14. The information regarding the pedestrian detected by the pedestrian detection unit 13 is information on the pedestrian detected in the current frame, and is a position and a region in the image of the pedestrian. The information on the pedestrian being tracked is information on the pedestrian currently being tracked, and is the position, area, orientation, and movement (direction and size) in the image of the pedestrian being tracked.

予測領域保存メモリ11は、RAMに構成され、領域予測部17で求められた予測領域を保存するためのメモリである。予測領域は、現在追跡中の歩行者が次フレームで存在する可能性の高い領域として予測された領域である。   The prediction area storage memory 11 is a memory configured to store a prediction area obtained by the area prediction unit 17 in the RAM. The predicted region is a region predicted as a region where a pedestrian currently being tracked is likely to exist in the next frame.

画像入力部12では、カメラ2から撮像画像のデータを取り入れ、その撮像画像のデータを所定の保存領域(RAM)に保存する。   The image input unit 12 takes captured image data from the camera 2 and stores the captured image data in a predetermined storage area (RAM).

歩行者検出部13では、カメラ2から撮像画像のデータが入力される毎に、その現フレームの撮像画像全体からテンプレートによるパターンマッチングによって歩行者を検出する。この際、検出される歩行者は、テンプレートの画像(矩形領域の画像)に対応して、歩行者全体を含む矩形領域WAで切り出される(図2(a)参照)。そして、歩行者検出部13では、切り出された矩形領域WAの中心位置を歩行者の位置WPとする(図2(a)参照)。さらに、歩行者検出部13では、撮像画像全体から歩行者を検出できた場合、検出した全ての歩行者の位置WP(画像上の座標)及び矩形領域WA(4つの端部の画像上の座標)を検出結果保存メモリ10に保存する。なお、検出される歩行者には、現フレームから新たに検出された歩行者(新しい歩行者)NW(図2(a)参照)と過去のフレームから追跡されている歩行者(追跡中歩行者)CW(図2(c)、(e)、(f)参照)が含まれる。   Each time captured image data is input from the camera 2, the pedestrian detection unit 13 detects a pedestrian by pattern matching using a template from the entire captured image of the current frame. At this time, the detected pedestrian is cut out in a rectangular area WA including the entire pedestrian corresponding to the template image (rectangular area image) (see FIG. 2A). And in the pedestrian detection part 13, the center position of the cut-out rectangular area WA is made into the pedestrian position WP (refer Fig.2 (a)). Further, when the pedestrian detection unit 13 can detect pedestrians from the entire captured image, the positions WP (coordinates on the image) and the rectangular areas WA (coordinates on the images of the four end portions) of all detected pedestrians. ) Is stored in the detection result storage memory 10. The detected pedestrian includes a pedestrian (new pedestrian) NW newly detected from the current frame (see FIG. 2A) and a pedestrian tracked from a past frame (pedestrian being tracked). ) CW (see FIGS. 2C, 2E, and 2F).

追跡検出部14では、追跡中歩行者が存在する場合(検出結果保存メモリ10に追跡中歩行者の情報が保存されている場合)、予測領域保存メモリ11から対応する追跡中歩行者の予測領域PAを抽出する。そして、追跡検出部14では、撮像画像からその抽出した予測領域PAの画像を切り出し、その予測領域PAの画像からテンプレートによるパターンマッチングによって追跡中歩行者CWを検出する(図2(c)、(e)、(f)参照)。この際、検出される追跡中歩行者CWは、テンプレートの画像(矩形領域の画像)に対応して、歩行者全体を含む矩形領域WAで切り出される(図2(c)等参照)。そして、追跡検出部14では、予測領域PAから追跡中歩行者を検出できた場合、切り出された矩形領域WAの中心位置を追跡中歩行者の位置WPとし(図2(c)等参照)、検出した追跡中歩行者の位置WP及び矩形領域WAを追跡中歩行者の情報として検出結果保存メモリ10に保存する。一方、追跡検出部14では、予測領域PAから追跡中歩行者を検出できない場合、その追跡中歩行者の情報を予測領域保存メモリ11から削除する。ちなみに、追跡検出部14では、予測領域保存メモリ11に保存されている全ての追跡中歩行者に対して上記の処理を行う。   In the tracking detection unit 14, when there is a tracking pedestrian (when the information of the tracking pedestrian is stored in the detection result storage memory 10), the corresponding prediction region of the tracking pedestrian from the prediction region storage memory 11. Extract PA. Then, the tracking detection unit 14 cuts out the image of the extracted prediction area PA from the captured image, and detects the pedestrian CW being tracked from the image of the prediction area PA by pattern matching using a template (FIG. 2 (c), ( e) and (f)). At this time, the detected tracking pedestrian CW is cut out in a rectangular area WA including the entire pedestrian corresponding to the template image (rectangular area image) (see FIG. 2C, etc.). Then, in the tracking detection unit 14, when the tracking pedestrian can be detected from the prediction area PA, the center position of the cut out rectangular area WA is set as the position WP of the tracking pedestrian (see FIG. 2 (c), etc.) The detected position WP and the rectangular area WA of the tracking pedestrian are stored in the detection result storage memory 10 as information of the tracking pedestrian. On the other hand, when the tracking pedestrian cannot be detected from the prediction area PA, the tracking detection unit 14 deletes the information of the tracking pedestrian from the prediction area storage memory 11. Incidentally, the tracking detection unit 14 performs the above-described processing for all the tracking pedestrians stored in the prediction area storage memory 11.

また、追跡検出部14では、現フレームの撮像画像から検出された歩行者の中(つまり、検出結果保存メモリ10に保存されている歩行者検出部13で検出した歩行者の中)に予測領域PAから検出できた追跡中歩行者と同一の歩行者が存在する場合、検出結果保存メモリ10からその同一の歩行者の情報を削除する。したがって、追跡検出部14で全ての追跡中歩行者に対する追跡が終了すると、検出結果保存メモリ10には、歩行者検出部13で検出した歩行者の情報としては現フレームから新たに検出された新しい歩行者の情報のみが保存されることになる。   Further, in the tracking detection unit 14, a prediction region is included in the pedestrian detected from the captured image of the current frame (that is, in the pedestrian detected by the pedestrian detection unit 13 stored in the detection result storage memory 10). When the same pedestrian as the tracking pedestrian detected from the PA exists, the information on the same pedestrian is deleted from the detection result storage memory 10. Therefore, when the tracking detection unit 14 finishes tracking all pedestrians being tracked, the detection result storage memory 10 stores new information newly detected from the current frame as pedestrian information detected by the pedestrian detection unit 13. Only pedestrian information is stored.

向き算出部15では、新しい歩行者及び追跡中歩行者の現フレームにおいて向いている方向FDを算出する(図2(b)、(c)、(e)参照)。そして、向き算出部15では、その算出した方向FDの情報を歩行者に対応付けして検出結果保存メモリ10に保存する。この向きの情報は、現フレームの画像から求められるので、過去の歩行者の移動に関係なく、現時点において歩行者が向かおうとしている方向が判る。   The direction calculation unit 15 calculates the direction FD that is facing in the current frame of the new pedestrian and the tracking pedestrian (see FIGS. 2B, 2C, and 2E). Then, the direction calculation unit 15 stores the calculated direction FD information in the detection result storage memory 10 in association with the pedestrian. Since the information on the direction is obtained from the image of the current frame, the direction in which the pedestrian is heading at the present time can be known regardless of the movement of the pedestrian in the past.

向きの算出手法としては、検出した歩行者の矩形領域WAの画像と向いている方向の異なる歩行者のテンプレートの画像とのマッチングをとり、最も相関度が高いテンプレートの向いている方向から歩行者の向きFDを求める。このテンプレートは、360°にわたって所定角度毎にそれぞれ向きを変えた歩行者のテンプレートである。この所定角度を大きくするほど処理負荷が軽減し、所定角度を小さくするほど精度が向上する。隣り合う角度の2つのテンプレートに対する相関度が高い場合には、その2つのテンプレートの向いている方向から補間して歩行者の向きを求める。なお、この向きを求める手法としては、例えば、H.Shimizu and T.Poggio,"Direction Estimation of Pedestrian from Multiple Still Images",IEEE Intelligent Vehicles Symposium,2004,Parma,Italyに記載されている。   As a method for calculating the direction, a matching is performed between the detected image of the rectangular area WA of the pedestrian and the template image of the pedestrian having a different direction, and the pedestrian is determined from the direction in which the template having the highest degree of correlation is directed. The direction FD is obtained. This template is a template for pedestrians whose directions are changed at predetermined angles over 360 °. The processing load is reduced as the predetermined angle is increased, and the accuracy is improved as the predetermined angle is decreased. When the degree of correlation between two templates at adjacent angles is high, the direction of the pedestrian is obtained by interpolation from the direction in which the two templates are facing. The method for obtaining this direction is described in, for example, H. Shimizu and T. Poggio, “Direction Estimation of Pedestrian from Multiple Still Images”, IEEE Intelligent Vehicles Symposium, 2004, Parma, Italy.

動き算出部16では、追跡中歩行者の現フレームと前フレームの各位置WPから歩行者の動きの向きMDと大きさを算出する(図2(c)、(e)参照)。そして、動き算出部16では、その算出した動きの方向MDと大きさの情報を追跡中歩行者に対応付けして検出結果保存メモリ10に保存する。この動きの情報は、現フレームを含む過去のフレームの情報から求められるので、歩行者の過去の移動してきた方向や移動量が判る。また、この動きの情報は、複数のフレームの情報から求められるので、精度の高い情報が得られる。   The motion calculation unit 16 calculates the direction MD and the magnitude of the pedestrian's movement from each position WP of the tracked pedestrian's current frame and the previous frame (see FIGS. 2C and 2E). Then, the motion calculation unit 16 stores the calculated motion direction MD and size information in the detection result storage memory 10 in association with the tracking pedestrian. Since this movement information is obtained from the information of the past frame including the current frame, the direction and amount of movement of the pedestrian in the past can be known. In addition, since this motion information is obtained from information of a plurality of frames, highly accurate information can be obtained.

動きの算出手法としては、現フレームでの追跡中歩行者CW1の位置WP1を終点とし、前フレームでの追跡中歩行者CW2の位置WP2を始点とするベクトルを求め、そのベクトルの角度を動きの向きMDとし、そのベクトルの長さを動きの大きさとする(図3参照)。   As a motion calculation method, a vector starting from the position WP1 of the tracking pedestrian CW1 in the current frame as an end point and starting from the position WP2 of the tracking pedestrian CW2 in the previous frame is obtained, and the angle of the vector is determined as the motion angle. The direction is MD, and the length of the vector is the magnitude of motion (see FIG. 3).

領域予測部17では、歩行者の向きFD及び追跡中歩行者の動きの向きMDと大きさから次のフレームにおいて追跡中歩行者が存在する領域PAを予測する(図2(b)、(d)、(f)参照)。そして、領域予測部17では、その予測した予測領域PAを追跡中歩行者に対応付けして予測領域保存メモリ11に保存する。この領域の予測手法については、以下に、新しい歩行者の場合と追跡中歩行者の場合に分けて説明する。   The area predicting unit 17 predicts an area PA where the pedestrian in tracking exists in the next frame from the direction FD of the pedestrian and the direction MD and size of the movement of the pedestrian in tracking (FIG. 2B, FIG. 2D). ) And (f)). Then, the region prediction unit 17 stores the predicted region PA predicted in association with the tracking pedestrian in the prediction region storage memory 11. The prediction method for this area will be described separately for a new pedestrian and a tracking pedestrian.

新しい歩行者の場合について説明する。新しい歩行者NWの場合、現フレームから新たに検出された歩行者なので、動きの情報がない。したがって、向きFDだけを用いて予測領域PAを求める。予測領域PAとしては、歩行者NWの矩形領域WAを端部に含み、向きFDの方向に沿ってその矩形領域WAの横方向の長さ及び縦方の長さをそれぞれ所定倍に延ばした領域とする(図2(a)→(b)参照)。所定倍としては、画像全体に対する矩形領域の大きさ、連続するフレームの時間間隔や歩行者の最大速度などを考慮し、例えば、縦方向で1.5倍、横方向で2倍程度とする。この所定倍は、固定値でもよいが、歩行者の奥行き方向の位置などを考慮して可変値としてもよい。なお、向きFDが画像において水平方向の場合には横方向の長さだけを所定倍に延ばした予測領域PAとし、向きFDが画像において鉛直方向の場合には縦方向の長さだけを所定倍に延ばした予測領域PAとする。   The case of a new pedestrian will be described. In the case of a new pedestrian NW, there is no movement information because it is a pedestrian newly detected from the current frame. Therefore, the prediction area PA is obtained using only the direction FD. As the prediction area PA, a rectangular area WA of the pedestrian NW is included at the end, and the horizontal length and the vertical length of the rectangular area WA are each extended by a predetermined amount along the direction FD. (See FIG. 2 (a) → (b)). The predetermined magnification is, for example, about 1.5 times in the vertical direction and about twice in the horizontal direction in consideration of the size of the rectangular area with respect to the entire image, the time interval between successive frames, the maximum speed of the pedestrian, and the like. This predetermined multiple may be a fixed value or may be a variable value in consideration of the position of the pedestrian in the depth direction. When the orientation FD is horizontal in the image, the prediction area PA is obtained by extending only the horizontal length by a predetermined multiple. When the orientation FD is vertical in the image, only the vertical length is multiplied by a predetermined multiple. The prediction area PA is extended to.

追跡中歩行者の場合について説明する。歩行者が一定の方向に移動している場合には、向きFDと動きの向きMDとが一致かあるいは略一致する(図2(c)参照)。この場合、複数のフレームの情報を用いている歩行者の動きの情報を用いて予測領域PAを求める。一方、歩道を歩いていた歩行者が横断歩道を渡るときなど移動方向を変える場合、向きFDと動きの向きMDとが明らかに異なる(図2(e)参照)。この場合、過去の動きの情報は利用できないので、歩行者の向きFDを用いて予測領域PAを求める。   The case of a pedestrian during tracking will be described. When the pedestrian is moving in a certain direction, the direction FD and the direction MD of movement match or substantially match (see FIG. 2C). In this case, the prediction area PA is obtained using the information on the movement of the pedestrian using the information of a plurality of frames. On the other hand, when the moving direction is changed, for example, when a pedestrian walking on the sidewalk crosses a pedestrian crossing, the direction FD and the direction MD of movement are clearly different (see FIG. 2E). In this case, since past movement information cannot be used, the prediction area PA is obtained using the pedestrian orientation FD.

そこで、まず、向きFDと動きの向きMDとの差の絶対値を求め、その絶対値が閾値より大きいか否かを判定する。閾値以下の場合には歩行者の動きの情報を用いて予測領域PAを求め、閾値より大きい場合には歩行者の向きFDを用いて予測領域PAを求める。閾値は、歩行者が移動している方向を変えたか否かを判定するための角度であり、向きFDや動きの向きMDの精度などを考慮して設定され、例えば、45°である。閾値以下の場合、予測領域PAとしては、追跡中歩行者CWの矩形領域WAを端部に含み、動きMDの方向に沿ってその矩形領域WAの横方向の長さ及び縦方の長さを動きの大きさの分延ばした領域とする(図2(c)→(d)参照)。一方、閾値より大きい場合、予測領域PAとしては、追跡中歩行者CWの矩形領域WAを端部に含み、向きFDの方向に沿ってその矩形領域WAの横方向の長さ及び縦方の長さをそれぞれ所定倍に延ばした領域とする(図2(e)→(f)参照)。   Therefore, first, an absolute value of a difference between the direction FD and the motion direction MD is obtained, and it is determined whether or not the absolute value is larger than a threshold value. When the value is equal to or smaller than the threshold value, the prediction area PA is obtained using the information on the movement of the pedestrian, and when larger than the threshold value, the prediction area PA is obtained using the direction FD of the pedestrian. The threshold is an angle for determining whether or not the direction in which the pedestrian is moving has been changed, and is set in consideration of the accuracy of the direction FD and the direction MD of the movement, and is, for example, 45 °. In the case of the threshold value or less, the prediction area PA includes the rectangular area WA of the pedestrian CW being tracked at the end, and the horizontal length and the vertical length of the rectangular area WA along the direction of the motion MD. It is set as the area | region extended by the magnitude | size of the movement (refer FIG.2 (c)-> (d)). On the other hand, when larger than the threshold value, the prediction area PA includes the rectangular area WA of the pedestrian CW being tracked at the end, and the horizontal length and the vertical length of the rectangular area WA along the direction FD. It is assumed that each of the areas is a predetermined multiple (see FIG. 2 (e) → (f)).

結果表示部18では、現フレームの撮像画像中に歩行者が存在する場合(つまり、検出結果保存メモリ10に新しい歩行者の情報又は/及び追跡中歩行者の情報が保存されている場合)、現フレームの撮像画像全体に各歩行者の矩形領域WAを示す線を加えた画像のデータを画像信号としてモニタ3に送信する。この際、車両から所定距離以内の歩行者のみの矩形領域WAを示す線を追加した画像としてもよいし、あるいは、横断歩道上などの車道に存在する歩行者のみの矩形領域WAを示す線を追加した画像としてもよい。また、現フレームの撮像画像全体の画像を無くして、歩行者のみを示した画像としてもよい。   In the result display unit 18, when a pedestrian exists in the captured image of the current frame (that is, when information on a new pedestrian or / and information on a pedestrian being tracked is stored in the detection result storage memory 10), Data of an image obtained by adding a line indicating the rectangular area WA of each pedestrian to the entire captured image of the current frame is transmitted to the monitor 3 as an image signal. At this time, a line indicating a rectangular area WA only for a pedestrian within a predetermined distance from the vehicle may be added, or a line indicating a rectangular area WA only for a pedestrian existing on a roadway such as on a pedestrian crossing may be used. It may be an added image. Alternatively, the entire captured image of the current frame may be eliminated and an image showing only pedestrians may be used.

図1を参照して、歩行者検出装置1の動作について説明する。特に、画像ECU4における処理については図4に示すフローチャートに沿って説明する。図4は、図1の歩行者検出装置の画像ECUにおける処理の流れを示すフローチャートである。   With reference to FIG. 1, operation | movement of the pedestrian detection apparatus 1 is demonstrated. In particular, the processing in the image ECU 4 will be described along the flowchart shown in FIG. FIG. 4 is a flowchart showing a flow of processing in the image ECU of the pedestrian detection apparatus of FIG.

カメラ2では、一定時間毎に、自車両の前方を撮像し、その撮像画像のデータを画像ECU4に送信する。そして、画像ECU4では、一定時間毎に、その撮像画像のデータを取り入れ、所定のメモリ領域に保存する(S1)。   The camera 2 captures the front of the host vehicle at regular time intervals and transmits data of the captured image to the image ECU 4. Then, the image ECU 4 takes in the data of the captured image at regular intervals and stores it in a predetermined memory area (S1).

画像ECU4では、パターンマッチングによって、現フレームの撮像画像に存在する歩行者を検出し、歩行者を検出できた場合にはその歩行者の位置や矩形領域を検出結果保存メモリ10に保存する(S2)。そして、画像ECU4では、現フレームの撮像画像から歩行者を検出できたか否かを判定する(S3)。   The image ECU 4 detects a pedestrian existing in the captured image of the current frame by pattern matching. If the pedestrian can be detected, the position and the rectangular area of the pedestrian are stored in the detection result storage memory 10 (S2). ). Then, the image ECU 4 determines whether or not a pedestrian has been detected from the captured image of the current frame (S3).

S3にて歩行者を検出できたと判定した場合、画像ECU4では、現フレームの撮像画像で検出した歩行者の中に検出結果保存メモリ10に保存されている追跡中歩行者と一致する歩行者が存在するか否かを判定する(S4)。S4にて追跡中歩行者と一致する歩行者が存在しないと判定した場合、現フレームで検出した歩行者は全て現フレームで初めて検出された新しい歩行者なので、画像ECU4では、S11の処理に移行し、テンプレートによるマッチングによってその全ての新しい歩行者の向きをそれぞれ算出し、その向きの情報を各歩行者に対応付けて検出結果保存メモリ10にそれぞれ保存する(S11)。   When it is determined in S3 that the pedestrian has been detected, the image ECU 4 includes a pedestrian that matches the pedestrian being tracked stored in the detection result storage memory 10 among the pedestrians detected in the captured image of the current frame. It is determined whether or not it exists (S4). If it is determined in S4 that there is no pedestrian that matches the pedestrian being tracked, all the pedestrians detected in the current frame are new pedestrians detected for the first time in the current frame, so the image ECU 4 proceeds to the processing of S11. Then, the orientations of all the new pedestrians are calculated by template matching, and the orientation information is associated with each pedestrian and stored in the detection result storage memory 10 (S11).

一方、S3にて歩行者を検出できなかったと判定した場合、画像ECU4では、検出結果保存メモリ10に保存されている追跡中歩行者が存在するか否かを判定し、保存されている追跡中歩行者が存在する場合にはその全ての追跡中歩行者について追跡処理などが終了したか否かを判定する(S5)。   On the other hand, if it is determined in S3 that the pedestrian cannot be detected, the image ECU 4 determines whether or not there is a tracking pedestrian stored in the detection result storage memory 10, and the stored tracking is in progress. If there are pedestrians, it is determined whether or not the tracking process has been completed for all of the pedestrians being tracked (S5).

S4にて追跡中歩行者と一致する歩行者が存在すると判定した場合又はS5にて全ての追跡中歩行者について処理が終了していないと判定した場合、画像ECU4では、検出結果保存メモリ10に保存されている追跡中歩行者を一人づつ選択し、予測領域保存メモリ11からその選択した追跡中歩行者の予測領域を抽出する。そして、画像ECU4では、現フレームの撮像画像からその抽出した予測領域を切り出する。さらに、画像ECU4では、パターンマッチングによってその予測領域の画像から追跡中歩行者を検出し、追跡中歩行者を検出できた場合にはその追跡中歩行者の位置や矩形領域を検出結果保存メモリ10に保存する(S6)。そして、画像ECU4では、その予測領域の画像から追跡中歩行者を検出できたか否かを判定する(S7)。   If it is determined in S4 that there is a pedestrian that matches the pedestrian being tracked, or if it is determined in S5 that processing has not been completed for all the pedestrians being tracked, the image ECU 4 stores the detected result in the detection result storage memory 10. The stored tracking pedestrians are selected one by one, and the predicted region of the selected tracking pedestrian is extracted from the prediction region storage memory 11. Then, the image ECU 4 cuts out the extracted prediction area from the captured image of the current frame. Further, the image ECU 4 detects the pedestrian being tracked from the image of the predicted region by pattern matching, and if the pedestrian being tracked can be detected, the position and rectangular area of the pedestrian being tracked are detected result storage memory 10. (S6). Then, the image ECU 4 determines whether or not the tracking pedestrian has been detected from the image of the prediction region (S7).

S7にて追跡中歩行者を検出できなかったと判定した場合、前フレームまで追跡していた歩行者は現フレームではカメラ2の撮像範囲外に出たと推測でき、画像ECU4では、その追跡中歩行者の情報を、検出結果保存メモリ10及び予測領域保存メモリ11から削除する。さらに、画像ECU4では、現フレームで検出した歩行者の中に現フレームで初めて検出された新しい歩行者が存在するか否かを判定する(S8)。S8にて新しい歩行者が存在すると判定した場合、画像ECU4では、S11の処理に移行し、テンプレートによるマッチングによってその全ての新しい歩行者の向きをそれぞれ算出し、その向きの情報を歩行者に対応付けて検出結果保存メモリ10にそれぞれ保存する(S11)。一方、S8にて新しい歩行者が存在しないと判定した場合、画像ECU4では、S5の処理に戻り、検出結果保存メモリ10に保存されている全ての追跡中歩行者について処理が終了したか否かを判定する(S5)。   If it is determined in S7 that the tracking pedestrian cannot be detected, it can be assumed that the pedestrian who has been tracking up to the previous frame has gone out of the imaging range of the camera 2 in the current frame. Is deleted from the detection result storage memory 10 and the prediction area storage memory 11. Further, the image ECU 4 determines whether or not there is a new pedestrian detected for the first time in the current frame among the pedestrians detected in the current frame (S8). If it is determined in S8 that a new pedestrian exists, the image ECU 4 shifts to the processing in S11, calculates the orientations of all the new pedestrians by matching with the template, and handles the direction information for the pedestrians. At the same time, it is stored in the detection result storage memory 10 (S11). On the other hand, when it is determined in S8 that there is no new pedestrian, the image ECU 4 returns to the process of S5, and whether or not the process has been completed for all the tracking pedestrians stored in the detection result storage memory 10. Is determined (S5).

S7にて追跡中歩行者を検出できたと判定した場合、画像ECU4では、現フレームで検出した歩行者の中にその検出できた追跡中歩行者と同一の歩行者が存在するか否かを判定する(S9)。S9にて同一の歩行者が存在すると判定した場合、画像ECU4では、検出結果保存メモリ10に保存されている現フレームで検出した歩行者の情報の中からその同一と判定された歩行者の情報を削除する(S10)。したがって、検出結果保存メモリ10には、最終的に、現フレームで検出した歩行者の情報としては現フレームで初めて検出された新しい歩行者の情報のみが残る。   If it is determined in S7 that the pedestrian being tracked can be detected, the image ECU 4 determines whether or not the same pedestrian as the detected pedestrian exists in the pedestrians detected in the current frame. (S9). When it is determined in S9 that the same pedestrian exists, the image ECU 4 determines the same pedestrian information from the pedestrian information detected in the current frame stored in the detection result storage memory 10. Is deleted (S10). Therefore, in the detection result storage memory 10, finally, only information on a new pedestrian detected for the first time in the current frame remains as information on the pedestrian detected in the current frame.

S9にて同一の歩行者が存在すると判定した場合及びS10の処理が終了すると、画像ECU4では、テンプレートによるマッチングによって、その検出した追跡中歩行者の向きを算出し、その向きの情報を歩行者に対応付けて検出結果保存メモリ10に保存する(S11)。この向きの情報により、歩行者がこれから移動しようとしている方向を予測できる。さらに、画像ECU4では、その検出した追跡中歩行者の前フレームでの位置と現フレームでの位置の差から追跡中歩行者の動きの向きと大きさを算出し、その動きの情報を追跡中歩行者に対応付けて検出結果保存メモリ10に保存する(S12)。この動きの情報により、追跡中歩行者がこれまでに移動してきた方向や移動量が判る。   When it is determined in S9 that the same pedestrian exists, and when the process of S10 ends, the image ECU 4 calculates the detected direction of the pedestrian being tracked by matching with the template, and uses the information on the direction as the pedestrian. And stored in the detection result storage memory 10 (S11). With this direction information, the direction in which the pedestrian is about to move can be predicted. Further, the image ECU 4 calculates the direction and size of the movement of the tracking pedestrian from the difference between the detected position of the pedestrian in the previous frame and the position in the current frame, and is tracking the movement information. Corresponding to the pedestrian, it is stored in the detection result storage memory 10 (S12). From this movement information, the direction and amount of movement of the tracking pedestrian so far can be known.

さらに、画像ECU4では、検出した歩行者に対して、新しい歩行者の場合には向きの情報から次フレームの撮像画像での予測領域を算出し、追跡中歩行者の場合には向きの情報及び動きの情報から次フレームの撮像画像での予測領域を算出し、その予測領域を追跡中歩行者に対応付けて予測領域保存メモリ11に保存する(S13)。この際、新しい歩行者については、現フレームでの向きの情報のみが用いられるので、この向きの情報によりこれから移動しようとしている領域を予測できる。一方、追跡中歩行者については、向きのと動きの向きとが一致している場合には信頼性の高い動きの情報からこれから移動しようとしている領域を予測でき、向きのと動きの向きとが異なっている場合には向きの情報からこれから移動しようとしている領域を予測できる。   Further, the image ECU 4 calculates a prediction area in the captured image of the next frame from the orientation information in the case of a new pedestrian for the detected pedestrian, and the orientation information and A predicted area in the captured image of the next frame is calculated from the motion information, and the predicted area is stored in the predicted area storage memory 11 in association with the pedestrian being tracked (S13). At this time, for the new pedestrian, only the information on the direction in the current frame is used, and therefore the region to be moved can be predicted from the information on the direction. On the other hand, for a tracking pedestrian, if the direction matches the direction of the movement, the area to be moved can be predicted from the reliable movement information, and the direction and the direction of the movement If they are different, the area to be moved can be predicted from the direction information.

領域を予測すると、画像ECU4では、S5の処理に戻り、検出結果保存メモリ10に保存されている全ての追跡中歩行者について処理を終了したか否かを判定する(S5)。S5にて全ての追跡中歩行者について処理が終了したと判定した場合、画像ECU4では、現フレームで新しい歩行者及び/又は追跡中歩行者が検出されている場合、現フレームの撮像画像全体に各歩行者の矩形領域を示す線を加えた画像のデータを画像信号としてモニタ3に送信する(S14)。この画像信号を受信すると、モニタ3では、現フレームの撮像画像に歩行者の存在する領域を強調した画像を表示する。さらに、画像ECU4では、検出結果保存メモリ10に新しい歩行者の情報が存在する場合、検出結果保存メモリ10にその新しい歩行者の情報を追跡中歩行者の情報として新たに追加して保存するとともに、その新しい歩行者の情報を削除する。現フレームにおける全ての処理が終了すると、画像ECU4では、S1の処理に戻って、次フレームの撮像画像を取得する(S1)。   When the region is predicted, the image ECU 4 returns to the process of S5, and determines whether or not the process has been completed for all the tracking pedestrians stored in the detection result storage memory 10 (S5). When it is determined in S5 that the processing has been completed for all the pedestrians being tracked, the image ECU 4 displays the entire captured image of the current frame when a new pedestrian and / or a pedestrian being tracked is detected in the current frame. Data of an image to which a line indicating the rectangular area of each pedestrian is added is transmitted as an image signal to the monitor 3 (S14). When this image signal is received, the monitor 3 displays an image in which the area where the pedestrian is present is emphasized in the captured image of the current frame. Further, in the image ECU 4, when new pedestrian information exists in the detection result storage memory 10, the new pedestrian information is newly added and stored as information on the pedestrian being tracked in the detection result storage memory 10. , Delete that new pedestrian information. When all the processes in the current frame are completed, the image ECU 4 returns to the process of S1 and acquires the captured image of the next frame (S1).

この歩行者検出装置1によれば、過去の歩行者の動きのみならず、現時点での歩行者そのものの向きも利用することにより、次フレームで追跡中歩行者が存在する領域を高精度に予測でき、追跡性能が向上する。特に、歩行者検出装置1では、歩行者が急に移動方向を変えた場合でも、歩行者の現時点からの移動方向を推測できる向きを利用しているので、追跡が可能である。   According to this pedestrian detection device 1, by using not only the past pedestrian movement but also the current pedestrian direction, the region where the pedestrian being tracked is present in the next frame is predicted with high accuracy. And tracking performance is improved. In particular, in the pedestrian detection device 1, even when the pedestrian suddenly changes the direction of movement, the pedestrian detection device 1 uses a direction in which the direction of movement of the pedestrian from the current time can be estimated, so that tracking is possible.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では車両に搭載される歩行者を検出する歩行者検出装置に適用したが、歩行者以外の自転車、動物などの他の移動物体を検出する装置に適用してもよいし、インフラ側に移動物体検出装置を設け、インフラ側で検出した情報を車両側に送信する構成に適用してもよいし、あるいは、人間などの移動物体を追跡する機能を有するロボットなどに適用してもよい。   For example, in this embodiment, the present invention is applied to a pedestrian detection device that detects a pedestrian mounted on a vehicle, but may be applied to a device that detects other moving objects such as bicycles and animals other than pedestrians. It may be applied to a configuration in which a moving object detection device is provided on the infrastructure side and information detected on the infrastructure side is transmitted to the vehicle side, or to a robot having a function of tracking a moving object such as a human. May be.

また、本実施の形態では検出した歩行者の情報をモニタに表示する構成としたが、車線(白線)、車道と歩道、横断歩道なども検出している場合にはそれらの情報もモニタに表示する構成としてもよいし、さらに、車線内に歩行者が侵入したか否かを検知し、侵入した場合には警報などを出力する構成としてもよいし、あるいは、モニタに表示せずに、歩行者の存在を音声やブザーなどで知らせる構成としてもよい。   Also, in this embodiment, the detected pedestrian information is displayed on the monitor. However, when lanes (white lines), roadways and sidewalks, and pedestrian crossings are also detected, such information is also displayed on the monitor. Further, it may be configured to detect whether or not a pedestrian has entered the lane and output an alarm or the like when the pedestrian has entered, or may be configured to walk without displaying on the monitor. The presence of the person may be notified by voice or buzzer.

また、本実施の形態では各処理部を各プログラムがCPUで実行されることによって形成されるソフトウエアで構成したが、各処理部をハードウエアで構成してもよい。   Further, in the present embodiment, each processing unit is configured by software formed by executing each program by the CPU, but each processing unit may be configured by hardware.

また、本実施の形態では歩行者の向きをテンプレートとのマッチングにより求め、歩行者の動きをフレーム間の歩行者の位置から求める構成としたが、歩行者の向きや歩行者の動きを求める手法についてはこれらに限定するものではなく、他の手法でもよい。   In the present embodiment, the pedestrian orientation is obtained by matching with the template, and the pedestrian movement is obtained from the position of the pedestrian between the frames. However, the pedestrian orientation and the pedestrian movement are obtained. Is not limited to these, and other methods may be used.

また、本実施の形態では動きを求めるときに現フレームと前フレームの各歩行者の位置から求める構成としたが、前フレーム以前の過去のフレームにおける歩行者の各位置も用いて求める構成としてもよい。   In this embodiment, the movement is obtained from the position of each pedestrian in the current frame and the previous frame. However, the movement may be obtained by using the positions of pedestrians in the previous frame before the previous frame. Good.

本実施の形態に係る歩行者検出装置の構成図である。It is a block diagram of the pedestrian detection apparatus which concerns on this Embodiment. 図1の歩行者検出装置における追跡処理の基本的な流れを示す画像であり、(a)があるフレームで新しい歩行者を検出した画像であり、(b)が次のフレームにおける追跡中歩行者が存在する予測領域を示す画像であり、(c)が次のフレームで追跡中歩行者を検出した画像であり、(d)が次の次のフレームにおける追跡中歩行者が存在する予測領域を示す画像であり、(e)が次の次のフレームで追跡中歩行者を検出した画像であり、(f)が次の次の次のフレームにおける追跡中歩行者が存在する予測領域と追跡中歩行者を検出した画像である。It is an image which shows the basic flow of the tracking process in the pedestrian detection apparatus of FIG. 1, (a) is an image in which a new pedestrian is detected in a certain frame, and (b) is a pedestrian in tracking in the next frame. (C) is an image in which a tracking pedestrian is detected in the next frame, and (d) is a prediction region in which the tracking pedestrian exists in the next frame. (E) is an image in which a tracking pedestrian is detected in the next next frame, and (f) is a tracking region in which the tracking pedestrian exists in the next next frame and the tracking It is the image which detected the pedestrian. 歩行者の動きの向き及び大きさの算出方法の説明図である。It is explanatory drawing of the calculation method of the direction and magnitude | size of a pedestrian's movement. 図1の歩行者検出装置の画像ECUにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in image ECU of the pedestrian detection apparatus of FIG.

符号の説明Explanation of symbols

1…歩行者検出装置、2…カメラ、3…モニタ、4…画像ECU、10…検出結果保存メモリ、11…予測領域保存メモリ、12…画像入力部、13…歩行者検出部、14…追跡検出部、15…向き算出部、16…動き算出部、17…領域予測部、18…結果表示部   DESCRIPTION OF SYMBOLS 1 ... Pedestrian detection apparatus, 2 ... Camera, 3 ... Monitor, 4 ... Image ECU, 10 ... Detection result storage memory, 11 ... Prediction area | region storage memory, 12 ... Image input part, 13 ... Pedestrian detection part, 14 ... Tracking Detection unit, 15 ... orientation calculation unit, 16 ... motion calculation unit, 17 ... region prediction unit, 18 ... result display unit

Claims (2)

撮像手段と、
前記撮像手段で撮像した撮像画像から移動物体を検出する移動物体検出手段と、
前記移動物体検出手段で検出した移動物体の向きを検出する向き検出手段と、
前記撮像手段で異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出手段と、
前記向き検出手段で検出した移動物体の向きと前記動き検出手段で検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測手段と
を備え、
前記領域予測手段で予測した領域内から移動物体を検出することを特徴とする移動物体検出装置。
Imaging means;
Moving object detection means for detecting a moving object from a captured image captured by the imaging means;
Direction detecting means for detecting the direction of the moving object detected by the moving object detecting means;
Motion detection means for detecting the movement of the moving object from the position of the moving object detected from each captured image captured at different times by the imaging means;
A region prediction unit that predicts a region where a moving object exists in a captured image based on the direction of the moving object detected by the direction detection unit and the movement of the moving object detected by the motion detection unit;
A moving object detection apparatus for detecting a moving object from within an area predicted by the area prediction means.
撮像ステップと、
前記撮像ステップで撮像した撮像画像から移動物体を検出する移動物体検出ステップと、
前記移動物体検出ステップで検出した移動物体の向きを検出する向き検出ステップと、
前記撮像ステップで異なる時間に撮像した各撮像画像から各々検出された移動物体の位置から移動物体の動きを検出する動き検出ステップと、
前記向き検出ステップで検出した移動物体の向きと前記動き検出ステップで検出した移動物体の動きに基づいて撮像画像における移動物体の存在する領域を予測する領域予測ステップと
を含み、
前記領域予測ステップで予測した領域内から移動物体を検出することを特徴とする移動物体検出方法。
Imaging step;
A moving object detection step of detecting a moving object from the captured image captured in the imaging step;
A direction detecting step for detecting a direction of the moving object detected in the moving object detecting step;
A motion detection step of detecting the motion of the moving object from the position of the moving object detected from each captured image captured at different times in the imaging step;
A region prediction step of predicting a region where a moving object exists in a captured image based on the direction of the moving object detected in the direction detection step and the movement of the moving object detected in the motion detection step;
A moving object detection method, comprising: detecting a moving object from the area predicted in the area prediction step.
JP2005013084A 2005-01-20 2005-01-20 Moving object detection apparatus and moving object detection method Expired - Fee Related JP4609076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005013084A JP4609076B2 (en) 2005-01-20 2005-01-20 Moving object detection apparatus and moving object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005013084A JP4609076B2 (en) 2005-01-20 2005-01-20 Moving object detection apparatus and moving object detection method

Publications (2)

Publication Number Publication Date
JP2006202047A true JP2006202047A (en) 2006-08-03
JP4609076B2 JP4609076B2 (en) 2011-01-12

Family

ID=36959987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005013084A Expired - Fee Related JP4609076B2 (en) 2005-01-20 2005-01-20 Moving object detection apparatus and moving object detection method

Country Status (1)

Country Link
JP (1) JP4609076B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152672A (en) * 2006-12-19 2008-07-03 Fujitsu Ten Ltd Image recognition apparatus, image recognition method and electronic control apparatus
JP2009217448A (en) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp Human tracking system using image information
JP2010183601A (en) * 2010-03-12 2010-08-19 Casio Computer Co Ltd Image capturing apparatus and its program
JP2010257414A (en) * 2009-04-28 2010-11-11 Toyota Central R&D Labs Inc Two-wheeled vehicle detection device and program
JP2011077772A (en) * 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Apparatus for assisting checking of surroundings
US8411997B2 (en) 2008-01-31 2013-04-02 Casio Computer Co., Ltd. Image capture device and program storage medium
JP2015132969A (en) * 2014-01-14 2015-07-23 株式会社デンソー Movable body detector and movable body detection method
JPWO2015182135A1 (en) * 2014-05-30 2017-04-20 パナソニックIpマネジメント株式会社 Sensing system and driving support system
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2021516817A (en) * 2018-03-23 2021-07-08 センスタイム グループ リミテッド Methods, vehicle control methods and devices for predicting the direction of motion of a target object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06231252A (en) * 1993-02-04 1994-08-19 Toshiba Corp Method for tracking moving object on monitoring picture
JP2004210213A (en) * 2003-01-08 2004-07-29 Toyota Central Res & Dev Lab Inc Information providing device
JP2004268829A (en) * 2003-03-11 2004-09-30 Denso Corp Pedestrian collision risk determining device for vehicle
JP2004341953A (en) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd Face portion tracking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06231252A (en) * 1993-02-04 1994-08-19 Toshiba Corp Method for tracking moving object on monitoring picture
JP2004210213A (en) * 2003-01-08 2004-07-29 Toyota Central Res & Dev Lab Inc Information providing device
JP2004268829A (en) * 2003-03-11 2004-09-30 Denso Corp Pedestrian collision risk determining device for vehicle
JP2004341953A (en) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd Face portion tracking device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152672A (en) * 2006-12-19 2008-07-03 Fujitsu Ten Ltd Image recognition apparatus, image recognition method and electronic control apparatus
US8090147B2 (en) 2006-12-19 2012-01-03 Fujitsu Ten Limited Matching object and reference pattern images using search window size widths and heights to predict object collision
US8411997B2 (en) 2008-01-31 2013-04-02 Casio Computer Co., Ltd. Image capture device and program storage medium
JP2009217448A (en) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp Human tracking system using image information
JP2010257414A (en) * 2009-04-28 2010-11-11 Toyota Central R&D Labs Inc Two-wheeled vehicle detection device and program
JP2011077772A (en) * 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Apparatus for assisting checking of surroundings
JP2010183601A (en) * 2010-03-12 2010-08-19 Casio Computer Co Ltd Image capturing apparatus and its program
WO2015107877A1 (en) * 2014-01-14 2015-07-23 株式会社デンソー Moving object detection device and moving object detection method
JP2015132969A (en) * 2014-01-14 2015-07-23 株式会社デンソー Movable body detector and movable body detection method
JPWO2015182135A1 (en) * 2014-05-30 2017-04-20 パナソニックIpマネジメント株式会社 Sensing system and driving support system
US11397248B2 (en) 2014-05-30 2022-07-26 Nuvoton Technology Corporation Japan Sensing system and driving support system
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11113538B2 (en) 2014-09-26 2021-09-07 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2021516817A (en) * 2018-03-23 2021-07-08 センスタイム グループ リミテッド Methods, vehicle control methods and devices for predicting the direction of motion of a target object
JP7101255B2 (en) 2018-03-23 2022-07-14 センスタイム グループ リミテッド Methods, vehicle control methods and devices for predicting the direction of motion of a target object
US11710243B2 (en) 2018-03-23 2023-07-25 Sensetime Group Limited Method for predicting direction of movement of target object, vehicle control method, and device

Also Published As

Publication number Publication date
JP4609076B2 (en) 2011-01-12

Similar Documents

Publication Publication Date Title
JP4609076B2 (en) Moving object detection apparatus and moving object detection method
US11741696B2 (en) Advanced path prediction
EP2463843B1 (en) Method and system for forward collision warning
JP4173901B2 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
JP4173902B2 (en) Vehicle periphery monitoring device
JP5904925B2 (en) Vehicle periphery monitoring device
WO2010125833A1 (en) Device for monitoring area around vehicle
JP5535816B2 (en) Moving object prediction apparatus and program
JP2011257984A (en) Object detection device and program
JP2013225295A5 (en)
JP2011180982A (en) Lane marker detecting apparatus
US20130010112A1 (en) Object detection apparatus and storage medium storing object detection program
JP2013225295A (en) Collision warning system taking azimuth information into consideration
JP4631036B2 (en) Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof
JP6520740B2 (en) Object detection method, object detection device, and program
JP4937844B2 (en) Pedestrian detection device
JP2009053818A (en) Image processor and method thereof
JP2008282067A (en) Approach object detection device and approaching object detection program
Chen et al. Vision-based road bump detection using a front-mounted car camcorder
JP6822571B2 (en) Terminal device, risk prediction method, program
JP4742695B2 (en) Gaze recognition apparatus and gaze recognition method
JP2008066953A (en) Image monitoring apparatus
JP4075879B2 (en) Vehicle collision warning device and vehicle collision warning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4609076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees