JP5320828B2 - Pedestrian detection device and pedestrian detection method - Google Patents

Pedestrian detection device and pedestrian detection method Download PDF

Info

Publication number
JP5320828B2
JP5320828B2 JP2008146892A JP2008146892A JP5320828B2 JP 5320828 B2 JP5320828 B2 JP 5320828B2 JP 2008146892 A JP2008146892 A JP 2008146892A JP 2008146892 A JP2008146892 A JP 2008146892A JP 5320828 B2 JP5320828 B2 JP 5320828B2
Authority
JP
Japan
Prior art keywords
target
pedestrian
region
area
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008146892A
Other languages
Japanese (ja)
Other versions
JP2009294842A (en
Inventor
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008146892A priority Critical patent/JP5320828B2/en
Publication of JP2009294842A publication Critical patent/JP2009294842A/en
Application granted granted Critical
Publication of JP5320828B2 publication Critical patent/JP5320828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pedestrian detection apparatus and a pedestrian detection method for preventing background from being erroneously determined as pedestrians. <P>SOLUTION: The pedestrian detection apparatus has a camera 10, a feature point extraction part 21 for extracting feature points from a captured image, a movement information calculation part 22 for calculating movement information including moving speed and/or the moving direction about the extracted feature points, a determination target extraction part 31 for extracting a target area including a moving target solid from the captured image according to the calculated feature point movement information, and a pedestrian determination means 34 for comparing the movement information about the extracted target area with the movement information about a comparison area set around the target area, and determining whether or not the target solid included in the extracted target area is a pedestrian according to the result of comparing the movement information. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、撮像された画像に基づいて歩行者を検出する歩行者検出装置及び歩行者検出方法に関する。   The present invention relates to a pedestrian detection device and a pedestrian detection method for detecting a pedestrian based on a captured image.

車載カメラの撮像画像からオプティカルフロー(画像速度情報)を利用して歩行者や車両等の移動体を検出する移動体検出装置と移動検出方法が提案されている。例えば、撮像画像のオプティカルフローを求め、移動体の動きに基づいて抽出された撮像画像の背景のオプティカルフローと撮像画像全体のオプティカルフローとの比較により、移動体を検出する移動体検出方法が提案されている(特許文献1参照)。 A moving body detection device and a movement detection method for detecting a moving body such as a pedestrian or a vehicle using an optical flow (image speed information) from a captured image of an in-vehicle camera have been proposed. For example, a moving object detection method is proposed in which an optical flow of a captured image is obtained, and the moving object is detected by comparing the optical flow of the background of the captured image extracted based on the movement of the moving object and the optical flow of the entire captured image. (See Patent Document 1).

特開2004−56763号公報Japanese Patent Laid-Open No. 2004-56763

従来の移動体検出装置または移動体検出方法では、移動体を検出するために撮像画像と背景のオプティカルフローを正確に算出する必要があるが、実際の環境にて撮像される画像では、様々な形状のエッジが複雑に組み合わさり、これら各画素の時間的な対応付けも複雑であるため、正確なオプティカルフローを算出することが難しい。このため、単純に撮像画像のオプティカルフローと背景のオプティカルフローを比較しただけでは、背景を歩行者と判定する誤検出が発生する可能性があるという問題があった。   In the conventional moving body detection apparatus or the moving body detection method, it is necessary to accurately calculate the captured image and the optical flow of the background in order to detect the moving body. It is difficult to calculate an accurate optical flow because the edges of the shape are combined in a complicated manner and the temporal association of these pixels is also complicated. For this reason, there has been a problem that erroneous detection of determining the background as a pedestrian may occur simply by comparing the optical flow of the captured image with the optical flow of the background.

本願発明が解決しようとする課題は、背景を歩行者として誤検出することを低減させる歩行者検出装置及び歩行者検出方法を提供することである。   The problem to be solved by the present invention is to provide a pedestrian detection device and a pedestrian detection method that reduce erroneous detection of the background as a pedestrian.

本発明は、撮像画像から抽出された対象領域の移動情報と対象領域の周囲に設定された比較領域の移動情報とに基づいて、抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定することにより、上記課題を解決する。   In the present invention, based on the movement information of the target area extracted from the captured image and the movement information of the comparison area set around the target area, the target three-dimensional object included in the extracted target area is a pedestrian. The above-mentioned problem is solved by determining whether or not.

本発明によれば、対象立体物を含む対象領域の移動情報と比較領域の移動情報とを比較することにより、近傍に存在する背景に対する対象立体物の相対的な動きを観察することができるので、背景を歩行者として誤検出することを低減させることができる。   According to the present invention, by comparing the movement information of the target area including the target three-dimensional object and the movement information of the comparison area, it is possible to observe the relative movement of the target three-dimensional object with respect to the background existing in the vicinity. It is possible to reduce erroneous detection of the background as a pedestrian.

<第1実施形態>
図1は、歩行者検出装置100を含む車載装置1000のブロック構成の一例を示す図である。本実施形態の歩行者検出装置100は、車両に搭載され、車両の前方(進行方向に沿った前方)の撮像画像に基づいて歩行者を検出する装置である。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a block configuration of an in-vehicle device 1000 including a pedestrian detection device 100. The pedestrian detection device 100 according to the present embodiment is a device that is mounted on a vehicle and detects a pedestrian based on a captured image in front of the vehicle (front along the traveling direction).

図1に示すように、本実施形態の車載装置1000は、歩行者検出装置100と、この歩行者検出装置100から歩行者検出情報を取得し、取得した歩行者検出情報に基づく情報をユーザ又は車両側に出力する車両コントローラ200等の外部装置とを有する。外部装置としては、図1に示すように、車両の駆動を制御する車両コントローラ200の他、歩行者の存在を知らせる警報装置300、歩行者の存在に応じた走行支援を行う走行支援装置400、ディスプレイ及び/又はスピーカを有し、歩行者の存在に関する情報を提示する出力装置500を一又は二以上備える。これら本実施形態の歩行者検出装置100、車両コントローラ200、警報装置300、走行支援装置400、出力装置500の演算処理は、CPU、MPU、DSP、FPGAなどの動作回路を組み合わせて構成された処理手段により実行される。   As shown in FIG. 1, the in-vehicle device 1000 of the present embodiment acquires pedestrian detection information from the pedestrian detection device 100 and the pedestrian detection device 100, and receives information based on the acquired pedestrian detection information as a user or And an external device such as a vehicle controller 200 that outputs to the vehicle side. As an external device, as shown in FIG. 1, in addition to a vehicle controller 200 that controls driving of the vehicle, an alarm device 300 that notifies the presence of a pedestrian, a travel support device 400 that provides travel support according to the presence of the pedestrian, One or more output devices 500 having a display and / or speakers and presenting information regarding the presence of a pedestrian are provided. The arithmetic processing of the pedestrian detection device 100, the vehicle controller 200, the alarm device 300, the travel support device 400, and the output device 500 of the present embodiment is a process configured by combining operation circuits such as a CPU, MPU, DSP, and FPGA. Executed by means.

なお、これらの装置の処理手段は、CAN(Controller Area Network)などの車載LANにより接続される。   Note that the processing means of these devices are connected by an in-vehicle LAN such as a CAN (Controller Area Network).

本実施形態の歩行者検出装置100は、カメラ10と、カメラ10の撮像データを記憶する画像メモリ11と、撮像された画像を処理する画像処理部20と、判定処理部30とを備える。   The pedestrian detection device 100 according to the present embodiment includes a camera 10, an image memory 11 that stores imaging data of the camera 10, an image processing unit 20 that processes a captured image, and a determination processing unit 30.

以下、画像処理装置100が備える各構成について説明する。 Hereinafter, each configuration provided in the image processing apparatus 100 will be described.

カメラ10は、例えばCCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を有するカメラであり、所定周期で連続的に車両周囲(車両前方、車両後方、車両側方など)を撮像し、フレーム毎に撮像された画像を画像メモリ11に出力する画像メモリ11は、画像データをアクセス可能な状態で記憶する。画像メモリ11として、HDD、CD、MD、DVD、光ディスクその他の記録媒体を用いる。   The camera 10 is a camera having an image sensor such as a CCD (Charge-Coupled Devices) or a CMOS (Complementary Metal-Oxide Semiconductor), for example, continuously around the vehicle (vehicle front, vehicle rear, vehicle side, etc.) in a predetermined cycle. The image memory 11 that outputs the image captured for each frame to the image memory 11 stores the image data in an accessible state. As the image memory 11, an HDD, CD, MD, DVD, optical disk, or other recording medium is used.

図2にカメラ10の設置例を示す。図2に示すように、カメラ10は車両の室内上部前方に設置される。同図に示すように、本実施形態では、1つのカメラ10を車両に設置する。つまり、本実施形態では、単眼のカメラ10で車両周囲を撮像する。   FIG. 2 shows an installation example of the camera 10. As shown in FIG. 2, the camera 10 is installed in front of the upper part of the vehicle interior. As shown in the figure, in the present embodiment, one camera 10 is installed in the vehicle. That is, in this embodiment, the surroundings of the vehicle are imaged by the monocular camera 10.

さらに、カメラ10は、その光軸LSが車両前方正面方向(Z方向)に向き、撮像面の水平軸X(図示省略)は路面と平行となるように、また撮像面の垂直軸Y(図示省略)が路面と略垂直になるように設定される。   Further, the camera 10 has its optical axis LS oriented in the front front direction (Z direction) of the vehicle, the horizontal axis X (not shown) of the imaging surface is parallel to the road surface, and the vertical axis Y (not shown) of the imaging surface. (Omitted) is set to be approximately perpendicular to the road surface.

カメラ10により撮像された画像(自車両前方の画像)の例を図3に示す。カメラ10により撮像された撮像画像は、画像左上頂点を原点として左から右へ延在するx軸、上から下へ延在するy軸により定義されるxy座標系により表される。図3に示す画像例は、左右の白線、外壁などの走路の境界線と、道路の左側から右側へ移動する歩行者が撮像画像に含まれる。   An example of an image captured by the camera 10 (an image ahead of the host vehicle) is shown in FIG. The captured image captured by the camera 10 is represented by an xy coordinate system defined by an x axis extending from left to right and an y axis extending from top to bottom with the upper left vertex of the image as the origin. In the image example shown in FIG. 3, the captured image includes left and right white lines, boundary lines of roads such as outer walls, and pedestrians moving from the left side to the right side of the road.

次に、画像処理部20について説明する。画像処理部20は、特徴点抽出部21と、移動情報算出部22と、グループ化部23と、座標変換部24とを備え、カメラ10により撮像された撮像画像の処理を行う。   Next, the image processing unit 20 will be described. The image processing unit 20 includes a feature point extraction unit 21, a movement information calculation unit 22, a grouping unit 23, and a coordinate conversion unit 24, and processes a captured image captured by the camera 10.

まず、特徴点抽出部21について説明する。特徴点抽出部21は、カメラ10により撮像された撮像画像から特徴点を抽出する。この特徴点抽出部21は、カメラ10により撮像された画像を画像メモリ11から取得し、取得した撮像画像を所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。図4(a)に、抽出された垂直方向のエッジ例を示す。次に、抽出された各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する(図4(b)参照)。さらに、細線化されたエッジのエッジ幅が一定の幅となるように、例えば3画素分の幅となるように、エッジを水平方向に拡張する(図4(c)参照)。この操作により、抽出したエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得る。   First, the feature point extraction unit 21 will be described. The feature point extraction unit 21 extracts feature points from the captured image captured by the camera 10. The feature point extraction unit 21 acquires an image captured by the camera 10 from the image memory 11, and binarizes the acquired captured image using a predetermined threshold value, thereby extracting the edge of an object present in the image. Extract. FIG. 4A shows an example of the extracted vertical edge. Next, thinning processing is performed on each extracted edge to narrow the edge width, and the center of the edge is accurately set (see FIG. 4B). Further, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a constant width, for example, a width corresponding to three pixels (see FIG. 4C). By this operation, the extracted edges are normalized, and an edge image having a uniform width for each edge is obtained.

移動情報算出部22は、特徴点抽出部21により抽出された特徴点及びこの特徴点周囲に対応する画素について、その移動方向及び/又は移動速度を含む移動情報をそれぞれ算出する。求めた特徴部の移動速度と移動方向は、撮像タイミング識別子又はフレーム識別子と対応づけて記憶する。この画素の移動情報は、画素の特定情報とともに、「画素の移動速度」と「画素の移動方向」を含む。なお、一の画像データ中に複数の特徴部が存在する場合は、すべての特徴部についてその移動情報を算出する。   The movement information calculation unit 22 calculates movement information including the movement direction and / or movement speed of the feature points extracted by the feature point extraction unit 21 and the pixels corresponding to the periphery of the feature points. The obtained moving speed and moving direction of the characteristic part are stored in association with the imaging timing identifier or the frame identifier. This pixel movement information includes “pixel movement speed” and “pixel movement direction” along with pixel identification information. When a plurality of feature parts exist in one image data, the movement information is calculated for all the feature parts.

以下、本実施形態の移動情報算出部22について説明する。   Hereinafter, the movement information calculation unit 22 of the present embodiment will be described.

本実施形態の移動情報算出部22は、カメラ10により撮像された物体の画像の情報に基づいて、物体の外延に対応するエッジが検出された位置の画素のカウント値をカウントアップし、このカウント値の傾きに基づいて、エッジの移動速度及び移動方向を算出する。   The movement information calculation unit 22 according to the present embodiment counts up the count value of the pixel at the position where the edge corresponding to the extension of the object is detected based on the information of the image of the object captured by the camera 10. Based on the slope of the value, the moving speed and moving direction of the edge are calculated.

また、移動情報算出部20は、撮像タイミングが異なる画像データについて、各画像データに含まれるエッジに対応する画素の画素カウンタのカウンタ値を所定の手法で更新する。ここで、画素カウンタとは、各画素に設定されたカウンタであり、画素がエッジに対応する場合は画素カウンタのカウンタ値を+1加算し、画素がエッジに対応しない場合は画素カウンタのカウンタ値を0とする(初期化する)カウンタである。このカウンタ値の更新処理を、カメラ10により所定周期で繰り返し撮像されるフレーム毎に行う。この操作を行うと、エッジに対応する時間が長い画素は、対応する画素カウンタのカウンタ値が大きくなり、他方、エッジに対応する時間が短い画素は、対応する画素カウンタのカウンタ値が小さくなる。   In addition, the movement information calculation unit 20 updates the counter value of the pixel counter of the pixel corresponding to the edge included in each image data with a predetermined method for image data with different imaging timings. Here, the pixel counter is a counter set for each pixel. When the pixel corresponds to the edge, the counter value of the pixel counter is incremented by +1. When the pixel does not correspond to the edge, the counter value of the pixel counter is increased. This is a counter that is set to 0 (initialized). This counter value update process is performed for each frame that is repeatedly imaged by the camera 10 in a predetermined cycle. When this operation is performed, the counter value of the corresponding pixel counter increases for a pixel having a long time corresponding to an edge, while the counter value of the corresponding pixel counter decreases for a pixel having a short time corresponding to an edge.

この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表していることになる。このため、このカウンタ値に基づいて、撮像画像上におけるエッジの移動方向と移動速度とを算出する。画像の座標系は方位を表しているため、エッジ、及びこのエッジに対応する特徴部の移動方向と移動速度を求めることができる。   This change in the counter value of the pixel counter represents the moving direction and moving amount of the edge. For this reason, the moving direction and moving speed of the edge on the captured image are calculated based on the counter value. Since the coordinate system of the image represents the azimuth, the moving direction and moving speed of the edge and the feature corresponding to the edge can be obtained.

さらに、図4に基づいて、移動情報算出部22が行う移動情報の算出手法を説明する。図4は移動情報の算出処理を説明するための図、すなわち、抽出されたエッジが正規化されたエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する処理を具体的に説明するための図である。   Furthermore, the movement information calculation method performed by the movement information calculation unit 22 will be described with reference to FIG. FIG. 4 is a diagram for explaining the movement information calculation process, that is, a process for obtaining an edge image in which the extracted edge is normalized and calculating the movement direction and the movement speed from the edge counter value (dwell time). It is a figure for demonstrating concretely.

まず、特徴点抽出部21は、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。図4(a)は抽出された垂直方向のエッジの2値化画像例を示す。   First, the feature point extraction unit 21 performs binarization processing on the edge image. The binarization process is a process in which a pixel at a position where an edge is detected is set to 1 and a pixel at a position where no edge is detected is set to 0. FIG. 4A shows an example of the binarized image of the extracted vertical edge.

次に、図4(b)に示すように、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。つまり、抽出された各エッジに対して細線化処理を行ってエッジ幅を絞る。本例では、図4(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定する。なお、本例では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。   Next, as shown in FIG. 4B, thinning processing is performed on the generated binary image. The thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. That is, the edge width is narrowed by performing thinning processing on each extracted edge. In this example, as shown in FIG. 4B, the edge width of the edge is thinned until the predetermined pixel width becomes one pixel. In this way, the edge is thinned to a predetermined pixel width, thereby setting the center position as the center of the edge. Note that, in this example, an example in which one pixel is thinned is shown, but the number of pixels to be thinned is not particularly limited.

次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅が一定の幅となるように膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。本例では、細線化されたエッジのエッジ幅が3画素分の幅となるように、エッジを水平方向に膨張させる。この処理により、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得る。   Next, an expansion process is performed to expand the edge width of the thinned edge. The expansion process is performed so that the edge width is constant from the center position set by thinning toward the edge movement direction, and the edge width is also changed from the center position to the direction opposite to the edge movement direction. It is a process of expanding. In this example, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a width corresponding to three pixels. By this process, the extracted edges are normalized, and an edge image having a uniform width is obtained.

具体的に、図4(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。   Specifically, as shown in FIG. 4C, one pixel is expanded from the edge center position x0 in the edge movement direction (the positive direction of the x-axis) and opposite to the edge movement direction from the edge center position x0. The edge width is expanded to 3 pixels by expanding one pixel in the direction (negative direction of the x axis).

このように細線化処理と膨張処理とを行うことによって、抽出されたエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一し、規格化する。   By performing the thinning process and the expansion process in this way, the edge width of the extracted edge image is standardized by standardizing to a predetermined width in the edge moving direction.

次に、移動情報算出部22が移動情報を算出するために行う、カウントアップ処理について説明する。ここに言うカウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。   Next, the count-up process performed for the movement information calculation unit 22 to calculate movement information will be described. The count-up process mentioned here is a process for counting up the value of the memory address corresponding to the position of the pixel where the edge is detected and initializing the value of the memory address corresponding to the position of the pixel where the edge is not detected. It is.

以下、図4(c)〜(f)に基づいて移動情報算出部22によるエッジのカウントアップ処理について説明する。説明の便宜のため、ここでは、エッジがx軸の正方向に移動する場合を例にして説明する。エッジがx軸の負方向やy軸方向、あるいは2次元的に移動する場合においても、基本的な処理手法は共通する。   Hereinafter, the edge count-up process by the movement information calculation unit 22 will be described with reference to FIGS. For convenience of explanation, here, a case where the edge moves in the positive direction of the x-axis will be described as an example. Even when the edge moves in the negative x-axis direction, the y-axis direction, or two-dimensionally, the basic processing method is common.

図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張される。   As shown in FIG. 4C, the edge has a center position of the edge at a position x0 in a certain frame. Then, the pixel is expanded from the center position to the position x0 + 1 of one pixel in the edge moving direction, and similarly expanded from the center position to the position x0-1 of one pixel in the direction opposite to the edge moving direction.

このようなエッジが検出された位置、「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は+1カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。   The count value of the memory address corresponding to the position where such an edge is detected, “x0-1”, “x0”, “x0 + 1” is incremented by +1. On the other hand, the count value of the memory address corresponding to the position where the edge is not detected is reset.

例えば、図4(d)では、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各1カウントアップされる。その結果、位置「x0+1」のカウント値は「1」、位置「x0」のカウント値は「3」、位置「x0−1」のカウント値は「5」である。   For example, in FIG. 4D, edges are detected at positions “x0-1”, “x0”, and “x0 + 1” at time t. Therefore, the count value of the memory address corresponding to each position is incremented by one. As a result, the count value at the position “x0 + 1” is “1”, the count value at the position “x0” is “3”, and the count value at the position “x0-1” is “5”.

次に、図4(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2、位置「x0」のカウント値は4、位置「x0−1」のカウント値は6となる。   Next, as shown in FIG. 4E, since the edge does not move even at time t + 1, the edge is detected at each of the positions “x0-1”, “x0”, and “x0 + 1”. . Therefore, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are further incremented by one. As a result, the count value at position “x0 + 1” is 2, the count value at position “x0” is 4, and the count value at position “x0-1” is 6.

さらに、図4(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値はカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図4(f)に示すように位置「x0+2」のカウント値は1、位置「x0+1」のカウント値は3、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」になっている。   Further, as shown in FIG. 4F, at time t + 2, the edge is shifted by one pixel in the positive direction of the x-axis, and the edge is detected at positions “x0”, “x0 + 1”, and “x0 + 2”. Therefore, the count value of the memory address corresponding to the positions “x0”, “x0 + 1”, and “x0 + 2” where the edge is detected is counted up. On the other hand, the count value at the position “x0-1” where no edge is detected is reset to “zero”. As a result, the count value at position “x0 + 2” is 1, the count value at position “x0 + 1” is 3, and the count value at position “x0” is 5, as shown in FIG. Further, the count value at the position “x0-1” where no edge is detected is reset to “0”.

このように、移動情報算出部22は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする。   As described above, the movement information calculation unit 22 counts up the count value of the memory address corresponding to the position where the edge is detected, and resets the count value of the memory address corresponding to the position where the edge is not detected.

なお、図4に基づく説明においては、カウント値を検出する位置として、エッジの中心位置「x0」と、この中心位置からエッジの移動方向へ1画素の位置「x0+1」と、中心位置からエッジの移動方向と反対方向に1画素の位置「x0−1」の3箇所でカウント値を検出するが、後述するカウント値の傾きが求められれば、カウント値を検出するポイントの配置、数は限定されない。つまり、エッジの移動方向に対して2箇所以上においてカウント値を検出できれば、カウント値の検出箇所はいくつであってもよい。   In the description based on FIG. 4, as the position for detecting the count value, the center position “x0” of the edge, the position “x0 + 1” of one pixel in the moving direction of the edge from the center position, and the position of the edge from the center position. The count value is detected at three positions of the position “x0-1” of one pixel in the direction opposite to the moving direction. However, if the slope of the count value described later is obtained, the arrangement and number of points for detecting the count value are not limited. . That is, as long as the count value can be detected at two or more locations in the edge moving direction, the count value may be detected in any number.

また、エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図4の例では、連続する時刻tのフレームと時刻t+1のフレームにおいて、エッジは位置x0において2回検出される。したがって、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。特に、エッジのカウント値の中で最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表す。   If the frame rate is set sufficiently higher than the speed at which the edge moves, the edge is detected a plurality of times at the same position between consecutive frames. For example, in the example of FIG. 4, the edge is detected twice at the position x0 in the continuous frame at time t and frame at time t + 1. Therefore, when the count value of the memory address corresponding to the position where the edge is detected is counted up, the count value correlates with the time (number of frames, dwell time) at which the edge is detected at that position. In particular, the smallest count value h of the edge count values represents how many frames the edge has been in the same position after moving.

次に、本実施形態における、エッジの移動速度、移動方向及び位置の算出手法について説明する。本実施形態では、カウント値の傾きを算出し、この傾きに基づいて、エッジの移動速度、移動方向及び位置を算出する。   Next, an edge moving speed, moving direction, and position calculation method in this embodiment will be described. In this embodiment, the inclination of the count value is calculated, and the moving speed, moving direction, and position of the edge are calculated based on this inclination.

例えば、図4(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出できる。   For example, in the case of FIG. 4E, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are “6”, “4”, and “2”, respectively. When the count value “2” of “x0 + 1” is subtracted from the count value “6” of the position “x0-1”, the slope H of the count value can be calculated as H = (6-2) / 2 = 2.

これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味する。つまり、傾きHを算出することにより、エッジが、位置x0にある1画素を通過するのに要する時間(フレーム数)を算出することになる。   This means H = {(time from the edge moving to the position x0-1 to the present) − (time after the edge moves to the position x0 + 1)} / (2 pixels). That is, by calculating the inclination H, the time (number of frames) required for the edge to pass through one pixel at the position x0 is calculated.

したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要するかに相当し、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出する。図4(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出する。同様に、図4(f)でもH=(5−1)/2=2となるので、エッジの移動速度は1/2(画素/フレーム)になる。   Therefore, the slope H of the count value corresponds to how many frames it takes for the edge to move by one pixel, and the edge moving speed 1 / H is calculated based on the slope H of the count value. In FIG. 4E, since 2 frames are required to move 1 pixel, the edge moving speed is calculated as 1/2 (pixel / frame). Similarly, in FIG. 4F, H = (5-1) / 2 = 2, so that the edge moving speed is ½ (pixel / frame).

続いて、カウント値の大小に基づいて、エッジの移動方向を判断する手法について説明する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。   Next, a method for determining the edge moving direction based on the magnitude of the count value will be described. Since the edge moves to a position where there is no edge and the count value at the position where the edge is newly detected is 1, the count value at each position is the smallest value. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large. By using this tendency, the moving direction of the edge can be determined.

さらに、エッジが移動する速度に比べてフレームレートが十分に高く設定されていれば、検出対象物は等速移動をしていると仮定することができる。また、現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。これらのことにより、エッジの位置は、エッジの中心位置をx0とすると、「エッジの位置=x0+h/H」により求めることができる。例えば、図4(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は「1(フレーム)×{1/2(画素/フレーム)}=0.5画素」だけ位置x0から移動していると算出することができる。   Furthermore, if the frame rate is set sufficiently higher than the speed at which the edge moves, it can be assumed that the detection target object moves at a constant speed. In addition, the smallest count value h among the count values at the current position represents the time when the edge is detected at the position, that is, how many frames the edge has moved to stay at the same position. ing. Thus, the edge position can be obtained by “edge position = x0 + h / H” where x0 is the center position of the edge. For example, in FIG. 4F, the edge speed is ½ (pixel / frame), and the edge is detected at the same position continuously for one frame at time t + 2, so the position of the edge at time t + 2 Can be calculated as moving from the position x0 by “1 (frame) × {1/2 (pixel / frame)} = 0.5 pixel”.

以上のことから、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。   From the above, it is possible to count up the count value of the memory address corresponding to the position where the edge is detected, and to calculate the moving speed and moving direction of the edge based on the slope of the counted up count value.

また、移動情報算出部22は、撮像画像上に存在するエッジの移動情報を所定の階級値に分類し、移動情報の特徴を表現する移動画像を生成する。図5に移動画像の一例を示す。図5に示すように、本実施形態の移動画像では、移動情報が検出されたエッジの画素を丸印で表し、移動速度が速い画素ほど点を大きい丸印で表すことにより、画素の移動情報を表現する。また、移動方向が右、すなわち右方向へ移動する画素を塗りつぶした黒印で表し、移動方向が左、すなわち左方向へ移動する画素を色抜きの白印で表すことにより、画素の移動方向を表現する。図5においては、自車両の走行路右側の外壁および白線からは画像の右側へ向かう速度が検出されており、走行路左側の外壁からは画像の左側及び右側へ向かう速度が検出されている。これは、左操舵から中立へ戻す状況を示しており、消失点が左側外壁に存在することを示している。また、走行路左側から右へ移動する歩行者では、画像の右側へ向かう速度が検出されている。このように、移動画像は、移動速度と移動方向を含む移動情報を表現できる。   Further, the movement information calculation unit 22 classifies the movement information of the edges existing on the captured image into predetermined class values, and generates a movement image that represents the feature of the movement information. FIG. 5 shows an example of the moving image. As shown in FIG. 5, in the moving image of the present embodiment, the pixel of the edge where the movement information is detected is indicated by a circle, and the pixel having the higher movement speed is indicated by a larger circle so that the pixel movement information is obtained. Express. In addition, the moving direction of the pixel is represented by a solid black mark that represents a pixel that moves to the right, that is, the right direction, and the moving direction is represented by a white mark that represents a pixel that moves to the left, that is, the left direction. Express. In FIG. 5, the speed toward the right side of the image is detected from the outer wall on the right side of the traveling road of the host vehicle and the white line, and the speed toward the left side and the right side of the image is detected from the outer wall on the left side of the traveling path. This shows a situation where the left steering is returned to neutral, and the vanishing point is present on the left outer wall. For a pedestrian who moves from the left side to the right side of the travel path, the speed toward the right side of the image is detected. As described above, the moving image can express movement information including the moving speed and the moving direction.

次に、グループ化部23について説明する。グループ化部23は、移動情報算出部22により算出された移動速度が所定範囲内であるとともに、画像おいて略垂直方向に隣接する画素群をグループ化する。グループ化部23は、算出された移動画像から立体物を抽出するために、移動画像を分割する領域を設定する。すなわち、図6に示すように、移動画像上に短冊状の複数の領域を設定し、移動画像を複数の領域で分割する。次に、各領域毎に、画像の縦方向において所定域値内の移動速度で連続する画素をグループ化し、グループ化された画素に基づいて立体物を検出する。具体的には、移動画像(図5参照)を縦方向(y軸方向)に探索する。移動情報を持った画素Aが見つかった場合、画素Aに隣接する画素Bを探索する。画素Bが移動情報を有し、かつ画素Aと画素Bの速度方向の差が閾値Re以内であり、かつ、画素Aと画素Bの速度の大きさの差が閾値Tv以内であれば、同じ移動速度で縦に連続していると判断する。次に、画素Bに隣接する画素Cについても同様に移動情報の有無を判断し、画素Aと画素Cの速度の方向の差が閾値Re以内か、速度の大きさの差が閾値Tv以内かを判断する。以後、いずれかの条件を満たさなくなるまで繰り返す。ここで「縦方向に移動情報が共通する画素が連続する」という特徴は、立体の画像上の特徴である。すなわち、画像の下部から上部に向かって各領域を走査し、領域内に速度を持った画素が存在する場合は、その画素の上方に隣接する速度を持った画素との速度差を比較する。その速度差が閾値T1以下である場合には、車両に対して同じ速度で移動する物体であると推定できることから、同じ物体であると判定してグループ化を行う。   Next, the grouping unit 23 will be described. The grouping unit 23 groups the pixel groups adjacent in the substantially vertical direction in the image while the movement speed calculated by the movement information calculation unit 22 is within a predetermined range. The grouping unit 23 sets an area for dividing the moving image in order to extract a three-dimensional object from the calculated moving image. That is, as shown in FIG. 6, a plurality of strip-shaped areas are set on the moving image, and the moving image is divided into the plurality of areas. Next, for each region, continuous pixels are grouped at a moving speed within a predetermined range value in the vertical direction of the image, and a three-dimensional object is detected based on the grouped pixels. Specifically, the moving image (see FIG. 5) is searched in the vertical direction (y-axis direction). When a pixel A having movement information is found, a pixel B adjacent to the pixel A is searched. Same if the pixel B has movement information, the difference in the speed direction between the pixel A and the pixel B is within the threshold value Re, and the difference in the speed magnitude between the pixel A and the pixel B is within the threshold value Tv Judged to be continuous vertically at the moving speed. Next, the presence / absence of movement information is similarly determined for the pixel C adjacent to the pixel B, and whether the difference in speed direction between the pixel A and the pixel C is within the threshold value Re or whether the difference in speed magnitude is within the threshold value Tv. Judging. Thereafter, the process is repeated until one of the conditions is not satisfied. Here, the feature that “pixels having common movement information in the vertical direction are continuous” is a feature on a stereoscopic image. That is, each area is scanned from the lower part to the upper part of the image, and when there is a pixel having speed in the area, the speed difference with the pixel having speed adjacent to the pixel is compared. When the speed difference is equal to or less than the threshold value T1, it can be estimated that the objects move at the same speed with respect to the vehicle.

次に、座標変換部24について説明する。座標変換部24は、画像に含まれる画素を所定の視点から見た俯瞰図における変換座標に変換する。この変換座標は、所定の領域(面積)が与えられるとともに分割領域に分割された変換座標である。まず、座標変換部24は、グループ化部23によりグループ化された画素の上端位置(最も高い位置に存在する画素)と下端位置(最も低い位置に存在する画素)を検出する。この処理により、図6に示す下端位置BL1〜BL16及び上端位置TL1〜TL16が検出される。   Next, the coordinate conversion unit 24 will be described. The coordinate conversion unit 24 converts the pixels included in the image into converted coordinates in an overhead view viewed from a predetermined viewpoint. The conversion coordinates are conversion coordinates that are given a predetermined area (area) and are divided into divided areas. First, the coordinate conversion unit 24 detects the upper end position (the pixel existing at the highest position) and the lower end position (the pixel existing at the lowest position) of the pixels grouped by the grouping unit 23. By this process, lower end positions BL1 to BL16 and upper end positions TL1 to TL16 shown in FIG. 6 are detected.

そして、座標変換部24は、xy平面上において抽出された下端BL1〜BL16および上端TL1〜TL16の中心位置を座標とする下端点BP1〜BP16(図示省略)および上端点TP1〜TP16(図示省略)の位置座標を、規定の面積を備えたZX平面(以下、規定のZX平面と呼ぶ)上の点として3次元の位置座標(実空間上の3次元における位置座標)に変換する。   Then, the coordinate conversion unit 24 has lower end points BP1 to BP16 (not shown) and upper end points TP1 to TP16 (not shown) whose coordinates are the center positions of the lower ends BL1 to BL16 and the upper ends TL1 to TL16 extracted on the xy plane. Are converted into three-dimensional position coordinates (three-dimensional position coordinates in real space) as points on a ZX plane (hereinafter referred to as a prescribed ZX plane) having a prescribed area.

ここで、各点の座標を(x、y)とし、カメラの路面からの高さをCh(m)、カメラの俯角をTr(rad)、画像の縦サイズをIh、画像の横サイズをIw、高さ方向の1画素あたりの角度分解能をPYr(rad)、横方向の1画素あたりの角度分解能をPXr(rad)とすると、xy平面上の点TP1〜TP16及びBP1〜BP16は、次式に従ってZX平面の座標(Z、X)に変換される。   Here, the coordinates of each point are (x, y), the height from the road surface of the camera is Ch (m), the depression angle of the camera is Tr (rad), the vertical size of the image is Ih, and the horizontal size of the image is Iw. When the angular resolution per pixel in the height direction is PYr (rad) and the angular resolution per pixel in the horizontal direction is PXr (rad), the points TP1 to TP16 and BP1 to BP16 on the xy plane are expressed by the following equations: Is converted into coordinates (Z, X) on the ZX plane.

(式1)Z=(Ch)/(TAN(Tr+(y−Ih/2)×PYr))
(式2)X=x×TAN((Z-Iw/2)×PXr)
上端点TP1〜TP16の変換後の点を、上端座標変換点RT1〜RT16とし、下端点BP1〜BP16の変換後の点を下端座標変換点RB1〜RB16とする。一部の対応関係を図7に示す。
(Formula 1) Z = (Ch) / (TAN (Tr + (y−Ih / 2) × PYr))
(Formula 2) X = x × TAN ((Z-Iw / 2) × PXr)
The converted points of the upper end points TP1 to TP16 are referred to as upper end coordinate conversion points RT1 to RT16, and the converted points of the lower end points BP1 to BP16 are referred to as lower end coordinate conversion points RB1 to RB16. Some correspondences are shown in FIG.

座標変換部24により得られた情報は判定処理部24に送出される。また、必要に応じて、移動情報、特徴点に関する情報も判定処理部30へ送出される。   Information obtained by the coordinate conversion unit 24 is sent to the determination processing unit 24. Further, movement information and information on feature points are also sent to the determination processing unit 30 as necessary.

続いて、判定処理部30について説明する。判定処理部30は、画像処理部20により処理された画像に基づいて抽出された対象立体物が歩行者であるか否かを判定し、歩行者を検出する。   Next, the determination processing unit 30 will be described. The determination processing unit 30 determines whether the target three-dimensional object extracted based on the image processed by the image processing unit 20 is a pedestrian, and detects a pedestrian.

具体的に、本実施形態の判定処理部30は、判定対象抽出部31と、歩行者候補抽出部32と、歩行者候補検証部33と、歩行者判定部34とを備える。   Specifically, the determination processing unit 30 of the present embodiment includes a determination target extraction unit 31, a pedestrian candidate extraction unit 32, a pedestrian candidate verification unit 33, and a pedestrian determination unit 34.

以下、判定処理部30が備える各構成について説明する。   Hereinafter, each structure with which the determination process part 30 is provided is demonstrated.

まず、判定対象抽出部31について説明する。判定対象抽出部31は、画像処理部20の移動情報算出部22により算出された特徴点の移動情報に基づいて、撮像された画像の中から移動する対象立体物を含む対象領域を抽出する。 判定対象抽出部31は、本実施形態の歩行者検知装置100が最終的に歩行者を検知する観点から、歩行者の可能性が高い対象立体物を含む対象領域を抽出することが好ましい。歩行者は、立体物であるとともに移動体であるから、歩行者に対応する画像は、立体物としての特徴と移動体としての特徴とを備える。このため、判定対象抽出部31は、判定の対象候補として立体物を抽出する機能及び/又は判定の対象候補として移動体を抽出する機能を有する。立体物の抽出手法及び移動体の抽出手法は、以下に説明する手法のほか、公知の手法を用いることができる。なお、ここで「移動する」とは立体物自身が移動する(能動的に移動する)場合と、歩行者検出装置100が移動することにより、立体物が相対的に移動する場合の両方を含む。   First, the determination target extraction unit 31 will be described. The determination target extraction unit 31 extracts a target region including a moving target three-dimensional object from the captured image based on the movement information of the feature points calculated by the movement information calculation unit 22 of the image processing unit 20. The determination target extraction unit 31 preferably extracts a target region including a target three-dimensional object that is highly likely to be a pedestrian from the viewpoint that the pedestrian detection device 100 of the present embodiment finally detects a pedestrian. Since the pedestrian is a three-dimensional object and a moving object, the image corresponding to the pedestrian includes a feature as a three-dimensional object and a feature as a moving object. For this reason, the determination target extraction unit 31 has a function of extracting a three-dimensional object as a determination target candidate and / or a function of extracting a moving object as a determination target candidate. As a three-dimensional object extraction method and a moving object extraction method, a known method can be used in addition to the method described below. Here, “move” includes both a case where the three-dimensional object itself moves (actively moves) and a case where the three-dimensional object relatively moves as the pedestrian detection device 100 moves. .

特に限定されないが、本実施形態の判定対象抽出部31は、以下の2つの手法により撮像画像から対象立体物を含む対象領域を抽出する。   Although not particularly limited, the determination target extraction unit 31 of the present embodiment extracts a target region including a target three-dimensional object from the captured image by the following two methods.

第1の手法として、判定対象抽出部31は、グループ化部23によりグループ化された画素群のうち、変換座標において最も高い位置(上端)に存在する画素の座標と最も低い位置(下端)に存在する画素の座標とに基づき、撮像された画像の中から対象立体物を含む対象領域を抽出する。   As a first method, the determination target extraction unit 31 sets the pixel coordinates present at the highest position (upper end) and the lowest position (lower end) of the converted coordinates among the group of pixels grouped by the grouping unit 23. Based on the coordinates of the existing pixels, a target area including the target three-dimensional object is extracted from the captured image.

本実施形態の判定対象抽出部31は、グループ化部23によりグループ化された画素群のうち、変換座標において上端に位置する画素の座標が変換座標の領域外に属するとともに、下端に位置する画素の座標がいずれかの分割領域に属する場合は、グループ化された画素群に対応する領域を、対象立体物を含む対象領域として抽出する。例えば、図7に示すOB1のように、上端に位置する画素TP1の変換座標はZX変換座標の領域外に位置し、下端に位置する画素BP1の変換座標はZX変換座標内に位置するため、判定対象抽出部31は、OB1が属する領域を、対象立体物を含む対象領域として抽出する。   The determination target extraction unit 31 according to the present embodiment includes a pixel located at the lower end of the pixel group grouped by the grouping unit 23 while the coordinate of the pixel located at the upper end in the transformation coordinate belongs to the outside of the transformation coordinate area. If the coordinate of belongs to any of the divided regions, the region corresponding to the grouped pixel group is extracted as the target region including the target three-dimensional object. For example, as in OB1 shown in FIG. 7, the conversion coordinate of the pixel TP1 located at the upper end is located outside the area of the ZX conversion coordinate, and the conversion coordinate of the pixel BP1 located at the lower end is located within the ZX conversion coordinate. The determination target extraction unit 31 extracts a region to which OB1 belongs as a target region including a target three-dimensional object.

他方、判定対象抽出部31は、グループ化部23によりグループ化された画素群のうち、変換座標において上端に位置する画素の座標と下端に位置する画素の座標とが共通の分割領域に属する場合は、グループ化された画素群に対応する領域を、平面物を含む領域として抽出する。平面物であるということは立体物ではなく、ましてや歩行者でもないから、抽出された平面物を含む領域は、対象立体物を含む対象領域として抽出しない。例えば、図7に示すTP10とBP10を含む領域(撮像画像における路上の白線に対応)のように、上端に位置する画素TP10の変換座標はZX変換座標の領域55に位置し、下端に位置する画素BP10の変換座標もZX変換座標の領域55内に位置するため、判定対象抽出部31は、この領域を、平面物を含む領域として抽出する。   On the other hand, in the pixel group grouped by the grouping unit 23, the determination target extraction unit 31 includes the coordinate of the pixel located at the upper end and the coordinate of the pixel located at the lower end in the transformed coordinates belonging to a common divided region. Extracts a region corresponding to the grouped pixel group as a region including a planar object. Since it is not a three-dimensional object, or even a pedestrian, it is not a three-dimensional object, and therefore an area including the extracted flat object is not extracted as a target area including the target three-dimensional object. For example, like the region including TP10 and BP10 shown in FIG. 7 (corresponding to the white line on the road in the captured image), the transformed coordinates of the pixel TP10 located at the upper end are located in the ZX transformed coordinate region 55 and located at the lower end. Since the conversion coordinates of the pixel BP10 are also located in the area 55 of the ZX conversion coordinates, the determination target extraction unit 31 extracts this area as an area including a planar object.

また、判定対象抽出部31は、所定間隔に分割されたZX平面の座標(Z、X)において、上端座標変換点RT1〜RT16と下端座標変換点RB1〜RB16とが、ZX平面のいずれの分割領域に属するかに基づいて、立体物の抽出を行う(図7参照)。ここで、車両の上下動に伴いカメラ10の撮像画像が上下に動くことにより、座標変換点の属する領域が変動してしまう可能性がある。この影響を避けるため、ZX平面の分割領域の所定間隔はメーターオーダーで設定する。本実施例では、x軸方向は、−5.25m>x、−5.25≦x<−3.5m、−3.5m≦x<−1.75m、−1.75m≦x<0m、0m≦x<1.75m、1.75m≦x<3.5m、3.5m≦x<5.25m、5.25m≦x、として8分割し、z軸方向は、0≦z<10m、10m≦z<20m、20m≦z<30m、30m≦z<40m、40m≦z<50mとして5分割して、領域11〜領域15、領域21〜領域25、領域31〜領域35、領域41〜領域45、領域51〜領域55、領域61〜領域65、領域71〜領域75、領域81〜領域85を設定する。また、領域11〜領域15を領域10とし、領域21〜領域25を領域20とし、領域31〜領域35を領域30とし、領域41〜領域45を領域40とし、領域51〜領域55を領域50とし、領域61〜領域65を領域60とし、領域71〜領域75を領域70とし、領域81〜領域85を領域80とする。   In addition, the determination target extraction unit 31 determines whether the upper end coordinate conversion points RT1 to RT16 and the lower end coordinate conversion points RB1 to RB16 are divided on the ZX plane in the coordinates (Z, X) of the ZX plane divided at a predetermined interval. A three-dimensional object is extracted based on whether it belongs to a region (see FIG. 7). Here, when the captured image of the camera 10 moves up and down as the vehicle moves up and down, the area to which the coordinate conversion point belongs may change. In order to avoid this influence, the predetermined interval of the divided areas on the ZX plane is set in meter order. In this embodiment, the x-axis direction is −5.25 m> x, −5.25 ≦ x <−3.5 m, −3.5 m ≦ x <−1.75 m, −1.75 m ≦ x <0 m, 0 m ≦ x <1.75 m, 1.75 m ≦ x <3.5 m, 3.5 m ≦ x <5.25 m, 5.25 m ≦ x, and the z-axis direction is 0 ≦ z <10 m, 10 m ≦ z <20 m, 20 m ≦ z <30 m, 30 m ≦ z <40 m, 40 m ≦ z <50 m, and divided into 5 regions 11 to 15, regions 21 to 25, regions 31 to 35, regions 41 to 41 Area 45, area 51 to area 55, area 61 to area 65, area 71 to area 75, and area 81 to area 85 are set. Further, the region 11 to the region 15 are the region 10, the region 21 to the region 25 are the region 20, the region 31 to the region 35 are the region 30, the region 41 to the region 45 are the region 40, and the region 51 to the region 55 are the region 50. The region 61 to the region 65 are the region 60, the region 71 to the region 75 are the region 70, and the region 81 to the region 85 are the region 80.

判定対象抽出部31は、xy座標において同位置のグループとされた上端座標変換点と下端座標変換点とが、ZX平面における同一の分割領域に属する場合は、同一グループの上端点と下端点は同一の路面上にある、すなわち路面上の平面物体であると判定する(立体物ではないと判定する)。また、上端点に対応する上端座標変換点が規定のZX座標外に位置し、その上端点と同一のグループの下端点の下端座標変換点が規定のZX座標内に位置する場合は、下端点のみが路面上にあるため立体物であると判定する。   When the upper end coordinate conversion point and the lower end coordinate conversion point that are grouped at the same position in the xy coordinates belong to the same divided area on the ZX plane, the determination target extraction unit 31 determines that the upper end point and the lower end point of the same group are It is determined that the object is on the same road surface, that is, a planar object on the road surface (determined not to be a three-dimensional object). Also, if the upper end coordinate conversion point corresponding to the upper end point is located outside the specified ZX coordinate and the lower end coordinate conversion point of the lower end point of the same group as the upper end point is located within the specified ZX coordinate, the lower end point Since only is on the road surface, it is determined to be a three-dimensional object.

なお、ここで、移動情報算出部22は、後述する走路境界の検出のために、各領域に設定されたカウンタのうち下端点の座標変換点が位置する領域のカウンタのカウンタ値を+1加算し、下端点の位置情報分布を算出する。   Here, the movement information calculation unit 22 adds +1 to the counter value of the counter in the area where the coordinate conversion point of the lower end point is located among the counters set in each area in order to detect the road boundary described later. The position information distribution of the lower end point is calculated.

また、上端点TP1、TP3、TP5、TP6、TP8、TP9及びTP12〜TP16の座標変換点RT1、RT3、RT5、RT6、RT8、RT9及びRT12〜RT16は図7に示す規定のZX座標外に投影されるため、上端点TP1、TP3、TP5、TP6、TP8、TP9及びTP12〜TP16を含むグループに対応する対象物は立体物であると判定される。つまり、上端点TP1、TP3、TP5、TP6、TP8、TP9及びTP12〜TP16を含むエッジはxy平面上で立体物OB1〜OB11として抽出される。   Also, the coordinate transformation points RT1, RT3, RT5, RT6, RT8, RT9, and RT12 to RT16 of the upper end points TP1, TP3, TP5, TP6, TP8, TP9 and TP12 to TP16 are projected outside the prescribed ZX coordinates shown in FIG. Therefore, the object corresponding to the group including the upper end points TP1, TP3, TP5, TP6, TP8, TP9 and TP12 to TP16 is determined to be a three-dimensional object. That is, the edges including the upper end points TP1, TP3, TP5, TP6, TP8, TP9 and TP12 to TP16 are extracted as three-dimensional objects OB1 to OB11 on the xy plane.

また、上端点TP2、TP4、TP7、TP10、TP11の座標変換点RT2、RT4、RT7、RT10、RT11は下端点BP2、BP4、BP7、BP10、BP11の座標変換点RB2、RB4、RB7、RB10、RB11と同じ領域に位置するため、上端点TP2、TP4、TP7、TP10、TP11を含むグループは路面上に位置する平面の対象物であると判定される。   The coordinate transformation points RT2, RT4, RT7, RT10, RT11 of the upper end points TP2, TP4, TP7, TP10, TP11 are the coordinate transformation points RB2, RB4, RB7, RB10 of the lower end points BP2, BP4, BP7, BP10, BP11, Since it is located in the same region as RB11, it is determined that the group including the upper end points TP2, TP4, TP7, TP10, and TP11 is a planar object located on the road surface.

また、判定対象抽出部31は、抽出された対象領域に含まれる平面物に対応する画素群が、抽出された対象立体物を含む対象領域に対応する特徴点に、画像の略垂直方向に沿って連なる場合は、平面物を含む対象領域と立体物を含む対象領域とを一の対象立体物を含む対象領域として抽出する。   In addition, the determination target extraction unit 31 has a pixel group corresponding to the planar object included in the extracted target area along a feature point corresponding to the target area including the extracted target three-dimensional object along a substantially vertical direction of the image. If the target area includes a plane object, the target area including the planar object and the target area including the three-dimensional object are extracted as the target area including one target three-dimensional object.

なお、ここで、移動情報算出部22は、後述する走路境界の検出のために、下端点の座標変換点RB1〜RB16が位置する領域のカウンタのカウンタ値を+1加算する。   Here, the movement information calculation unit 22 adds +1 to the counter value of the counter in the region where the coordinate conversion points RB1 to RB16 of the lower end points are located in order to detect the road boundary described later.

さらに、第2の手法として、判定対象抽出部31は、グループの画素群のうち画像の略垂直方向の最下に位置する画素の座標値に基づいて、画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、グループ化部23によりグループ化された画素群のうち最上に位置する画素の位置が基準境界の位置よりも上に位置する場合は、グループ化された画素群に対応する領域を、移動する対象立体物を含む対象領域として抽出する。   Furthermore, as a second method, the determination target extraction unit 31 includes a three-dimensional object installation surface included in the image based on the coordinate value of the pixel located in the lowest position in the substantially vertical direction of the image in the group of pixels. When a reference boundary having a predetermined relationship is extracted and the position of the pixel located at the top of the group of pixels grouped by the grouping unit 23 is located above the position of the reference boundary, the grouped pixels A region corresponding to the group is extracted as a target region including a moving target three-dimensional object.

この処理にあたり、グループ化部23は、画像において略垂直方向に隣接するとともに、移動情報算出部22により算出された移動速度が所定範囲内である画素群をグループ化する。   In this processing, the grouping unit 23 groups pixels that are adjacent to each other in a substantially vertical direction in the image and whose movement speed calculated by the movement information calculation unit 22 is within a predetermined range.

まず、判定対象抽出部31は、立体物の設置面を定義づけることができる基準境界を抽出する。本実施形態では、歩行者検出装置100を搭載する車両が走行する道路の走路境界を基準境界として抽出する。   First, the determination target extraction unit 31 extracts a reference boundary that can define the installation surface of the three-dimensional object. In the present embodiment, a road boundary of a road on which a vehicle on which the pedestrian detection device 100 is mounted is extracted as a reference boundary.

このため、図8に示すように、得られた下端点の座標変換点の位置分布に基づいて、基準境界が存在する可能性が高い領域を抽出する。すなわち、得られた下端点の座標変換点の位置分布において、同じx軸領域で複数のz軸領域にカウンタ値が存在すれば、自車両前方に走路境界(自車両が走行する走路の境界)が車両に沿って直線状に存在すると推定できるため、カウンタ値がある領域を、基準境界の一態様としての走路境界を含む領域として抽出する。例えば、図8では、x軸が同じ範囲の領域30において、複数のz軸領域(下端点RB2、RB4、RB7が位置する領域)にカウンタ値が存在するため、これらの領域を走路境界領域として抽出する。なお、領域20、領域50、領域80についても同様である。   For this reason, as shown in FIG. 8, based on the obtained position distribution of the coordinate conversion points of the lower end point, an area where there is a high possibility that the reference boundary exists is extracted. That is, in the obtained position distribution of the coordinate conversion points of the lower end point, if there are counter values in a plurality of z-axis regions in the same x-axis region, the road boundary (boundary of the road on which the vehicle travels) ahead of the host vehicle Can be estimated to exist along the vehicle in a straight line, the region having the counter value is extracted as a region including the road boundary as one aspect of the reference boundary. For example, in FIG. 8, since the counter value exists in a plurality of z-axis regions (regions where the lower end points RB2, RB4, and RB7 are located) in the region 30 having the same x-axis range, these regions are used as the road boundary regions. Extract. The same applies to the region 20, the region 50, and the region 80.

そして、抽出された領域に走路境界を示す直線が存在するかどうかの判定を行う(図8参照)。すなわち、抽出した領域に存在する下端点の座標変換点に基づいて、xy座標系での回帰分析を行い、下端点を通る直線の傾きを算出する。例えば、図8の領域30では、領域20に存在する下端点の座標変換点RB2、RB4、RB7に対応するxy座標における下端点BP2、BP4、BP7の座標位置からxy座標系での回帰分析を行い、下端点BP2、BP4、BP7を通る直線の傾きa3を算出する。同様に、領域20、領域50、領域80に位置する下端点の投影点に対応した直線の傾きa2、a5、a8を算出する。そして、算出した直線の傾きが、走路境界として判定できる範囲として予め定義された所定の範囲内に入っていれば、抽出された走路境界を示す直線が存在すると判定する。すなわち、下端点の座標変換点が位置するx軸領域の左端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図8のPL1〜PL5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a1と、下端点の座標変換点が位置するx軸領域の右端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図8のPR1〜PR5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a2とで規定される傾きの範囲内に、下端点に基づき算出された直線の傾きanが入っている場合には、抽出した領域内に走路境界を示す直線Lnが存在するとの判定を行う。   Then, it is determined whether or not a straight line indicating a road boundary exists in the extracted area (see FIG. 8). That is, based on the coordinate conversion point of the lower end point existing in the extracted region, regression analysis is performed in the xy coordinate system, and the slope of the straight line passing through the lower end point is calculated. For example, in the area 30 of FIG. 8, the regression analysis in the xy coordinate system is performed from the coordinate positions of the lower end points BP2, BP4, and BP7 in the xy coordinates corresponding to the coordinate conversion points RB2, RB4, and RB7 of the lower end points existing in the area 20. Then, the slope a3 of the straight line passing through the lower end points BP2, BP4, BP7 is calculated. Similarly, straight line inclinations a2, a5, and a8 corresponding to the projected points of the lower end points located in the regions 20, 50, and 80 are calculated. Then, if the calculated slope of the straight line is within a predetermined range that is defined in advance as a range that can be determined as a road boundary, it is determined that there is a straight line indicating the extracted road boundary. That is, the points (for example, PL1 to PL5 in FIG. 8) whose coordinates are the left end coordinates of the x-axis region where the coordinate conversion point of the lower end point is located and the representative coordinates (for example, center coordinates) of each Z-axis region are converted into the xy coordinate system. Then, the straight line slope Tn0a1 calculated by regression analysis, the right end coordinate of the x-axis area where the coordinate conversion point of the lower end point is located, and a point having the coordinates (for example, the center coordinates) of each Z-axis area as coordinates (for example, FIG. The slope of the straight line an calculated based on the lower end point is included in the range of the slope defined by the slope Tn0a2 of the straight line calculated by converting the PR1 to PR5) of 8 into the xy coordinate system and performing regression analysis. In this case, it is determined that the straight line Ln indicating the road boundary exists in the extracted area.

例えば、図9に示すように、本実施例の領域80においては、座標(x,z)=(−3.5,5)の点PL1、座標(x,z)=(−3.5,15)の点PL2、座標(x,z)=(−3.5,25)の点PL3、座標(x,z)=(−3.5,35)の点PL4、座標(x,z)=(−3.5,45)の点PL5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a1と、座標(x,z)=(−1.75,5)の点PR1、座標(x,z)=(−1.75,15)の点PR2、座標(x,z)=(−1.75,25)の点PR3、座標(x,z)=(−1.75,35)の点PR4、座標(x,z)=(−1.75,45)の点PR5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a2に対し、下端点の投影点RB1、RB4、RB5に対応するxy平面上の下端点BP1、BP4、BP5を結ぶ直線の傾きa3が、T30a1とT30a2で規定される範囲内に存在するため、下端点BP2、BP4、BP7を結ぶ直線は走路境界を示す直線L3であると判定される(図9参照)。   For example, as shown in FIG. 9, in the region 80 of the present embodiment, the point PL1 at coordinates (x, z) = (− 3.5, 5), coordinates (x, z) = (− 3.5, 15), point PL2, coordinates (x, z) = (− 3.5, 25), point PL3, coordinates (x, z) = (− 3.5, 35), point PL4, coordinates (x, z) = (− 3.5, 45) point PL5 is converted into xy coordinates and regression analysis is performed, and the slope T30a1 of the straight line connecting the calculated points and coordinates (x, z) = (− 1.75, 5) Point PR1, coordinate (x, z) = (− 1.75,15) point PR2, coordinate (x, z) = (− 1.75,25) point PR3, coordinate (x, z) = ( The slope T30a2 of the straight line connecting the points calculated by performing regression analysis by converting the point PR4 of -1.75, 35) and the point PR5 of coordinates (x, z) = (-1.75, 45) into xy coordinates. On the other hand, since the slope a3 of the straight line connecting the lower end points BP1, BP4, and BP5 on the xy plane corresponding to the projected points RB1, RB4, and RB5 of the lower end point is within the range defined by T30a1 and T30a2, the lower end point It is determined that the straight line connecting BP2, BP4, and BP7 is a straight line L3 indicating the road boundary (see FIG. 9).

同様にして、領域20では、下端点の投影点RB1、RB6に対応する、BP1、BP6を結ぶ直線は走路境界を示す直線L2であると判定され、領域50では、下端点の投影点RB10、RB11に対応するxy平面上の下端点BP10、BP11を結ぶ直線は走路境界を示す直線L5であると判定され、領域80では、下端点の投影点RB12〜RB16に対応するxy平面上の下端点BP12〜BP16を結ぶ直線は走路境界を示す直線L8であると判定される。   Similarly, in the region 20, it is determined that the straight line connecting BP1 and BP6 corresponding to the projection points RB1 and RB6 of the lower end point is a straight line L2 indicating the road boundary, and in the region 50, the projection point RB10 of the lower end point The straight line connecting the lower end points BP10 and BP11 on the xy plane corresponding to RB11 is determined to be the straight line L5 indicating the road boundary, and in the region 80, the lower end point on the xy plane corresponding to the projected points RB12 to RB16 of the lower end points A straight line connecting BP12 to BP16 is determined to be a straight line L8 indicating a road boundary.

次に、図10に示すように、判定対象抽出部31は、走路境界を示す直線のうち、自車両の近傍から遠方に連続して存在する立体物で構成される直線を背景として検出する。一般に、前方の撮像画像における背景は、静止した立体物が自車両近傍から遠方に直線的に並んでおり、近傍の速度が速く、遠方に行くに従い速度が遅くなる、という特徴を備える。したがって、このような特徴を示す走路境界を背景として抽出する。ここで、立体物で構成される走路境界が複数存在する場合には、自車両からより遠方に位置する走路境界を選択する。本実施例では、外壁と路面の交点である走路境界線L2とL8を背景として検出する。 Next, as illustrated in FIG. 10, the determination target extraction unit 31 detects, as a background, a straight line composed of a three-dimensional object that continuously exists far from the vicinity of the host vehicle, out of straight lines indicating the road boundary. In general, the background in the captured image of the front is characterized in that stationary three-dimensional objects are linearly lined away from the vicinity of the host vehicle, the speed of the vicinity is high, and the speed decreases as the distance increases. Therefore, the road boundary showing such characteristics is extracted as the background. Here, when there are a plurality of road boundaries composed of three-dimensional objects, a road boundary located farther from the host vehicle is selected. In the present embodiment, the road boundary lines L2 and L8, which are the intersections of the outer wall and the road surface, are detected as the background.

次に、図11に示すように、検出された画像位置と速度の関係から、画像上の任意の位置における静止物体の速度を算出する予測式を算出する。背景となる立体物は静止物であるため、背景となる立体物の速度は、画像の各位置における静止物の速度を表している。例えば、立体物OB1、OB4の速度は、それぞれの画像位置における静止物の速度を表している。したがって、複数の立体物間の画像位置と速度の関係を示す予測式を算出することで、画像上の任意の位置の静止物の速度を求めることができる。本実施例では、画像左側の物体に対しては、立体物OB1、OB4の画像上のxy座標を説明変数、速度を目的変数として、回帰分析を行い、静止物体の速度の予測式を算出する。同様に、画像右側の物体に対しては、立体物OB7、OB8、OB10、OB11画像上のxy座標を説明変数、速度を目的変数として、回帰分析を行い、静止物の速度の予測式を算出する。 Next, as shown in FIG. 11, a prediction formula for calculating the speed of the stationary object at an arbitrary position on the image is calculated from the relationship between the detected image position and speed. Since the solid object serving as the background is a stationary object, the speed of the solid object serving as the background represents the speed of the stationary object at each position of the image. For example, the speeds of the three-dimensional objects OB1 and OB4 represent the speeds of the stationary objects at the respective image positions. Therefore, by calculating a prediction formula indicating the relationship between the image position and the speed between a plurality of three-dimensional objects, the speed of a stationary object at an arbitrary position on the image can be obtained. In this embodiment, with respect to the object on the left side of the image, regression analysis is performed using the xy coordinates on the images of the three-dimensional objects OB1 and OB4 as explanatory variables and the speed as an objective variable, and a prediction formula for the speed of a stationary object is calculated. . Similarly, for the object on the right side of the image, regression analysis is performed using the xy coordinates on the three-dimensional object OB7, OB8, OB10, OB11 image as explanatory variables and speed as the objective variable, and a prediction formula for the speed of the stationary object is calculated. To do.

そして、画像処理部20により検出された特徴点の位置と特徴点の移動情報(移動速度、移動方向)と、算出された予測式から得られる静止物の移動速度とを比較することにより、移動体を検出する。 Then, by comparing the position of the feature point detected by the image processing unit 20 and the movement information (movement speed, movement direction) of the feature point with the movement speed of the stationary object obtained from the calculated prediction formula, Detect the body.

すなわち、本実施形態の判定対象抽出部31は、グループ化された画素群のうち画像の略垂直方向の最下に位置する画素の座標値に基づいて、画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、その基準境界の位置と移動速度算出手段により算出された基準境界の移動情報とに基づいて画像の背景の予測移動情報を算出し、グループ化部23によりグループ化された画素群の移動情報に含まれる移動方向と背景の予測移動情報に含まれる予測移動方向と差が、予め定義された略反対方向の関係である場合は、グループ化された画素群に対応する領域を、自車両の進路方向、すなわち自己の存在する方向に移動する対象立体物を含む対象領域として抽出する。   That is, the determination target extraction unit 31 according to the present embodiment is configured to set the three-dimensional object installation surface included in the image based on the coordinate value of the pixel located in the lowest position in the substantially vertical direction of the image among the grouped pixel group. A reference boundary having a predetermined relationship is extracted, predicted movement information of the background of the image is calculated based on the position of the reference boundary and the movement information of the reference boundary calculated by the moving speed calculation means, and the grouping unit 23 When the difference between the movement direction included in the movement information of the grouped pixel group and the predicted movement direction included in the predicted movement information of the background is a relationship in a substantially opposite direction defined in advance, the grouped pixel group Is extracted as a target region including a target three-dimensional object that moves in the course direction of the host vehicle, that is, the direction in which the vehicle exists.

そして、移動体であれば、背景よりも手前に存在するため、画像上では、一般に背景の下端よりも立体物の上端は高い位置に存在する。   And if it is a moving body, since it exists in front of the background, the upper end of the three-dimensional object is generally higher in the image than the lower end of the background.

したがって、予測式から算出した速度とは反対向きの速度を持ち、背景の下端位置よりも上端位置が高い立体物は、自車両の進路路方向に進む移動体であると判定する。 Accordingly, a three-dimensional object having a speed opposite to the speed calculated from the prediction formula and having a higher upper end position than the lower end position of the background is determined to be a moving body that travels in the course direction of the host vehicle.

図11に示すように、立体物OB2、OB3、OB5、OB6は、予測式から算出した静止物とは略反対向きの速度の方向を持ち、その上端位置が背景(走路境界L2)の下端位置よりも高い位置にあるため、自車両の進路方向に進む移動体であると判定する。同様に、立体物OB9は予測式から算出した静止物とは略反対向きの速度の方向を持ち、その上端位置が背景(走路境界L8)の下端位置よりも高い位置にあるため、自車両の進路方向に進む移動体であると判定する。略反対向きの方向の内容については予め定義する。たとえば、2つの移動方向の差が160°〜200°である、又は2つの移動方向の差が170°〜190°などである。 As shown in FIG. 11, the three-dimensional objects OB2, OB3, OB5, and OB6 have a speed direction substantially opposite to that of the stationary object calculated from the prediction formula, and the upper end position thereof is the lower end position of the background (running road boundary L2). Since it is in a higher position, it is determined that the vehicle is moving in the direction of the course of the host vehicle. Similarly, the three-dimensional object OB9 has a direction of speed substantially opposite to that of the stationary object calculated from the prediction formula, and its upper end position is higher than the lower end position of the background (running road boundary L8). It is determined that the moving body travels in the direction of the course. The contents in the substantially opposite direction are defined in advance. For example, the difference between the two movement directions is 160 ° to 200 °, or the difference between the two movement directions is 170 ° to 190 °.

他方、グループ化部23によりグループ化された画素群の移動情報に含まれる移動方向と背景の予測移動情報に含まれる予測移動方向との差が所定値未満であり、グループ化部23によりグループ化された画素群の移動情報に含まれる移動速度と背景の予測移動情報に含まれる予測移動速度との差が所定値未満である場合は、グループ化された画素群に対応する領域を、静止物として抽出する。 On the other hand, the difference between the movement direction included in the movement information of the pixel group grouped by the grouping unit 23 and the predicted movement direction included in the predicted movement information of the background is less than a predetermined value. If the difference between the movement speed included in the movement information of the pixel group and the predicted movement speed included in the predicted movement information of the background is less than a predetermined value, the area corresponding to the grouped pixel group is set as a stationary object. Extract as

つまり、立体物の速度の方向が予測式から算出した静止物体の速度と同じ方向であり、立体物の速度の値と予測式から算出した静止物の速度の値との差が所定値以下であれば、その立体物は静止物であると判定し、立体物として判定しない。 That is, the direction of the speed of the three-dimensional object is the same direction as the speed of the stationary object calculated from the prediction formula, and the difference between the value of the speed of the three-dimensional object and the value of the speed of the stationary object calculated from the prediction formula is less than a predetermined value. If there is, the solid object is determined as a stationary object, and is not determined as a solid object.

また、判定対象抽出部31は、対象領域が複数抽出されたとき、抽出された対象領域に含まれる対象立体物に対応する特徴点の移動方向の差が所定値未満であり、かつ対象立体物に対応する特徴点の移動速度の差が所定値未満である場合は、これらの対象領域を一の対象立体物を含む一の対象領域として抽出する。例えば、図10に示す例において、判定対象抽出部31はOB2とOB3は一つの移動する対象立体物OB2としてグループ化する。   In addition, when a plurality of target areas are extracted, the determination target extraction unit 31 has a difference in moving direction of feature points corresponding to the target three-dimensional object included in the extracted target areas that is less than a predetermined value, and the target three-dimensional object When the difference in the moving speed of the feature points corresponding to is less than a predetermined value, these target areas are extracted as one target area including one target solid object. For example, in the example illustrated in FIG. 10, the determination target extraction unit 31 groups OB2 and OB3 as one moving target three-dimensional object OB2.

次に、歩行者候補抽出部32について説明する。歩行者候補抽出部32は、検出された移動する対象立体物の速度変化に基づいて、移動する立体物が歩行者候補(歩行者である可能性が高い移動する立体物)を含む対象領域を抽出する。 Next, the pedestrian candidate extraction unit 32 will be described. The pedestrian candidate extraction unit 32 selects a target area that includes the detected three-dimensional object including the pedestrian candidate (moving three-dimensional object with a high possibility of being a pedestrian) based on the detected speed change of the moving target three-dimensional object. Extract.

ここで、歩行者に対応する特徴点の移動速度を詳細に観察すると、歩行者が一定速度で歩行している場合は、図12に示すように、歩行により腕と脚の動きに速度の増減が観察される。歩行開始からの脚の速度変化を見ると、まず、例えば右脚が進行方向に踏み出し、歩行がスタートする。そして、その速度が徐々に速くなって最高速度に達した後に今度は速度が徐々に低下して地面に着地するという速度変化が観察される。右脚が地面に着地すると同時に今度は左脚が進行方向に踏み出して、右脚と同様の速度変化が観察される。一方、歩行開始から腕の速度変化を見ると、脚とは逆向きの速度変化が観察される。このように、歩行者においては、歩行により対応する特徴点に速度変化が観察される、と言う特徴がある。 Here, when the moving speed of the feature point corresponding to the pedestrian is observed in detail, when the pedestrian is walking at a constant speed, as shown in FIG. Is observed. Looking at the speed change of the leg from the start of walking, first, for example, the right leg steps in the traveling direction, and walking starts. Then, after the speed gradually increases and reaches the maximum speed, a speed change is observed in which the speed gradually decreases and then reaches the ground. At the same time as the right leg lands on the ground, this time the left leg steps in the direction of travel, and the same speed change as the right leg is observed. On the other hand, when the change in the speed of the arm is seen from the start of walking, a change in the speed opposite to the leg is observed. Thus, a pedestrian has a feature that a speed change is observed at a corresponding feature point by walking.

したがって、この特徴を利用することにより、立体物が歩行者である可能性があるか否かを識別し、歩行者である可能性の高い移動する対象立体物を含む対象領域を抽出することができる。 Therefore, by using this feature, it is possible to identify whether or not a three-dimensional object may be a pedestrian and to extract a target region including a moving target three-dimensional object that is likely to be a pedestrian. it can.

本実施形態の歩行者候補抽出部32は、判定対象抽出部31により抽出された対象立体物を含む対象領域に含まれる特徴点の移動速度を移動情報算出部22から取得し、対象領域内の特徴点の移動速度の分散値を算出し、この分散値が所定値以上である場合は、対象領域を歩行者が含まれる対象領域として抽出する。抽出した対象領域に関する情報は、後述する歩行者候補検証部33及び/又は歩行者判定部34に送出される。 The pedestrian candidate extraction unit 32 of the present embodiment acquires the movement speed of the feature points included in the target area including the target three-dimensional object extracted by the determination target extraction unit 31 from the movement information calculation unit 22, and A variance value of the moving speed of the feature points is calculated, and when the variance value is a predetermined value or more, the target area is extracted as a target area including a pedestrian. Information regarding the extracted target area is sent to a pedestrian candidate verification unit 33 and / or a pedestrian determination unit 34 described later.

すなわち、例えば、移動体の速度の分散値を移動速度の変化ΔVとし、ΔVが所定値ΔVP以上であるか否か、すなわち、歩行者候補抽出部32は、ΔV≧ΔVPの条件を満たすか否かによって、移動体が歩行者の可能性があるか否かを識別することが可能となる。なお、移動速度の変化ΔVは、任意に定義することができ、最大速度と最少速度の差としてもよいし、平均速度からの差としてもよい。 That is, for example, the variance value of the speed of the moving body is defined as a change ΔV in the moving speed, and whether ΔV is equal to or greater than a predetermined value ΔVP, that is, whether the pedestrian candidate extraction unit 32 satisfies the condition ΔV ≧ ΔVP. Thus, it is possible to identify whether or not the moving body is a pedestrian. The movement speed change ΔV can be arbitrarily defined, and may be a difference between the maximum speed and the minimum speed or may be a difference from the average speed.

図10に示す画像情報について移動速度の分散値を算出したところ、立体物OB2、OB5、OB9の移動体の速度の分散値がΔV≧ΔVPを満たす。このため、立体物OB2、OB5、OB9は、歩行者の可能性が高い歩行者候補と判定される。他方、立体物OB6は、条件を満たさないため、歩行者以外の物体と判定する。 When the dispersion value of the moving speed is calculated for the image information shown in FIG. 10, the dispersion values of the moving bodies of the three-dimensional objects OB2, OB5, and OB9 satisfy ΔV ≧ ΔVP. For this reason, it is determined that the three-dimensional objects OB2, OB5, and OB9 are pedestrian candidates with a high possibility of pedestrians. On the other hand, since the three-dimensional object OB6 does not satisfy the condition, it is determined as an object other than a pedestrian.

また、歩行者候補抽出部32は、算出された移動速度の分散値が所定値未満であっても、所定時間内における対象領域内の特徴点の移動量が所定値未満であるとともに、対象領域内の特徴点の移動速度の変化が所定値以上である場合は、対象領域を歩行者が含まれる対象領域として抽出する。これにより、移動が遅い歩行者についても、直ちに歩行者以外として排除することなく特徴点の移動量や移動速度の変化に基づいて歩行者である可能性を判断するため、歩行者を含む対象領域を正確に抽出することができる。 In addition, the pedestrian candidate extraction unit 32 is configured such that, even if the calculated variance value of the moving speed is less than a predetermined value, the movement amount of the feature point within the target area within the predetermined time is less than the predetermined value, and the target area If the change in the movement speed of the feature point is equal to or greater than a predetermined value, the target area is extracted as a target area including a pedestrian. As a result, even for a pedestrian who moves slowly, the possibility of being a pedestrian based on the change in the moving amount and moving speed of the feature points without immediately excluding it as a non-pedestrian, the target area including the pedestrian Can be extracted accurately.

ここで、図10に示すように、OB5、OB9は歩行者以外であるにも関わらず、本処理においては歩行者候補と判定される。これは、分散値を指標とした場合に、歩行者の特徴に近い速度変化を持つ立体物が存在するためである。例えば、車両挙動の影響で画像の中央部以外の背景となる立体物の領域に消失点が含まれる場合は、消失点付近の動きの変化が小さくなるため、その領域には左右の移動速度が混在する。このため、その領域の速度の分散値は大きくなり、消失点を境に速度の向きが反転するため、消失点付近の背景となる立体物を歩行者と誤検出する場合があるからである。また、消失点以外の領域においても、複雑なエッジが組み合わさる領域では、間違った速度が計測されてしまう場合ある。その領域においても速度の分散が大きくなり、さらに周囲に正しい速度を持った背景が存在するため、複雑なエッジが組み合わさる立体物を、背景であるにもかかわらず歩行者と誤検出する場合がある。 Here, as shown in FIG. 10, OB5 and OB9 are determined as pedestrian candidates in this process even though they are not pedestrians. This is because there is a three-dimensional object having a speed change close to the characteristics of a pedestrian when the variance value is used as an index. For example, when the vanishing point is included in the area of the solid object that is the background other than the central part of the image due to the influence of the vehicle behavior, the change in the movement near the vanishing point is small, and the moving speed of the left and right is in that area. Mixed. For this reason, the dispersion value of the speed of the area becomes large, and the direction of the speed is reversed with the vanishing point as a boundary. Therefore, there is a case where a three-dimensional object serving as a background near the vanishing point is erroneously detected as a pedestrian. Further, even in a region other than the vanishing point, an incorrect speed may be measured in a region where complex edges are combined. Even in that area, the dispersion of speed is large, and there is a background with the correct speed in the surroundings, so there is a case where a solid object with a complex edge is mistakenly detected as a pedestrian even though it is a background. is there.

そこで、本実施形態では、歩行者候補検証部33を設け、歩行者の検出精度を向上させる。 Therefore, in this embodiment, a pedestrian candidate verification unit 33 is provided to improve the detection accuracy of pedestrians.

この歩行者候補検証部33は、図13に示すように、検出された対象領域に存在する移動速度の分布の経時的な推移を観察することで、対象立体物が歩行者を含むか否かの候補の検証を行い、歩行者候補以外と判定された場合には、ノイズとして削除する。 As shown in FIG. 13, the pedestrian candidate verification unit 33 observes whether or not the target three-dimensional object includes a pedestrian by observing a temporal change in the distribution of the moving speed existing in the detected target area. The candidate is verified, and if it is determined that the candidate is not a pedestrian candidate, it is deleted as noise.

歩行者候補検証部33は、抽出された対象領域に含まれる特徴点の移動方向のばらつき度が時間の経過とともに大きくなる場合は、対象領域は歩行者を含まない対象領域であると検証する。   The pedestrian candidate verification unit 33 verifies that the target area is a target area that does not include a pedestrian when the degree of variation in the moving direction of the feature points included in the extracted target area increases with time.

対象領域は移動物体を含む領域として検出された領域であるため、時間経過に伴う追跡処理は、水平位置の近傍の領域に制限できる。歩行者候補を含むとして抽出された対象領域が背景のような静止物体を含む領域であれば、水平方向に沿う特徴点の移動量が大きいため、追跡処理を行う対象領域の移動速度は時間経過に伴い異なる立体物のエッジから計測されたものになる。他方、対象領域が歩行者を含むものであれば、追跡処理を行う対象領域の移動速度は時間経過にかかわらず同じ歩行者のエッジから計測されたものになる。また、歩行者候補を含む対象領域が消失点を含む領域であれば、時間経過に伴い、消失点の位置は移動するため、その対象領域の移動速度は消失点以外の背景(立体物)から検出された移動速度に変化する。同様に対象領域が間違った移動速度を持つ背景を含む場合でも、時間経過に伴い、その対象領域は正しい移動速度を持つ背景を含むように変化する。 Since the target region is a region detected as a region including a moving object, the tracking process with time can be limited to a region near the horizontal position. If the target area extracted as containing a pedestrian candidate is an area that contains a stationary object such as the background, the movement speed of the target area for tracking processing will increase over time because the amount of movement of the feature points along the horizontal direction is large. Accordingly, it is measured from the edge of a different three-dimensional object. On the other hand, if the target area includes a pedestrian, the moving speed of the target area for which the tracking process is performed is measured from the edge of the same pedestrian regardless of the passage of time. Moreover, if the target area including the pedestrian candidate is an area including a vanishing point, the position of the vanishing point moves with time, so the moving speed of the target area is determined from the background (three-dimensional object) other than the vanishing point. Changes to the detected moving speed. Similarly, even when the target area includes a background having an incorrect moving speed, the target area changes so as to include a background having a correct moving speed as time elapses.

このように、静止物体は、移動物体より水平移動量が大きいという特徴があるため、この特徴を利用することにより、対象領域内に含まれる特徴点が歩行者に対応するものであるか否かを検証することが可能となる。 As described above, since a stationary object has a feature that a horizontal movement amount is larger than that of a moving object, by using this feature, whether or not a feature point included in the target region corresponds to a pedestrian. Can be verified.

本実施形態の歩行者候補検証部33は、抽出された対象領域に含まれる特徴点について、歩行者候補とされる対象立体物に対応する特徴点の移動方向との方向差が所定値未満であり、歩行者候補に対応する特徴点の移動速度との速度差が所定値未満である特徴点の数N1と、歩行者候補とされる対象立体物に対応する特徴点の移動方向との方向差が所定値以上である特徴点の数N2とを算出し、N2>N1を満たし、かつ、対象領域の面積に対するN2の割合R1が、予め設定された所定値Rt1よりも大きい場合は、対象領域は歩行者を含まない対象領域として検証する。 The pedestrian candidate verification unit 33 of the present embodiment has a direction difference between the feature points included in the extracted target region and the moving direction of the feature points corresponding to the target three-dimensional object that is a pedestrian candidate being less than a predetermined value. There is a direction between the number N1 of feature points whose speed difference from the moving speed of the feature point corresponding to the pedestrian candidate is less than a predetermined value, and the moving direction of the feature point corresponding to the target three-dimensional object to be a pedestrian candidate The number N2 of feature points whose difference is greater than or equal to a predetermined value is calculated, and when N2> N1 is satisfied and the ratio R1 of N2 to the area of the target region is larger than a predetermined value Rt1, the target The region is verified as a target region that does not include pedestrians.

すなわち、歩行者候補が含まれる対象領域内の移動速度のうち、歩行者候補の移動速度と同じ方向で歩行者候補の移動速度との差が所定値Vt1以下である速度情報数をN1とし、歩行者候補と反対向きの速度情報数をN2を所定時間観測し、N2>N1を満たし、歩行者候補の領域面積に対するN2の割合R1が所定値Rt1よりも大きくなる場合には、その歩行者候補領域は歩行者候補を含むものではなく、背景から得られたノイズとして削除する。 That is, among the moving speeds in the target area including the pedestrian candidate, the number of speed information in which the difference between the moving speed of the pedestrian candidate in the same direction as the moving speed of the pedestrian candidate is equal to or less than a predetermined value Vt1 is N1, The number of speed information in the opposite direction to the pedestrian candidate is observed for N2 for a predetermined time. When N2> N1 is satisfied and the ratio R1 of N2 to the area area of the pedestrian candidate is larger than the predetermined value Rt1, the pedestrian The candidate area does not include a pedestrian candidate, but is deleted as noise obtained from the background.

他方、立体物OB2は、時間が経過しても対象領域内の移動速度に変化がないため、歩行者候補とする。 On the other hand, the three-dimensional object OB2 is a pedestrian candidate because there is no change in the moving speed in the target area even if time passes.

また、立体物OB5は、消失点領域のため、時間経過とともに消失点が左方向に移動し、対象領域内の移動速度は、徐々左向きの速度に揃う。したがって、OB5は歩行者候補ではないと判定し、ノイズとして削除する。 Further, since the three-dimensional object OB5 is a vanishing point region, the vanishing point moves to the left as time passes, and the moving speed in the target region gradually matches the leftward speed. Therefore, OB5 is determined not to be a pedestrian candidate and is deleted as noise.

さらに、立体物OB9は、背景速度の誤検出のため、時間経過とともに正しい移動速度に変化し、対象領域内の移動速度は右向きの速度に揃うようになる。したがって、OB9は、歩行者候補以外と判定し、ノイズとして削除する。 Furthermore, the three-dimensional object OB9 changes to a correct moving speed with the passage of time due to erroneous detection of the background speed, and the moving speed in the target area is aligned to the rightward speed. Therefore, OB9 determines that it is other than a pedestrian candidate, and deletes it as noise.

このように、対象領域と消失点の位置関係に応じて対象立体物の移動速度には異なる特徴を観察できる。このため、歩行者候補検証部33は、抽出された対象領域と消失点との距離に応じて、特徴点の移動方向のばらつき度の変化を観察する時間を決定する。特徴点の移動方向のばらつき度の変化を観察する時間は、対象領域と消失点が近い位置にあるほど、長く設定することが好ましい。   Thus, different characteristics can be observed in the moving speed of the target three-dimensional object according to the positional relationship between the target area and the vanishing point. For this reason, the pedestrian candidate verification unit 33 determines the time for observing a change in the variation degree of the moving direction of the feature point according to the distance between the extracted target region and the vanishing point. It is preferable that the time for observing the change in the variation degree in the moving direction of the feature point is set longer as the target region and the vanishing point are closer to each other.

最後に、歩行者候補判定部34について説明する。   Finally, the pedestrian candidate determination unit 34 will be described.

歩行者候補判定部34は、判定対象抽出部31により抽出された対象領域に関する移動情報と、この対象領域の周囲に設定された比較領域に関する移動情報とを比較し、その移動情報の比較結果に基づいて抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定する。   The pedestrian candidate determination unit 34 compares the movement information related to the target area extracted by the determination target extraction unit 31 with the movement information related to the comparison area set around the target area, and uses the movement information as a comparison result. It is determined whether or not the target three-dimensional object included in the target region extracted based on the target area is a pedestrian.

比較の対象となる対象領域は、判定対象抽出部31により抽出された移動する立体物を含む領域のほか、歩行者候補抽出部32により歩行者を含む確率が高いとして抽出された領域、歩行者候補検証部33により歩行者を含むと検証された領域を含む。   The target area to be compared is not only the area including the moving three-dimensional object extracted by the determination target extraction unit 31, but also the area extracted by the pedestrian candidate extraction unit 32 as having a high probability of including a pedestrian, The candidate verification unit 33 includes a region verified as including a pedestrian.

具体的に、歩行者候補判定部34は、図14に示すように、歩行者を含む可能性のある対象領域の移動速度と、その周囲に設定された比較領域(図14中1〜5)の移動速度及び/又は移動方向の比較を行い、対象領域の歩行者候補が最終的に歩行者であるか否かを判定する。   Specifically, as shown in FIG. 14, the pedestrian candidate determination unit 34 has a moving speed of a target area that may include a pedestrian and a comparison area (1 to 5 in FIG. 14) set around the moving speed. The movement speed and / or the movement direction are compared, and it is determined whether or not the pedestrian candidate in the target area is finally a pedestrian.

この判定により歩行者でないものを歩行者として検出することを防止することができる。   This determination can prevent a non-pedestrian from being detected as a pedestrian.

すなわち、対象領域と周囲に存在する比較物体(背景)を観察した場合、自車両の進路方向に進む歩行者は、周囲物体(背景)の手前に存在する。そのため、歩行者候補として検出された対象領域が歩行者を含むのであれば、歩行者候補を含む対象領域の周囲に背景が存在する。歩行者候補を含む対象領域とその周囲にある背景を含む比較領域とは距離差があり、歩行者候補を含む対象領域の移動情報(方向及び速度)とその周囲の比較領域の移動情報(方向及び速度)との間に差を検出することができる。 That is, when the comparison object (background) existing in the target area and the surrounding area is observed, the pedestrian who moves in the direction of the course of the own vehicle is present in front of the surrounding object (background). Therefore, if the target area detected as a pedestrian candidate includes a pedestrian, a background exists around the target area including the pedestrian candidate. There is a distance difference between the target area including the pedestrian candidate and the comparison area including the background around it. The movement information (direction and speed) of the target area including the pedestrian candidate and the movement information (direction) of the surrounding comparison area And the speed) can be detected.

他方、対象領域が(歩行者を含まない)背景であれば、対象領域と比較領域は同じ背景に対応する。同じ背景であれば、距離差は生じないから、対象領域の移動速度とその周囲の比較領域との間には速度差又は方向差が検出されないはずである。 On the other hand, if the target area is a background (not including a pedestrian), the target area and the comparison area correspond to the same background. If the backgrounds are the same, there will be no distance difference, so no speed difference or direction difference should be detected between the movement speed of the target area and the surrounding comparison area.

このように、対象領域に歩行者が含まれる場合は、対象領域に含まれる歩行者候補の移動情報とその周囲に設定された比較領域に含まれる背景を構成する立体物の移動情報との間に差が発生するという特徴を検知することができる。 Thus, when a pedestrian is included in the target area, between the movement information of the pedestrian candidate included in the target area and the movement information of the three-dimensional object constituting the background included in the comparison area set around it. It is possible to detect a characteristic that a difference occurs in

本願発明では、この特徴を利用することにより、最終的に対象領域の歩行者候補が歩行者であるか否かの判定を行うことができる。 In the present invention, by using this feature, it is possible to finally determine whether or not the pedestrian candidate in the target area is a pedestrian.

具体的に、本実施形態の歩行者判定部34は、判定対象抽出部31、歩行者候補抽出部32、歩行者候補検証部33により処理された対象領域に含まれる対象立体物の移動速度と対象領域の周囲に設定された比較領域に含まれる比較物の移動速度とを比較し、これらの移動速度の差が所定値以上である場合は、対象領域に含まれる立体物は歩行者であると判定する。他方、歩行者判定部34は、これらの移動速度の差が所定値未満である場合は、対象領域に含まれる立体物は歩行者以外の立体物であると判定する。 Specifically, the pedestrian determination unit 34 according to the present embodiment includes the movement speed of the target three-dimensional object included in the target region processed by the determination target extraction unit 31, the pedestrian candidate extraction unit 32, and the pedestrian candidate verification unit 33. The moving speed of the comparison object included in the comparison area set around the target area is compared, and if the difference between these moving speeds is a predetermined value or more, the three-dimensional object included in the target area is a pedestrian. Is determined. On the other hand, the pedestrian determination unit 34 determines that the three-dimensional object included in the target region is a three-dimensional object other than the pedestrian when the difference between the moving speeds is less than the predetermined value.

また、本実施形態の歩行者判定部34は、判定対象抽出部31、歩行者候補抽出部32、歩行者候補検証部33により処理された対象領域に含まれる対象立体物の移動方向とその対象領域の周囲に設定された比較物を含む比較領域の移動方向とを比較し、これらの移動方向の差が所定値以上である場合は、対象領域に含まれる対象立体物は歩行者であると判定する。他方、歩行者判定部34は、移動方向の差が所定値未満である場合は、対象領域に含まれる対象立体物は歩行者以外の立体物であると判定する。 In addition, the pedestrian determination unit 34 of the present embodiment includes the movement direction of the target three-dimensional object included in the target region processed by the determination target extraction unit 31, the pedestrian candidate extraction unit 32, and the pedestrian candidate verification unit 33 and the target thereof. Compare the movement direction of the comparison area including the comparison object set around the area, and if the difference between these movement directions is greater than or equal to a predetermined value, the target three-dimensional object included in the target area is a pedestrian judge. On the other hand, when the difference in the moving direction is less than the predetermined value, the pedestrian determination unit 34 determines that the target three-dimensional object included in the target region is a three-dimensional object other than the pedestrian.

さらに、本実施形態の歩行者判定部34は、比較された二つの移動方向が、予め定義された略反対方向関係を有する場合は、対象領域に含まれる立体物は自己に接近する歩行者であると判定する。略反対方向の関係とは、二つの移動方向の差が160度〜200度、又は175度〜185度など、180度を基準に予め設定することができる。 Furthermore, the pedestrian determination unit 34 of the present embodiment is a pedestrian approaching the self in the three-dimensional object included in the target region when the two compared movement directions have a substantially opposite direction relationship defined in advance. Judge that there is. The relationship in the substantially opposite direction can be preset based on 180 degrees such that the difference between the two movement directions is 160 degrees to 200 degrees, or 175 degrees to 185 degrees.

特に限定されないが、比較領域は分割された所定の領域ごとに設定され、歩行者の判定を行うことが好ましい。これにより対象立体物の移動速度と、対象立体物を四方から囲む背景の移動速度を比較することができる。 Although not particularly limited, it is preferable that the comparison region is set for each of the divided predetermined regions and the pedestrian is determined. Thereby, the moving speed of the target three-dimensional object can be compared with the moving speed of the background surrounding the target three-dimensional object from four directions.

たとえば、比較領域として、対象領域の上端辺から上側へ所定長さの幅を有する上側比較領域(図14の1で示す領域)、対象領域の左端辺から左側へ所定長さの幅を有する左側比較領域(図14の2で示す領域)、又は対象領域の右端辺から右側へ所定長さの幅を有する右側比較領域(図14の4で示す領域)のいずれか1つ以上を設定する。 For example, as a comparison region, an upper comparison region (a region indicated by 1 in FIG. 14) having a predetermined length from the upper end side of the target region to the upper side, and a left side having a predetermined length from the left end side of the target region to the left side One or more of a comparison area (area indicated by 2 in FIG. 14) or a right comparison area (area indicated by 4 in FIG. 14) having a predetermined length from the right end side of the target area to the right side is set.

さらに、比較領域として、対象領域の上端辺、左右端辺から所定距離だけ離隔するとともに、所定長さの幅を有する別の比較領域(第2上側比較領域、第2左側比較領域(図14の3で示す領域)、第2右側比較領域(図14の5で示す領域))を設定することができる。対象領域から所定距離だけ離隔させた位置に比較領域を設定することにより、対象領域の移動速度と比較領域の移動速度とを正確に比較することができる。 Furthermore, as a comparison area, another comparison area (a second upper comparison area, a second left comparison area (see FIG. 14) having a predetermined length apart from the upper edge and the left and right edges of the target area. 3), a second right comparison area (area shown by 5 in FIG. 14)). By setting the comparison area at a position separated from the target area by a predetermined distance, the movement speed of the target area and the movement speed of the comparison area can be accurately compared.

次に、対象領域を5つの領域に分けた場合の歩行者の判定処理の一例を図14に基づいて説明する。具体的に、図14に示す撮像画像においては、以下の比較結果を得た場合を例に説明する。 Next, an example of pedestrian determination processing when the target region is divided into five regions will be described with reference to FIG. Specifically, in the captured image shown in FIG. 14, a case where the following comparison results are obtained will be described as an example.

まず、第1に、歩行者候補を含む対象領域の上端辺の右上端から左上端の上部領域(図14の1で示す領域)に、検出された歩行者候補の移動速度と反対方向の動きを持つ立体物が存在する。   First, the movement in the direction opposite to the moving speed of the detected pedestrian candidate from the upper right end of the target region including the pedestrian candidate to the upper left upper region (the region indicated by 1 in FIG. 14). There is a three-dimensional object with

第2に、歩行者候補を含む対象領域の左端辺から所定距離D1左側までの領域(図14の2で示す領域)に、検出された歩行者候補の移動速度と反対方向の動きを持つ立体物が存在する。   Second, a solid having a movement in a direction opposite to the moving speed of the detected pedestrian candidate in a region (a region indicated by 2 in FIG. 14) from the left end side of the target region including the pedestrian candidate to the left side of the predetermined distance D1. Things exist.

第3に、歩行者候補を含む対象領域の左端辺の左側所定値D2〜D3までの領域(図14の3で示す領域)に、検出された歩行者候補の移動速度と同一方向の移動速度を持ち、検出された移動速度との速度差がVt2未満となる立体物が存在する。   Third, the moving speed in the same direction as the moving speed of the detected pedestrian candidate in the area up to the left predetermined value D2 to D3 (area indicated by 3 in FIG. 14) on the left end side of the target area including the pedestrian candidate. And a three-dimensional object whose speed difference from the detected moving speed is less than Vt2.

第4に、歩行者候補を含む対象領域の右端辺から所定値D1右側までの領域(図14の4で示す領域)に検出した歩行者候補の速度と反対方向の動きを持つ立体物が存在する。   Fourth, there is a three-dimensional object having a movement in the direction opposite to the speed of the detected pedestrian candidate in the region (the region indicated by 4 in FIG. 14) from the right end side of the target region including the pedestrian candidate to the right side of the predetermined value D1. To do.

第5に、歩行者候補を含む対象領域の右端辺の右側所定値D2〜D3までの領域(図14の5で示す領域)に、検出された歩行者候補の移動速度と同一方向の移動速度を持ち、検出された移動速度との速度差がVt2未満となる立体物が存在する。   Fifth, the movement speed in the same direction as the movement speed of the detected pedestrian candidate in the area from the right end value D2 to D3 on the right end side of the target area including the pedestrian candidate (area indicated by 5 in FIG. 14). And a three-dimensional object whose speed difference from the detected moving speed is less than Vt2.

このような比較情報を得た場合、歩行者判定部34は、第3の比較結果と第5の比較結果を示す歩行者候補については、歩行者以外の物体として判断し、対応する歩行者候補から除外する。   When such comparison information is obtained, the pedestrian determination unit 34 determines the pedestrian candidate indicating the third comparison result and the fifth comparison result as an object other than the pedestrian, and the corresponding pedestrian candidate. Exclude from

そして、歩行者判定部34は、第1の比較結果を示す歩行者候補(対象立体物)を、歩行者として最終的に判断する。   And the pedestrian determination part 34 finally determines the pedestrian candidate (target solid object) which shows a 1st comparison result as a pedestrian.

さらに、歩行者判定部34は、第2の比較結果及び/又は第4の比較結果を満たす歩行者候補(対象立体物)を、歩行者として最終的に判断する。   Furthermore, the pedestrian determination unit 34 finally determines pedestrian candidates (target three-dimensional objects) that satisfy the second comparison result and / or the fourth comparison result as pedestrians.

このように、撮像画像から検出された対象立体物の移動情報(移動速度、移動方向を含む)と、その周囲の比較領域の移動情報とを比較し、その比較結果に基づいて対象立体物が歩行者であるか否かを判定するため、対象立体物の動きから歩行者に特有の動きの変化を抽出することができ、背景としての立体物を歩行者として誤検出することを防止することができる。   In this way, the movement information (including movement speed and movement direction) of the target three-dimensional object detected from the captured image is compared with the movement information of the surrounding comparison area, and the target three-dimensional object is determined based on the comparison result. In order to determine whether or not the person is a pedestrian, it is possible to extract a change in movement specific to the pedestrian from the movement of the target three-dimensional object, and to prevent erroneous detection of a three-dimensional object as a background as a pedestrian Can do.

続いて、本実施形態の歩行者検出装置100の歩行者検出の処理手順を図15に示すフローチャート図に基づいて説明する。   Then, the process sequence of the pedestrian detection of the pedestrian detection apparatus 100 of this embodiment is demonstrated based on the flowchart figure shown in FIG.

図15は、本実施形態の歩行者検出装置100の処理を示すフローチャートである。   FIG. 15 is a flowchart showing the processing of the pedestrian detection device 100 of the present embodiment.

この処理はイグニションスイッチ(図示省略)がオンされると起動されるプログラムとして実行される。   This process is executed as a program that is activated when an ignition switch (not shown) is turned on.

まず、カメラ10により撮像された自車両前方の画像は、画像メモリ11に記録される。   First, an image in front of the host vehicle captured by the camera 10 is recorded in the image memory 11.

ステップS101において、画像メモリ11は、自己に記録された自車両前方の画像を所定の周期で特徴点抽出部21に出力する。この後に、フローはステップS102へ移行する。   In step S <b> 101, the image memory 11 outputs the image in front of the host vehicle recorded on itself to the feature point extraction unit 21 at a predetermined cycle. After this, the flow moves to step S102.

ステップS102において、特徴点抽出部21は撮像画像のエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出するとともに、エッジ画像の正規化を行う。この後に、フローはステップS103へ移行する。   In step S102, the feature point extraction unit 21 performs edge extraction processing of the captured image, extracts the outline of the object existing in the captured image as an edge image, and normalizes the edge image. After this, the flow moves to step S103.

ステップS103において、移動情報算出部22はエッジの速度を算出し、算出した速度を所定の階調で表した移動画像を算出する。この後に、フローはステップS104へ移行する。   In step S103, the movement information calculation unit 22 calculates the edge speed, and calculates a moving image in which the calculated speed is represented by a predetermined gradation. After this, the flow moves to step S104.

ステップS104において、グループ化部23は、算出した移動画像上に物体検出用の短冊領域を設定する。この後に、フローはステップS105へ移行する。   In step S104, the grouping unit 23 sets a strip area for object detection on the calculated moving image. After this, the flow moves to step S105.

ステップS105において、グループ化部23は、各短冊領域内に速度を持った画素があるかどうかを下から上に向かって調べる。速度を持った画素がある場合、グループ化部23はそれらの画素は同一の物体を表しているものとしてグループ化を行う。この後に、フローはステップS106へ移行する。   In step S105, the grouping unit 23 checks whether there is a pixel having speed in each strip area from the bottom to the top. When there are pixels having speed, the grouping unit 23 performs grouping assuming that these pixels represent the same object. After this, the flow moves to step S106.

ステップS106において、座標変換部24は、各短冊領域内におけるグループ毎において、最も上(上端)に位置する画素の中心座標を上端点に、最も下(下端)に位置する画素の中心座標を下端点に設定する。この後に、フローはステップS107へ移行する。   In step S106, for each group in each strip area, the coordinate conversion unit 24 sets the center coordinate of the pixel located at the top (upper end) as the upper end point and the center coordinate of the pixel located at the lowermost (lower end) as the lower end. Set to point. After this, the flow moves to step S107.

ステップS107において、座標変換部24は、(式1)、(式2)を用いて、検出した上端点と下端点の座標をZX平面へ座標変換する。この後に、フローはステップS108へ移行する。   In step S107, the coordinate conversion unit 24 converts the coordinates of the detected upper end point and lower end point to the ZX plane using (Expression 1) and (Expression 2). After this, the flow moves to step S108.

ステップS108において判定対象抽出部31の判定対象抽出部31は、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の位置がx軸範囲とz軸範囲を規定した規定のZX平面のどの領域に該当するかを判断し、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の双方が規定のZX平面の同一の分割領域に位置する場合は、上端点、下端点を含む物体を平面物であると判定し、上端点と同じグループの下端点の座標変換点のみが規定のZX平面に位置する場合は、上端点、下端点を含む物体を立体物であると判定する。また、下端点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS109に進む。   In step S108, the determination target extraction unit 31 of the determination target extraction unit 31 defines that the position of the coordinate conversion point of the upper end point and the coordinate conversion point of the lower end point of the same group as the upper end point defines the x-axis range and the z-axis range. It is determined which region of the ZX plane corresponds, and when both the coordinate transformation point of the upper end point and the coordinate transformation point of the lower end point of the same group as the upper end point are located in the same divided region of the prescribed ZX plane, When the object including the upper end point and the lower end point is determined to be a plane object, and only the coordinate transformation point of the lower end point of the same group as the upper end point is located on the specified ZX plane, the object including the upper end point and the lower end point is determined. It is determined that the object is a three-dimensional object. Also, the counter value of the counter in the area where the lower end point is located is incremented by +1. After this, the flow proceeds to step S109.

ステップS109において、立体物抽出部31により、検出した全ての上端点、下端点について、上端点、下端点を含む物体が平面物であるか立体物であるかの判定(以下、物体の属性判定と呼ぶ)が行われたかどうかの判定が行われる。検出した全ての上端点、下端点について物体の属性判定が行われた場合は、ステップS110に進む。一方、検出した全ての上端点、下端点について物体の属性判定が行われていない場合は、ステップS105に戻る。   In step S109, the solid object extraction unit 31 determines whether the object including the upper end point and the lower end point is a planar object or a three-dimensional object (hereinafter, object attribute determination) for all detected upper and lower end points. Is called). When the object attribute determination is performed for all the detected upper and lower end points, the process proceeds to step S110. On the other hand, when the object attribute determination is not performed for all the detected upper and lower end points, the process returns to step S105.

続いて、ステップS110において、判定対象抽出部31は、ZX平面における下端点の座標変換点の位置分布から、同じx軸領域において、複数のz軸領域にカウンタ値が存在する領域を、走路境界線が存在する可能性が高い領域として抽出する。この後に、フローはステップS111へ進む。   Subsequently, in step S110, the determination target extraction unit 31 determines an area where counter values exist in a plurality of z-axis areas in the same x-axis area from the position distribution of the coordinate conversion point of the lower end point on the ZX plane. Extract as a region where a line is highly likely to exist. After this, the flow proceeds to step S111.

ステップS111において、判定対象抽出部31により抽出された領域内に存在する下端点の座標変換点に対応するxy平面の下端点についてxy座標系での回帰分析が行われ、下端点を結ぶ直線の傾きが算出される。この後に、フローはステップS112へ進む。   In step S111, a regression analysis in the xy coordinate system is performed on the lower end point of the xy plane corresponding to the coordinate conversion point of the lower end point existing in the region extracted by the determination target extraction unit 31, and a straight line connecting the lower end points is obtained. The slope is calculated. After this, the flow proceeds to step S112.

ステップS112において、判定対象抽出部31は、ステップS111で算出された直線の傾きが、下端点の位置する領域において、x軸領域の左端座標と各z軸領域の代表座標を座標とする点(図8のPL1〜PL5)を結ぶ直線およびx軸領域の右端座標と各z軸領域の代表座標を座標とする点(図8のPR1〜PR5)を結ぶ直線のxy座標系における傾きの範囲にあれば、抽出した領域に走路境界を示す直線が存在すると判定し、ステップS111で算出された直線は走路境界を示す直線として検出する。この後に、フローはステップS113へ進む。   In step S112, the determination target extraction unit 31 uses the left end coordinate of the x-axis region and the representative coordinate of each z-axis region as coordinates in the region where the straight line calculated in step S111 is located at the lower end point ( The straight line connecting PL1 to PL5) in FIG. 8 and the right end coordinate of the x-axis region and the range of inclination in the xy coordinate system of the point connecting the representative coordinates of each z-axis region (PR1 to PR5 in FIG. 8). If there is, it is determined that a straight line indicating the road boundary exists in the extracted region, and the straight line calculated in step S111 is detected as a straight line indicating the road boundary. After this, the flow proceeds to step S113.

ステップS113において、判定対象抽出部31は、ステップ110で抽出された領域について、全ての走路境界を示す直線が検出されたか否かの判定を行う。全ての領域について走路境界を示す直線が検出された場合は、ステップS114へ進む。一方、全ての領域について走路境界を示す直線が検出されていない場合は、ステップS110に戻る。   In step S113, the determination target extraction unit 31 determines whether or not straight lines indicating all the road boundaries have been detected for the region extracted in step 110. If a straight line indicating the road boundary is detected for all regions, the process proceeds to step S114. On the other hand, when the straight line indicating the road boundary is not detected for all the regions, the process returns to step S110.

ステップS114において、判定対象抽出部31は、ステップS112で検出された走路境界に相当する直線のうち、車両の近傍から遠方に連続して存在する立体物で構成される直線を背景となる走路境界として検出する。この後に、フローはステップS115へ移行する。 In step S <b> 114, the determination target extraction unit 31 uses a straight line constituted by a three-dimensional object that continuously exists far from the vicinity of the vehicle among straight lines corresponding to the road boundary detected in step S <b> 112 as a background. Detect as. After this, the flow moves to step S115.

ステップS115において、判定対象抽出部31は、ステップS114で検出された背景となる走路境界を構成する立体物の移動速度を目的変数とし、下端点における画像xy座標を説明変数として、重回帰分析を行うことで、画像上の任意の位置での静止物体の速度の予測式を算出する。この後に、フローはステップ116に移行する。 In step S115, the determination target extraction unit 31 performs multiple regression analysis using the moving speed of the three-dimensional object constituting the background road boundary detected in step S114 as an objective variable and the image xy coordinates at the lower end point as explanatory variables. By doing so, a prediction formula for the speed of the stationary object at an arbitrary position on the image is calculated. After this, the flow moves to step 116.

ステップS116において、判定対象抽出部31は、ステップS114で検出された背景となる走路境界の位置と立体物の上端位置とを比較し、画像上において、走路境界の位置よりも立体物の上端位置が上方に存在する場合には、その立体物を対象立体物として検出し、その対象立体物を含む領域を対象領域として抽出する。この後に、フローはステップS117に移行する。 In step S116, the determination target extraction unit 31 compares the position of the road boundary serving as the background detected in step S114 with the upper edge position of the three-dimensional object, and on the image, the upper edge position of the three-dimensional object rather than the position of the road boundary. Is present as an object three-dimensional object, and an area including the object three-dimensional object is extracted as the object area. After this, the flow moves to step S117.

ステップS117において、判定対象抽出部31は、ステップS116で検出された移動体候補の移動速度と移動体候補位置において予測式から得られる静止物の移動速度とを比較し、速度差の絶対値が所定の範囲内にある場合は、その移動体候補を静止物と判定する。そして、フローはステップS119に移行する。一方、速度差の絶対値が所定の範囲外である場合は、その移動体候補を移動体と判定し、フローはステップS118に移行する。
In step S117, the determination target extraction unit 31 compares the moving speed of the moving object candidate detected in step S116 with the moving speed of the stationary object obtained from the prediction formula at the moving object candidate position, and the absolute value of the speed difference is calculated. If it is within the predetermined range, the moving object candidate is determined as a stationary object. Then, the flow moves to step S119 . On the other hand, if the absolute value of the speed difference is outside the predetermined range, the mobile object candidate is determined as a mobile object, and the flow proceeds to step S118.

ステップS118において、判定対象抽出部31は、移動体と判定された立体物の速度の向きと予測式から得られた静止物体の移動方向の向きが反対であれば、その移動体を自車に向かう移動体と判定する。「移動方向の向きが反対である」状態は、任意に定義することができ、例えば移動方向の角度差によって予め定義する。この後に、フローはステップS119に移行する。 In step S118, if the direction of the speed of the three-dimensional object determined as the moving object is opposite to the direction of the moving direction of the stationary object obtained from the prediction formula, the determination target extraction unit 31 sets the moving object as the own vehicle. It is determined that the moving body is heading. The state of “the direction of movement is opposite” can be arbitrarily defined, and is defined in advance by, for example, an angle difference in the movement direction. After this, the flow moves to step S119.

ステップS119において、判定対象抽出部31は、移動体が検出されたか否かの判断を行う。全ての移動体が検出された場合には、フローはステップS120へ進む。一方、全ての移動体が検出されていない場合は、フローはステップS116に戻る。 In step S119, the determination target extraction unit 31 determines whether or not a moving object has been detected. If all moving objects have been detected, the flow proceeds to step S120. On the other hand, if all the moving objects have not been detected, the flow returns to step S116.

ステップS120において、判定対象抽出部31は、速度の差が所定値以内で存在する対象立体物が複数検出され、それらの対象立体物の座標の差が所定値以内である場合に、複数の対象立体物を一つの対象立体物としてグループ化を行う。この後に、フローはステップS121へ移行する。 In step S120, the determination target extraction unit 31 detects a plurality of target three-dimensional objects that have a difference in speed within a predetermined value, and a plurality of targets when the difference in coordinates of the target three-dimensional objects is within a predetermined value. A three-dimensional object is grouped as one target three-dimensional object. After this, the flow moves to step S121.

次に、ステップS121において、歩行者候補抽出部32は、対象立体物に対応する特徴点の速度から、対象立体物の速度の分散値ΔVを算出し、算出された対象立体物の速度の分散値ΔVが、ΔV≧ΔVPの条件を満たしていれば、対象立体物は歩行者候補と判定する。この後に、フローはステップS122へ移行する。 Next, in step S121, the pedestrian candidate extraction unit 32 calculates the variance value ΔV of the speed of the target three-dimensional object from the speed of the feature point corresponding to the target three-dimensional object, and the calculated variance of the speed of the target three-dimensional object. If the value ΔV satisfies the condition of ΔV ≧ ΔVP, the target three-dimensional object is determined as a pedestrian candidate. After this, the flow moves to step S122.

ステップS122において、歩行者候補検証部33は、検出された対象領域に含まれる対象立体物の速度情報分布の推移に基づいて、後述する歩行者候補の検証を行う。この後に、フローはステップS123へ移行する。 In step S122, the pedestrian candidate verification unit 33 verifies pedestrian candidates, which will be described later, based on the transition of the velocity information distribution of the target three-dimensional object included in the detected target area. After this, the flow moves to step S123.

ステップS123において、歩行者判定部34は、検出された歩行者候補の移動速度と周囲に存在する背景(立体物)の移動速度との比較に基づいて、対象領域に含まれる立体物が歩行者であるか否かの最終的な判定を行う。この処理については後述する。この後に、フローはステップS124へ移行する。 In step S123, the pedestrian determination unit 34 determines that the three-dimensional object included in the target region is a pedestrian based on the comparison between the detected movement speed of the pedestrian candidate and the movement speed of the background (three-dimensional object) existing around the pedestrian. A final determination is made as to whether or not. This process will be described later. After this, the flow moves to step S124.

ステップS124において、歩行者の検出が終了したか否かの判断を行う。歩行者の検出が終了した場合は、フローはステップS125へ進む。歩行者の検出が終了していない場合は、フローはステップS120に戻り、歩行者の検出が継続される。 In step S124, it is determined whether or not the detection of the pedestrian has been completed. When the detection of the pedestrian is completed, the flow proceeds to step S125. If the detection of the pedestrian has not ended, the flow returns to step S120, and the detection of the pedestrian is continued.

ステップS125では、自車両のイグニションスイッチがオフされたか否かの判定が行われる。イグニションスイッチがオフされていない場合は、ステップS101へ戻って処理を繰り返す。一方、イグニションスイッチがオフされた場合は、フローはステップS126へ移行して処理を終了する。 In step S125, it is determined whether or not the ignition switch of the host vehicle has been turned off. If the ignition switch is not turned off, the process returns to step S101 to repeat the process. On the other hand, if the ignition switch is turned off, the flow moves to step S126 and the process ends.

続けて、ステップS122における歩行者候補の検証処理に関する動作フローを、図16に示すフローチャートに基づいて説明する。この動作フローは、歩行者候補検証部33により実行される。 Next, an operation flow related to the pedestrian candidate verification process in step S122 will be described based on the flowchart shown in FIG. This operation flow is executed by the pedestrian candidate verification unit 33.

ステップS1221において、歩行者候補検証部33は、対象領域内に存在する移動情報のうち、歩行者候補の移動速度と同じ方向で、速度差が所定値Vt1以下である速度情報数N1と、歩行者候補の移動速度と反対向きの速度情報数N2を算出する。この後、フローはステップS1222に移行する.
ステップS1222において、歩行者候補検証部33は、ステップS1221で算出された速度情報数N1、N2が関係「N2>N1」を満たし、検出された対象領域の領域面積に対するN2の割合R1が、予め設定された所定値Rt1よりも大きくなる場合(R1>Rt1)は、対象領域に含まれる立体物はノイズと判定し、削除する(S1224)。他方、この条件を満たさない場合は、フローはステップS1223に移行する.
ステップS1223において、歩行者候補検証部33は、時間の経過に伴う対象領域に含まれる特徴点の移動方向のばらつき度を観察する。本処理では、S1222で検証する「N2>N1」かつ「R1>Rt1」の関係が保たれる検証時間を計測する。検証時間TV1が所定時間T1を超える場合(TV1>T1)は、歩行者候補の検証処理を終了し、フローをステップS123の歩行者判定処理に進める。他方、検証時間TV1が所定時間T1を超えない場合は、歩行者候補の検証を継続し、フローはステップS124に移行する。
In step S1221, the pedestrian candidate verification unit 33 determines the number of speed information N1 in which the speed difference is equal to or less than a predetermined value Vt1 in the same direction as the movement speed of the pedestrian candidate among the movement information existing in the target region, The number N2 of speed information in the direction opposite to the moving speed of the candidate is calculated. After this, the flow moves to step S1222.
In step S1222, the pedestrian candidate verification unit 33 determines that the speed information numbers N1 and N2 calculated in step S1221 satisfy the relationship “N2> N1”, and the ratio R1 of N2 to the detected area area of the target region is determined in advance. When it becomes larger than the set predetermined value Rt1 (R1> Rt1), it is determined that the three-dimensional object included in the target area is noise and is deleted (S1224). On the other hand, if this condition is not satisfied, the flow moves to step S1223.
In step S1223, the pedestrian candidate verification unit 33 observes the degree of variation in the moving direction of the feature points included in the target region over time. In this process, the verification time during which the relationship of “N2> N1” and “R1> Rt1” verified in S1222 is maintained is measured. When the verification time TV1 exceeds the predetermined time T1 (TV1> T1), the pedestrian candidate verification process is terminated, and the flow proceeds to the pedestrian determination process of step S123. On the other hand, if the verification time TV1 does not exceed the predetermined time T1, verification of the pedestrian candidate is continued, and the flow proceeds to step S124.

なお、ステップS1224では、ノイズと判定した立体物を削除し、S124へ移行する。 In step S1224, the three-dimensional object determined as noise is deleted, and the process proceeds to S124.

次に、ステップS123の歩行者判定の動作フローを、図17のフローチャートに基づいて説明する。この動作フローは、歩行者判定部34により実行される。 Next, the operation flow of pedestrian determination in step S123 will be described based on the flowchart of FIG. This operation flow is executed by the pedestrian determination unit 34.

図17に示すステップS1231において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、その対象領域に接する領域であって、対象領域の右上端から左上端の上側比較領域に含まれる立体物の移動情報とを比較する。ここでは移動方向を比較するが、移動速度を比較してもよい。 In step S1231 illustrated in FIG. 17, the pedestrian determination unit 34 includes movement information of the target area that is assumed to include the pedestrian candidate and an area that is in contact with the target area, and is located above the upper right end from the upper right end of the target area. The movement information of the three-dimensional object included in the comparison area is compared. Although the moving directions are compared here, the moving speeds may be compared.

このステップS1231において、この比較領域に歩行者とは反対の方向の移動方向を持つ立体物が存在すれば、歩行者として判定する。フローはステップS1238に移行する。他方、反対の移動方向を持つ立体物が存在しなければ、フローはステップS1232に移行する。 In this step S1231, if there is a three-dimensional object having a moving direction opposite to that of the pedestrian in this comparison area, it is determined as a pedestrian. The flow moves to step S1238. On the other hand, if there is no three-dimensional object having the opposite moving direction, the flow moves to step S1232.

ステップS1232において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と歩行者候補領域の左端から所定距離D1左側までの左側比較領域(図14参照)の移動情報の比較を行う。当該領域に反対の移動方向を持つ立体物が存在すれば、右側比較領域の立体物と比較を行うため、フローはステップS1233に移行する。存在しなければ、フローはステップS1234に移行する.
続いて、ステップS1233において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、この対象領域に接し、その右端から所定距離D1右側までの右側比較領域(図14参照)の移動速度の比較を行う。当該領域に反対の移動速度を持つ立体物が存在すれば、歩行者として判定できるため、フローはステップS1238に移行する。存在しなければ、フローはステップS1234に移行する。
In step S1232, the pedestrian determination unit 34 calculates the movement information of the target area that includes the pedestrian candidate and the movement information of the left comparison area (see FIG. 14) from the left end of the pedestrian candidate area to the left side of the predetermined distance D1. Make a comparison. If there is a three-dimensional object having the opposite moving direction in the area, the flow proceeds to step S1233 in order to compare with the three-dimensional object in the right comparison area. If not, the flow moves to step S1234.
Subsequently, in step S1233, the pedestrian determination unit 34 moves information on the target area that includes the pedestrian candidate, and the right comparison area from the right end to the right side of the predetermined distance D1 (see FIG. 14). Compare the movement speeds of (see). If there is a three-dimensional object having the opposite moving speed in the region, it can be determined as a pedestrian, so the flow moves to step S1238. If not, the flow moves to step S1234.

ステップS1234において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、この対象領域から所定距離だけ離隔し、左側所定値D2〜D3までの第2左側比較領域(図14参照)に含まれる立体物の移動情報とを比較する。 In step S1234, the pedestrian determination unit 34 moves the movement information of the target area that is supposed to include the pedestrian candidate, and the second left-side comparison area (a left-side predetermined value D2 to D3) that is separated from the target area by a predetermined distance. The movement information of the three-dimensional object included in (see FIG. 14) is compared.

第2左側比較領域に同一方向の移動方向を持ち、検出された移動速度との速度差がPV2未満となる立体物が存在すれば、対象領域に含まれる立体物はノイズと判定し、フローはステップS1237に移行する。存在しなければ、フローはステップS1235に移行する。 If there is a three-dimensional object that has the same direction of movement in the second left comparison area and the speed difference from the detected movement speed is less than PV2, the three-dimensional object included in the target area is determined as noise, and the flow is The process moves to step S1237. If not, the flow moves to step S1235.

ステップS1235において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、この対象領域の右端から所定距離だけ離隔し、右側所定値D2〜D3までの第2右側比較領域の立体物の移動情報を比較する。第2右側比較領域に同一方向の移動方向を持ち、検出された移動速度との速度差がVt2未満となる立体物が存在すれば、第2右側対象領域に含まれる立体物はノイズと判定し、ステップS1237に移行する。存在しなければ、フローはステップS124に移行する。 In step S1235, the pedestrian determination unit 34 compares the movement information of the target area that is supposed to include the pedestrian candidate and the second right-side comparison from the right end of the target area by a predetermined distance to the right predetermined values D2 to D3. The movement information of the three-dimensional object in the area is compared. If there is a three-dimensional object that has the same direction of movement in the second right comparison area and the speed difference from the detected movement speed is less than Vt2, the three-dimensional object included in the second right target area is determined as noise. The process proceeds to step S1237. If not, the flow moves to step S124.

ステップS1238において、歩行者判定部34は、対象領域に含まれる立体物は歩行者であると判定し、ステップS124へ移行する。 In step S1238, the pedestrian determination unit 34 determines that the three-dimensional object included in the target area is a pedestrian, and proceeds to step S124.

また、ステップS1237において、歩行者判定部34は、対象領域に含まれる立体物はノイズ(歩行者ではない)と判定し、その歩行者候補と判断された立体物を歩行者候補から削除し、ステップS124へ移行する。 In step S1237, the pedestrian determination unit 34 determines that the three-dimensional object included in the target region is noise (not a pedestrian), deletes the three-dimensional object determined as the pedestrian candidate from the pedestrian candidate, The process proceeds to step S124.

ステップS124に進み、すべての歩行者を検出したか否かを判断し、処理の繰り返し又は終了へ向かう。 It progresses to step S124, it is judged whether all the pedestrians were detected, and it goes to the repetition or completion | finish of a process.

本実施形態の歩行者検出装置100は、以上のように構成され動作するので、以下の効果を奏する。 Since the pedestrian detection apparatus 100 of this embodiment is comprised and operate | moved as mentioned above, there exist the following effects.

本実施形態の歩行者検出装置100は、撮像画像から抽出された対象領域に関する移動情報と対象領域の周囲に設定された比較領域に関する移動情報とに基づいて、抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定する。これにより、近傍に存在する背景に対する対象立体物の相対的な動きの変化を観察することができるので、背景を歩行者として誤検出することを防ぐことができる。   The pedestrian detection apparatus 100 according to the present embodiment includes a target included in the extracted target area based on the movement information regarding the target area extracted from the captured image and the movement information regarding the comparison area set around the target area. It is determined whether the three-dimensional object is a pedestrian. Thereby, since the change of the relative motion of the target three-dimensional object with respect to the background existing in the vicinity can be observed, it is possible to prevent erroneous detection of the background as a pedestrian.

判定対象抽出部31により抽出された移動する立体物には背景となるものも含まれるが、本実施形態の歩行者判定部32は、その周囲に存在する立体物に対する対象立体物の相対的な動きの変化を観察して、対象立体物が歩行者であるか否かを判定するため、背景を構成する立体物から歩行者を正確に識別することができる。   The moving three-dimensional object extracted by the determination target extraction unit 31 includes a background object, but the pedestrian determination unit 32 of the present embodiment is configured so that the target three-dimensional object is relative to the three-dimensional object existing in the surrounding area. Since it is determined whether or not the target three-dimensional object is a pedestrian by observing a change in movement, the pedestrian can be accurately identified from the three-dimensional object constituting the background.

具体的に、対象領域に関する移動速度と比較領域に関する移動速度との差が所定値以上である場合は、対象領域に含まれる立体物は歩行者であると判定することにより、移動速度が異なる背景から歩行者を識別し、背景を歩行者として誤検出することを低減することができる。 Specifically, when the difference between the movement speed related to the target area and the movement speed related to the comparison area is equal to or greater than a predetermined value, it is determined that the three-dimensional object included in the target area is a pedestrian. Therefore, it is possible to reduce pedestrian identification and erroneously detecting the background as a pedestrian.

また、対象領域に関する移動方向と比較領域に関する移動方向との差が所定値以上である場合は、対象領域に含まれる立体物は歩行者であると判定することにより、移動方向が異なる背景から歩行者を識別し、背景を歩行者として誤検出することを低減することができる。 In addition, when the difference between the movement direction related to the target area and the movement direction related to the comparison area is equal to or greater than a predetermined value, it is determined that the three-dimensional object included in the target area is a pedestrian, thereby walking from a background with a different movement direction. The person can be identified and erroneous detection of the background as a pedestrian can be reduced.

さらに、対象領域に関する移動方向と比較領域に関する移動方向が、予め定義された略反対方向関係を有する場合は、対象領域に含まれる立体物は自己に接近する歩行者であると判定することにより、背景から歩行者を識別するとともに、自己(歩行者検出装置100)に接近する歩行者をさらに識別することができる。 Further, when the movement direction related to the target area and the movement direction related to the comparison area have a predefined substantially opposite direction relationship, by determining that the three-dimensional object included in the target area is a pedestrian approaching the self, While identifying the pedestrian from the background, it is possible to further identify the pedestrian approaching the self (pedestrian detection device 100).

他方、比較の結果、移動速度の差が所定値未満である場合は、対象領域に含まれる立体物は歩行者以外の立体物であると判定することにより、背景と移動速度がほぼ同じである歩行者(候補)を、歩行者以外の立体物と識別し、背景を歩行者として誤検出することを低減することができる。   On the other hand, if the difference in the moving speed is less than the predetermined value as a result of the comparison, it is determined that the three-dimensional object included in the target area is a three-dimensional object other than the pedestrian, and the background and the moving speed are substantially the same. A pedestrian (candidate) is identified as a three-dimensional object other than a pedestrian, and erroneous detection of the background as a pedestrian can be reduced.

同様に、比較の結果、移動方向の差が所定値未満である場合は、対象領域に含まれる対象立体物は歩行者以外の立体物であると判定することにより、背景と移動方向がほぼ同じである歩行者(候補)を、歩行者以外の立体物と識別し、背景を歩行者として誤検出することを低減することができる。   Similarly, if the difference in the moving direction is less than the predetermined value as a result of the comparison, it is determined that the target three-dimensional object included in the target region is a three-dimensional object other than a pedestrian, so that the background and the moving direction are substantially the same. It is possible to reduce pedestrians (candidates) that are identified as solid objects other than pedestrians and erroneously detecting the background as a pedestrian.

このように、本実施形態によれば、同じ背景を構成するのであれば移動情報(移動速度及び/又は移動方向)が共通し、背景とは別個の歩行者であれば移動情報が異なるとの観点から、対象領域と比較領域との移動情報の比較に基づいて、対象立体物が歩行者であるか否かを正確かつ簡易に判定することができる。特に、移動する観測者が見る前方風景のように、背景を構成する設置物と自由に移動する歩行者が混在する場合は、設置物の移動情報は観測者の移動によって決まるため、両者の移動情報の比較結果に基づいて対象立体物が歩行者であるか否かを正確に判定することができる。   Thus, according to the present embodiment, the movement information (movement speed and / or movement direction) is common if the same background is configured, and the movement information is different if the pedestrian is separate from the background. From the viewpoint, it is possible to accurately and easily determine whether the target three-dimensional object is a pedestrian based on comparison of movement information between the target area and the comparison area. In particular, when there are a mixture of installation objects that make up the background and pedestrians that move freely, such as a front view seen by a moving observer, the movement information of the installation is determined by the movement of the observer. It is possible to accurately determine whether or not the target three-dimensional object is a pedestrian based on the information comparison result.

また、対象領域の周囲に設定される比較領域は、対象領域の上端から上側へ所定長さの幅を有する上側比較領域、対象領域の左端辺から左側へ所定長さの幅を有する左側比較領域、又は対象領域の右端辺から右側へ所定長さの幅を有する右側比較領域のいずれか1つ以上を含むようにしたので、対象立体物とこれを様々な方向から囲む背景とについて移動情報の比較を行うことができ、対象立体物が歩行者であるか否かを正確に判定することができる。   The comparison area set around the target area is an upper comparison area having a predetermined length from the upper end of the target area to the upper side, and a left comparison area having a predetermined length from the left end side to the left side of the target area. Or any one or more of the right comparison region having a predetermined length from the right end side to the right side of the target region, so that the movement information of the target three-dimensional object and the background surrounding it from various directions Comparison can be performed, and it can be accurately determined whether or not the target three-dimensional object is a pedestrian.

さらに、比較領域を対象領域の上端辺、右端辺、左端辺から所定距離だけ離隔させた位置に設定することにより、対象立体物の移動情報と比較領域内の背景の移動情報を正確に比較することができ、対象立体物が歩行者であるか否かを正確に判定することができる。特に、対象領域から離隔させて第2の比較領域を設定することにより、移動情報が複雑に重畳する各領域の境界における移動情報を比較することを避けることができるため、正確な移動情報に基づいて移動情報の比較を行うことができる。   Furthermore, by setting the comparison area at a position separated from the upper edge, right edge, and left edge of the target area by a predetermined distance, the movement information of the target three-dimensional object and the movement information of the background in the comparison area are accurately compared. It is possible to accurately determine whether or not the target three-dimensional object is a pedestrian. In particular, by setting the second comparison area apart from the target area, it is possible to avoid comparing the movement information at the boundary between the areas where the movement information is superimposed in a complicated manner. The movement information can be compared.

また、本実施形態の歩行者検知装置100は、歩行者候補抽出部32を備え、対象領域内の特徴点の移動速度の分散値を算出し、分散値が所定値以上である領域を歩行者が含まれる対象領域として抽出することにより、歩行者特有の画像の特徴に基づいて歩行者を含む対象領域を正確に抽出することができる。   Moreover, the pedestrian detection apparatus 100 of this embodiment is provided with the pedestrian candidate extraction part 32, calculates the dispersion | distribution value of the moving speed of the feature point in an object area | region, and pedestrians the area | region where a dispersion | distribution value is more than predetermined value. By extracting as a target area including a pedestrian, it is possible to accurately extract a target area including a pedestrian based on the characteristics of an image unique to the pedestrian.

加えて、移動速度の分散値が所定値未満であっても、所定時間内における対象領域内の特徴点の移動量と移動速度の変化に基づいて歩行者が含まれる対象領域を抽出するため、移動速度が遅い歩行者についても簡易な手法で、歩行者を含む対象領域を正確に抽出することができる。   In addition, even if the variance value of the moving speed is less than the predetermined value, in order to extract the target area including the pedestrian based on the movement amount of the feature point in the target area and the change in the moving speed within the predetermined time, For a pedestrian with a slow movement speed, a target region including the pedestrian can be accurately extracted by a simple method.

特に、特徴点の移動速度の分散値に基づいて歩行者候補を含む対象領域を抽出してから、この抽出された対象領域と周囲の比較領域との移動速度の比較に基づいて対象領域に含まれる対象立体物が歩行者であるか否かを判定することにより、歩行者を含む可能性の高い対象領域について、さらに異なる指標に基づいて歩行者を含むか否かを判定することにより、背景を歩行者とする誤検出を防ぐことができる。   In particular, after extracting the target area including the pedestrian candidate based on the variance value of the moving speed of the feature points, it is included in the target area based on the comparison of the moving speed between this extracted target area and the surrounding comparison area. By determining whether or not the target three-dimensional object to be included is a pedestrian, it is possible to determine whether or not to include a pedestrian based on a different index for a target region that is likely to include a pedestrian. Can be prevented from being erroneously detected as a pedestrian.

さらにまた、本実施形態の歩行者検知装置100は、歩行者候補検証部33を備え、特徴点の移動情報のばらつき度の経時的変化に基づいて対象領域が歩行者を含むか否かを検証することにより、歩行者特有の画像の経時的変化における特徴に基づいて対象領域が歩行者を含むか否かを正確に検証することができる。 Furthermore, the pedestrian detection device 100 according to the present embodiment includes a pedestrian candidate verification unit 33, and verifies whether the target region includes a pedestrian based on a temporal change in the degree of variation in the movement information of feature points. By doing this, it is possible to accurately verify whether or not the target region includes a pedestrian based on the characteristics of the pedestrian-specific image over time.

特に、特徴点の移動情報のばらつき度が時間の経過とともに大きくなる場合は、その特徴点が同一の歩行者に基づくものではないとの観点に基づいて、対象領域が歩行者を含むか否かを正確に検証することができる。 In particular, if the degree of variation in the movement information of feature points increases with time, whether or not the target area includes pedestrians based on the viewpoint that the feature points are not based on the same pedestrian Can be verified accurately.

加えて、特徴点を所定時間観察した場合に、歩行者候補とされる対象立体物の移動情報と共通する移動情報の数N1と、対象立体物の移動情報と異なる移動情報の数N2を比較し、N2>N1であり、対象領域の面積に対するN2の割合が所定値よりも大きいことを基準に移動情報のばらつき度の大小を判断することにより、対象領域が歩行者を含むか否かを定量的に検証することができる。 In addition, when the feature points are observed for a predetermined time, the number N1 of movement information common to the movement information of the target three-dimensional object that is a pedestrian candidate is compared with the number N2 of movement information different from the movement information of the target three-dimensional object. N2> N1, and whether or not the target area includes a pedestrian is determined by determining the degree of variation in the movement information based on the ratio of N2 to the area of the target area being larger than a predetermined value. It can be verified quantitatively.

つまり、所定時間の間に、対象領域内において、歩行者候補と共通の(差が所定未満の)移動情報数N1よりも、歩行者候補と異なる移動情報数N2が多くなり、対象領域に対する割合が所定値よりも大きくなる変化がある場合は、対象立体物は歩行者以外であると検証することができる。これにより、歩行者と同じような移動情報及び移動情報の変化を示す背景についても、所定時間の移動情報の推移を観察することで、歩行者以外の物体(ノイズ)であるか否かを検証することができる。 That is, the number of pieces of movement information N2 different from the pedestrian candidates is larger than the number of pieces of movement information N1 common to the pedestrian candidates (the difference is less than the predetermined number) in the target area during the predetermined time, and the ratio to the target area When there is a change that becomes larger than a predetermined value, it can be verified that the target three-dimensional object is other than a pedestrian. As a result, it is verified whether or not it is an object (noise) other than a pedestrian by observing the transition of the movement information for a predetermined time with respect to the movement information similar to the pedestrian and the background indicating the change of the movement information. can do.

加えて、本実施形態の歩行者検知装置100においては、判定対象抽出部31が移動する立体物を含む対象領域を抽出するため、歩行者判定部34は対象立体物が歩行者であるか否かを正確に判定することができる。 In addition, in the pedestrian detection apparatus 100 of the present embodiment, the pedestrian determination unit 34 determines whether or not the target three-dimensional object is a pedestrian because the determination target extraction unit 31 extracts a target area including the moving three-dimensional object. Can be accurately determined.

つまり、撮像画像上で同等の速度を有する隣接した画素をグループ化して、その上端と下端に位置する画素を求め、該画素の俯瞰変換後の座標により平面物、立体物、移動体の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて移動する立体物を含む対象領域を簡単に抽出することができる。 In other words, adjacent pixels having the same speed on the captured image are grouped to obtain pixels located at the upper end and lower end thereof, and a plane object, a three-dimensional object, and a moving object are determined based on coordinates after the overhead conversion of the pixels. Therefore, it is possible to easily extract a target area including a three-dimensional object that moves based on a captured image obtained from one camera 10.

また、変換座標において上端に位置する画素の座標が所定領域を有する変換座標の領域外に属するとともに、下端に位置する画素の座標が変換座標のいずれかの分割領域に属する場合は、グループ化された画素群に対応する領域を、対象立体物を含む対象領域として抽出することができる。つまり、撮像画像上で同等の速度を有する隣接した画素をグループ化してその上端と下端に位置する画素を求め、この画素の俯瞰座標への変換後の座標により立体物の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて移動する立体物を含む対象領域を簡単に抽出することができる。 In addition, when the coordinates of the pixel located at the upper end in the transformed coordinates belong outside the area of the transformed coordinate having a predetermined area, and the coordinates of the pixel located at the lower end belong to one of the divided areas of the transformed coordinates, they are grouped. A region corresponding to the pixel group can be extracted as a target region including the target three-dimensional object. In other words, adjacent pixels having the same speed on the captured image are grouped to obtain pixels located at the upper end and lower end thereof, and a three-dimensional object can be determined based on the coordinates after conversion to the overhead coordinates of the pixels. Therefore, it is possible to easily extract a target area including a three-dimensional object that moves based on a captured image obtained from one camera 10.

他方、変換座標において上端に位置する画素の座標と下端に存在する画素の座標とが共通の分割領域に属する場合は、グループ化された画素群に対応する領域を、平面物を含む対象領域として抽出することができる。つまり、撮像画像上で同等の速度を有する隣接した画素をグループ化してその上端と下端に位置する画素を求め、この画素の俯瞰座標への変換後の座標により平面物の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて平面物(移動する立体物以外の物)を含む対象領域を簡単に抽出することができる。 On the other hand, when the coordinates of the pixel located at the upper end and the coordinates of the pixel existing at the lower end belong to a common divided area in the converted coordinates, the area corresponding to the grouped pixel group is set as the target area including the planar object. Can be extracted. That is, it is possible to group adjacent pixels having the same speed on the captured image to obtain pixels located at the upper end and the lower end thereof, and to determine a plane object based on the coordinates after conversion to the overhead coordinates of the pixels. Therefore, it is possible to easily extract a target area including a planar object (an object other than a moving three-dimensional object) based on a captured image obtained from one camera 10.

さらに、判定対象抽出部31は、上端の画素の座標値と下端の画素の座標値とに基づいて基準境界を求め、上端の画素と基準境界との位置関係に基づいて移動する対象立体物、静止物が含まれる対象領域を抽出することができるため、観測者側の動きの推定や物体までの距離を算出することなく、検出された立体物の速度と位置関係に基づいて移動体の検出を簡単に行うことができる。 Furthermore, the determination target extraction unit 31 obtains a reference boundary based on the coordinate value of the upper end pixel and the coordinate value of the lower end pixel, and moves based on the positional relationship between the upper end pixel and the reference boundary. Because it is possible to extract the target area that contains a stationary object, it is possible to detect a moving object based on the speed and positional relationship of the detected three-dimensional object without estimating the observer's movement and calculating the distance to the object. Can be done easily.

同様に、基準境界の移動情報から算出された背景の予測移動方向と対象立体物の移動方向との関係に応じて自己に接近する対象立体物を含む対象領域を抽出することができる。 Similarly, it is possible to extract a target area including a target three-dimensional object that approaches itself according to the relationship between the predicted movement direction of the background calculated from the movement information of the reference boundary and the movement direction of the target three-dimensional object.

このように、背景が自車両(観測者)の近傍から遠方に連続して存在する静止立体物であるとし、下端点の座標変換の位置から走路境界を背景の一つと擬制して、効率的に背景の存在及び背景の移動情報を検出し、移動体を含む対象領域を抽出することができる.
また、背景は静止物であるため、自車両(観測者)の近傍の速度が大きく、遠方になるに従って速度が小さくなるという関係が成り立つ。したがって、背景の画像位置と速度関係を満たす予測式とを算出すれば、画像上の任意の位置における静止物の速度を推定することができる。そして、この推定した速度情報と検出で得られた速度情報を比較することにより、静止物か移動物かの判定を効率的に行うことができる。
In this way, it is assumed that the background is a stationary three-dimensional object that exists continuously from the vicinity of the host vehicle (observer), and the road boundary is assumed to be one of the background from the position of the coordinate transformation of the lower end point. It is possible to detect the presence of the background and the movement information of the background, and to extract the target area including the moving body.
In addition, since the background is a stationary object, the relationship that the speed near the own vehicle (observer) is large and the speed decreases as the distance increases. Therefore, if a prediction formula that satisfies the relationship between the image position of the background and the speed is calculated, the speed of the stationary object at an arbitrary position on the image can be estimated. Then, by comparing the estimated speed information with the speed information obtained by the detection, it is possible to efficiently determine whether the object is a stationary object or a moving object.

さらに、画像上の移動情報の差が所定値未満である画素群の対象領域を一の対象領域として抽出することにより、一つの移動体において複数のエッジが検出された場合でも、一つの移動体であるとの判定を行うことができる。 Furthermore, by extracting a target area of a pixel group whose difference in movement information on an image is less than a predetermined value as one target area, even when a plurality of edges are detected in one mobile object, one mobile object It can be determined that

加えて、特徴点を撮像画像に含まれる物体のエッジに対応する画素又は画素群とするため、撮像画像上において物体のエッジを検出することで、簡単に歩行者を検出することができる。 In addition, since the feature point is a pixel or a pixel group corresponding to the edge of the object included in the captured image, a pedestrian can be easily detected by detecting the edge of the object on the captured image.

<第2実施形態>
続いて、第2実施形態について説明する。第2実施形態は、歩行者候補検証部33の処理の内容に特徴がある。この点を除き、第2実施形態の基本的構成及び処理は、第1実施形態のそれに共通するため、ここでは異なる点を中心に説明する。
Second Embodiment
Next, the second embodiment will be described. The second embodiment is characterized by the contents of processing of the pedestrian candidate verification unit 33. Except for this point, the basic configuration and processing of the second embodiment are common to those of the first embodiment, and therefore, different points will be mainly described here.

歩行者候補検証部33は、対象領域に含まれる立体物の特徴点の移動方向のばらつき度が時間の経過とともに大きくなる場合は、その対象領域は歩行者を含まない対象領域として検証する。   The pedestrian candidate verification unit 33 verifies the target region as a target region that does not include a pedestrian when the degree of variation in the moving direction of the feature point of the three-dimensional object included in the target region increases with time.

これに加え、本実施形態において、歩行者候補検証部33は、撮像画像における消失点の位置を考慮し、抽出された対象領域と消失点との距離に応じて特徴点の移動方向のばらつき度の変化を観察する時間(検証時間)を決定する。   In addition to this, in this embodiment, the pedestrian candidate verification unit 33 considers the position of the vanishing point in the captured image, and the degree of variation in the moving direction of the feature point according to the distance between the extracted target region and the vanishing point Determine the time (verification time) for observing changes.

撮像画像における消失点は、その位置によっては、立体物が歩行者であるか否かについての誤検出の原因の一つとなる。また、消失点の画像上の位置により、今後の移動量が予測できる。消失点が画像の端にあれば、操舵量が大きいと考えられるため、今後の移動量は大きくなる。つまり、短い時間で大きい移動量を検知することができるといえる。従って、消失点が画像の端にある場合は、移動方向の変化量を観察する検証時間は少ない時間とすることが可能である。一方、消失点が画像の中央に近づくにつれ、操舵量は小さくなり、今後の移動量は小さくなる。従って検証時間は、長く取る必要がある。 The vanishing point in the captured image becomes one of the causes of erroneous detection as to whether or not the three-dimensional object is a pedestrian depending on the position. Further, the amount of future movement can be predicted from the position of the vanishing point on the image. If the vanishing point is at the end of the image, it is considered that the steering amount is large, so that the future movement amount becomes large. That is, it can be said that a large amount of movement can be detected in a short time. Therefore, when the vanishing point is at the edge of the image, the verification time for observing the amount of change in the moving direction can be reduced. On the other hand, as the vanishing point approaches the center of the image, the steering amount decreases, and the future movement amount decreases. Therefore, it is necessary to take a long verification time.

以上のことから、検出された歩行者候補(対象領域)の画像上の位置、すなわち消失点と歩行者候補(対象領域)との位置関係に基づいて、移動方向のばらつきを観察する検証時間を変えることができる。 Based on the above, the verification time for observing the variation in the moving direction based on the position of the detected pedestrian candidate (target region) on the image, that is, the positional relationship between the vanishing point and the pedestrian candidate (target region). Can be changed.

消失点の位置と検証時間との関係は予め任意に定義することができる。たとえば、対象領域の水平座標に基づいて検証時間を決定することができる。また、撮像画像の縁に沿う外側領域と、外側領域の内側であって、撮像画像の中心から予め定義された内側領域とを予め定義し、消失点がどの領域に属するかに基づいて、検証時間を決定してもよいし、撮像画像の外縁又は中心からの距離に応じて検証時間を決定してもよい。 The relationship between the vanishing point position and the verification time can be arbitrarily defined in advance. For example, the verification time can be determined based on the horizontal coordinate of the target area. In addition, an outer region along the edge of the captured image and an inner region that is inside the outer region and defined in advance from the center of the captured image are defined in advance, and verification is performed based on which region the vanishing point belongs to. The time may be determined, or the verification time may be determined according to the distance from the outer edge or center of the captured image.

特に限定されないが、消失点が外側領域に属する場合(又は消失点が外側領域に近い若しくは消失点が中心から遠い場合)は、検証時間を相対的に短く設定し、消失点が内側領域に属する場合(又は消失点が縁から遠い若しくは消失点が中心に近い場合)は、検証時間を相対的に長く設定する。 Although not particularly limited, when the vanishing point belongs to the outer region (or when the vanishing point is close to the outer region or the vanishing point is far from the center), the verification time is set to be relatively short, and the vanishing point belongs to the inner region. In the case (or when the vanishing point is far from the edge or when the vanishing point is close to the center), the verification time is set relatively long.

図18は、本実施形態における歩行者検証処理を示す。この歩行者検証処理は、図15に示すフローチャートのステップ122の処理に対応する。   FIG. 18 shows a pedestrian verification process in the present embodiment. This pedestrian verification process corresponds to the process of step 122 in the flowchart shown in FIG.

ステップS122Aにおいて、歩行者候補検証部33は、ステップS121で検出された歩行者候補の画像上の位置に応じて検証時間を設定する。この後、フローはステップS122Bに移行する.
なお、ステップS122B〜ステップS122Eは、上述した図16に示すステップS1221〜ステップS1244と同様の処理である。
In step S122A, the pedestrian candidate verification unit 33 sets the verification time according to the position of the pedestrian candidate image detected in step S121. After this, the flow moves to step S122B.
Note that steps S122B to S122E are the same processes as steps S1221 to S1244 shown in FIG. 16 described above.

本実施形態の歩行者検出装置100によれば、歩行者候補検証処理において、抽出された対象領域と消失点との距離に応じて、特徴点の移動方向のばらつき度の変化を観察する時間を決定するため、適切な検証時間を設定することができ、全体として処理時間を短縮することができる。   According to the pedestrian detection apparatus 100 of the present embodiment, in the pedestrian candidate verification process, the time for observing a change in the variation degree of the moving direction of the feature point according to the distance between the extracted target region and the vanishing point is set. Therefore, an appropriate verification time can be set, and the processing time can be shortened as a whole.

<第3実施形態>
続いて、第3実施形態について説明する。第3実施形態は、判定対象抽出部31の処理の内容に特徴がある。この点を除き、第3実施形態の基本的構成及び処理は、第1実施形態のそれに共通するため、ここでは異なる点を中心に説明する。
<Third Embodiment>
Subsequently, the third embodiment will be described. The third embodiment is characterized in the contents of processing of the determination target extraction unit 31. Except for this point, the basic configuration and processing of the third embodiment are common to those of the first embodiment, and therefore, different points will be mainly described here.

特徴点の移動情報に基づいて、撮像画像の中から移動する対象立体物を含む対象領域を抽出する際に、例えばエッジ検出の結果に起因して、同じ立体物等を異なる立体物として抽出してしまう場合がある。 Based on the movement information of feature points, when extracting the target area including the target solid object that moves from the captured image, for example, the same three-dimensional object is extracted as a different three-dimensional object due to the result of edge detection. May end up.

本実施形態の判定対象抽出部31は、判定対象抽出部31が、一の立体物や移動体の特徴点を同一のグループにグループ化できない場合でも、平面物と立体物の検出を確実に行う。 The determination target extraction unit 31 according to the present embodiment reliably detects a planar object and a three-dimensional object even when the determination target extraction unit 31 cannot group the feature points of one solid object or moving object into the same group. .

具体的に、本実施形態の判定対象抽出部31は、抽出された対象領域に含まれる平面物に対応する画素群が、抽出された対象領域に含まれる立体物に対応する画素群に、画像の略垂直方向に沿って連なる場合は、平面物を含む対象領域と立体物を含む対象領域とを共通の対象立体物を含む対象領域として抽出する。   Specifically, the determination target extraction unit 31 according to the present embodiment applies a pixel group corresponding to a planar object included in the extracted target region to a pixel group corresponding to a three-dimensional object included in the extracted target region. Are extracted along the substantially vertical direction, the target area including the planar object and the target area including the three-dimensional object are extracted as the target area including the common target three-dimensional object.

図19に示す画像情報に基づいて本実施形態の判定対象の抽出処理を説明する。図19に示すように、外壁上(図3を参照)に検出されたP1〜P13の内、P1〜P3とP4〜P13が別々にグループ化され、P61〜P12の内、P61〜P63とP4〜P12が別々にグループ化され、P81〜P811の内、P81〜P83とP84〜P11が別々にグループ化され、P91〜P912の内、P91〜P93とP4〜P12が別々にグループ化された場合の処理について説明する。 Based on the image information shown in FIG. 19, the determination target extraction process of the present embodiment will be described. As shown in FIG. 19, of the P 1 1 to P 1 13 detected on the outer wall (see Figure 3), P 1 1~P 1 3 and P 1 4~P 1 13 are grouped separately of the P 6 1~P 2 12, P 6 1~P 6 3 and P 2 4~P 2 12 are separately grouped, among P 8 1~P 8 11, P 8 1~P 8 3 process when the P 8 4~P 3 11 are grouped separately, of the P 9 1 to P 9 12, in which P 9 1 to P 9 3 and P 4 4~P 4 12 are grouped separately Will be described.

まず、算出された移動画像に物体を検出するための領域を設定する。すなわち、図19に示すように、移動画像上に短冊状の複数の領域(以降、短冊領域と呼ぶ)を設定し、移動画像を分割する。本実施形態では、各短冊領域毎に画像下端から上端に速度を持った画素を順に走査して検出し、検出された画素を前述の(数式1)、(数式2)に基づいてZX平面へ座標変換する。 First, an area for detecting an object is set in the calculated moving image. That is, as shown in FIG. 19, a plurality of strip-shaped areas (hereinafter referred to as strip areas) are set on the moving image, and the moving image is divided. In this embodiment, for each strip region, pixels having a speed from the lower end to the upper end of the image are sequentially scanned and detected, and the detected pixels are moved to the ZX plane based on the above-described (Equation 1) and (Equation 2). Convert coordinates.

座標変換の結果が図7に示すZX平面内に位置するか否かを判定する。座標変換の結果がZX平面内に位置すれば、平面物の候補点と判定する。一方、ZX平面内に位置しなければ、立体物の候補点として判定する。なお、ZX平面には前述した実施形態で説明した領域と同じ領域が設定されるものとし、領域の設定方法については説明を省略する。 It is determined whether or not the result of the coordinate transformation is located in the ZX plane shown in FIG. If the result of coordinate transformation is located in the ZX plane, it is determined as a candidate point for a plane object. On the other hand, if it is not located in the ZX plane, it is determined as a candidate point for a three-dimensional object. Note that the same region as that described in the above-described embodiment is set on the ZX plane, and description of the region setting method is omitted.

具体的に、図19に示す例では、P1〜P3はZX平面内の同一の領域に位置して平面物の候補点と判定され、P4〜P13はZX平面内に位置しないため、立体物候補点と判定される。同様に、P1〜P3、P1〜P3、P1〜P3、P51〜P53、P61〜P63、P71〜P73、P1〜P3、P1〜P3、P101〜P103、P111〜P113、P121〜P123、P131〜P133、P141〜P143、P151〜P153、P161〜P163は平面物候補点と判定され、P14〜P113、P4〜P15、P4〜P15、P3〜P12、P4〜P11、P4〜P12、P124〜P1215、P134〜P1315、P144、P154〜P1516、P164〜P1617は立体物候補点と判定される。 Specifically, in the example shown in FIG. 19, P 1 1~P 1 3 is determined as a candidate point of the planar articles located in the same area in the ZX plane, P 1 4~P 1 13 is the ZX plane Therefore, it is determined as a three-dimensional object candidate point. Similarly, P 2 1~P 2 3, P 3 1~P 3 3, P 4 1~P 4 3, P 5 1~P 5 3, P 6 1~P 6 3, P 7 1~P 7 3 , P 8 1~P 8 3, P 9 1~P 9 3, P 10 1~P 10 3, P 11 1~P 11 3, P 12 1~P 12 3, P 13 1~P 13 3, P 14 1~P 14 3, P 15 1~P 15 3, P 16 1~P 16 3 is determined to be planar object candidate points, P 1 4~P 1 13, P 3 4~P 3 15, P 5 4 ~P 5 15, P 6 3~P 6 12, P 8 4~P 8 11, P 9 4~P 9 12, P 12 4~P 12 15, P 13 4~P 13 15, P 14 4, P 15 4~P 15 16, P 16 4~P 16 17 is determined to the three-dimensional object candidate points.

次に、平面物候補点と立体物候補点の判定結果に基づき、立体物の判定を行う。すなわち、平面物候補点であると判定された点と立体物候補点であると判定された点が、縦方向に連続して存在する場合は、立体物の内、路面近くに存在する部分が誤って平面物候補点であると判定されたものと推定できる。このため、平面物候補点と立体物候補点が縦方向に連続して存在する物体を立体物として判定する。 Next, the solid object is determined based on the determination result of the planar object candidate point and the solid object candidate point. That is, when the point determined to be a planar object candidate point and the point determined to be a three-dimensional object candidate point exist continuously in the vertical direction, a portion of the three-dimensional object that exists near the road surface is present. It can be estimated that it was erroneously determined to be a planar object candidate point. For this reason, an object in which a planar object candidate point and a three-dimensional object candidate point exist continuously in the vertical direction is determined as a three-dimensional object.

例えば、本例では、図19及び20に示すように、平面物候補点P1〜P3と立体物候補点P4〜P13が縦方向に連続しているため、P1〜P13を一の立体物OB1として判定する。 For example, in this embodiment, as shown in FIGS. 19 and 20, since the planar object candidate points P 1 1 to P 1 3 and the three-dimensional object candidate points P 1 4~P 1 13 is continuous in the longitudinal direction, P 1 1 to P 1 13 are determined as one solid object OB1.

同様に、P1〜P15を立体物OB2、P1〜P15を一の立体物OB3として判定し、P1〜P12を一の立体物OB4、P1〜P11を一の立体物OB5として判定し、P1〜P12を一の立体物OB6として判定し、P121〜P1215を一の立体物OB7として判定し、P131〜P1315を一の立体物OB8として判定し、P141〜P144を一の立体物OB9として判定し、P151〜P1516を一の立体物OB10として判定し、P161〜P1617を一の立体物OB11として判定する(図20参照)。 Similarly, to determine the P 2 1 to P 2 15 a solid object OB2, P 3 1~P 3 15 as a three-dimensional object OB3, P 6 1~P 6 12 one of the three-dimensional object OB4, P 8. 1 to the P 8 11 determines as a three-dimensional object OB5, determines P 9 1 to P 9 12 one of the three-dimensional object OB6, determines P 12 1 to P 12 15 as a three-dimensional object OB7, P 13 1 the to P 13 15 determined as a three-dimensional object OB8, determines P 14 1 to P 14 4 as a single three-dimensional object OB9, determines P 15 1 to P 15 16 as a three-dimensional object OB10, P 16 1 to P 16 17 are determined as one solid object OB11 (see FIG. 20).

さらに、平面物および立体物と判定された点の内、下端点を抽出し、第1の実施形態と同様に、下端点のZX平面への座標変換点が位置するZX平面の領域のカウンタのカウンタ値を+1加算して、下端点の位置分布を算出する。例えば、本実施例では、P1、P1、P1、P1、P1、P1、P1、P1、P1、P101、P111、P121、P131、P141、P151、P161を下端点として検出し、図8に示す各下端点P1〜P161の座標変換点RB1〜RB16が位置する領域のカウンタのカウンタ値を+1加算する。以下、前述した実施形態と同様の処理を行うことで、走路境界と立体物、立体物中の移動体の検出を行うことができる。 Further, out of the points determined to be a plane object and a three-dimensional object, the lower end point is extracted, and the ZX plane area counter where the coordinate conversion point to the ZX plane of the lower end point is located is the same as in the first embodiment. The counter value is added by +1 to calculate the position distribution of the lower end point. For example, in this embodiment, P 1 1, P 2 1, P 3 1, P 4 1, P 5 1, P 6 1, P 7 1, P 8 1, P 9 1, P 10 1, P 11 1 , P 12 1, P 13 1, P 14 1, P 15 1, P 16 1 are detected as lower end points, and the coordinate conversion points RB 1 to RB 16 of the respective lower end points P 11 to P 16 1 shown in FIG. 1 is added to the counter value of the counter of the area to be processed. Hereinafter, by performing the same process as that of the above-described embodiment, it is possible to detect the road boundary, the three-dimensional object, and the moving object in the three-dimensional object.

移動体を検出した後は、前述した実施形態と同様の操作を行うことで、歩行者の検出を行うことができる。 After detecting the moving body, a pedestrian can be detected by performing the same operation as in the above-described embodiment.

図21は、本実施形態における歩行者検出装置100の処理を示すフローチャートである。図20に示す処理はイグニションスイッチがオンされると、起動されるプログラムとして実行される。図20において、図15に示す本発明の実施形態における処理のフローチャートと同一の処理内容については、同じステップ番号を付与し、二点鎖線で囲んだ異なる処理を中心に説明する。 FIG. 21 is a flowchart showing the processing of the pedestrian detection device 100 in the present embodiment. The process shown in FIG. 20 is executed as a program to be started when the ignition switch is turned on. In FIG. 20, the same processing contents as those in the flowchart of the embodiment of the present invention shown in FIG. 15 will be described with a focus on different processing given the same step number and surrounded by a two-dot chain line.

ステップS131では、ステップS104にて設定された物体検出用の短冊領域内において画像下端から上端に向かって走査を行い、速度を持つ画素の座標を(数式1)、(数式2)を用いてZX平面上へ座標変換する。この後に、フローはステップS132へ移行する。 In step S131, scanning is performed from the lower end to the upper end of the image within the strip area for object detection set in step S104, and the coordinates of pixels having speed are expressed by ZX using (Equation 1) and (Equation 2). Transform coordinates on a plane. After this, the flow moves to step S132.

ステップS132において、判定対象抽出部31は、特徴点の画素の座標変換点がZX平面内に位置すれば、特徴点を平面物候補点と判定し、特徴点の画素の座標変換点がZX平面内に位置しなければ、立体物候補点と判定する。この後に、フローはステップS133に進む。 In step S132, if the coordinate conversion point of the feature point pixel is located in the ZX plane, the determination target extraction unit 31 determines that the feature point is a plane object candidate point, and the feature point pixel coordinate conversion point is the ZX plane. If it is not located within, it is determined as a solid object candidate point. After this, the flow proceeds to step S133.

ステップS133では、速度が算出された画素の全てがZX平面上へ座標変換されて、平面物候補点および立体物候補点の検出が終了したかどうかが判定される。平面物候補点および立体物候補点の検出が終了した場合には、フローはステップS134に進む。一方、平面物候補点および立体物候補点の検出が終了していない場合は、フローはステップS131に戻り、平面物候補点および立体物候補点の検出が継続される。 In step S133, all the pixels for which the velocity has been calculated are subjected to coordinate conversion on the ZX plane, and it is determined whether or not the detection of the planar object candidate point and the three-dimensional object candidate point has been completed. When the detection of the planar object candidate point and the three-dimensional object candidate point is completed, the flow proceeds to step S134. On the other hand, when the detection of the planar object candidate point and the three-dimensional object candidate point is not completed, the flow returns to step S131, and the detection of the planar object candidate point and the three-dimensional object candidate point is continued.

ステップS134において、判定対象抽出部31は、各短冊領域内において、平面物候補点および立体物候補点が縦方向に連続して存在する場合、平面物候補点および立体物候補点を含む物体を一つの立体物として判定する。この後に、フローはステップS135に進む。 In step S134, when the planar object candidate point and the solid object candidate point are continuously present in the vertical direction in each strip region, the determination target extraction unit 31 selects an object including the planar object candidate point and the solid object candidate point. Judge as one solid object. After this, the flow proceeds to step S135.

ステップS135において、判定対象抽出部31は、平面物候補点のうち、一番下にある点を下端点として検出し、検出した下端点のZX平面上の座標変換点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS136に進む。 In step S135, the determination target extraction unit 31 detects the lowest point among the planar object candidate points as the lower end point, and the counter of the area where the coordinate conversion point on the ZX plane of the detected lower end point is located. Add +1 to the counter value. After this, the flow proceeds to step S136.

ステップS136において、判定対象抽出部31は、各領域において、カウンタ値に基づき各領域の下端点の位置分布情報の算出が終了したかどうかを判断する。各領域の下端点の位置分布情報の算出が終了した場合には、フローはステップS110へ進む。一方、各領域の下端点の位置分布情報の算出が終了していない場合には、フローはステップS134へ戻り、下端点の位置分布情報の算出が継続される。 In step S136, the determination target extraction unit 31 determines whether the calculation of the position distribution information of the lower end point of each area is completed based on the counter value in each area. When the calculation of the position distribution information of the lower end point of each region is completed, the flow proceeds to step S110. On the other hand, if the calculation of the position distribution information of the lower end point of each region has not been completed, the flow returns to step S134, and the calculation of the position distribution information of the lower end point is continued.

ステップ110以降の処理は、上述した図15に示す処理と同様の処理を行うことにより、歩行者を検出する。 The processing after step 110 detects a pedestrian by performing the same processing as the processing shown in FIG. 15 described above.

このように、本実施形態の歩行者検出装置100によれば、一の立体物に観察される、立体物の画素群に平面物の画素群が画像の略垂直方向に連なるという特徴を検出することにより、一の立体物が平面物と立体物とに別々に判定された場合であっても、一の対象立体物として判断し、対応する対象領域を抽出することができる。   As described above, according to the pedestrian detection apparatus 100 of the present embodiment, a feature is observed in which a pixel group of a planar object is connected to a pixel group of a three-dimensional object and is observed in a single three-dimensional object in a substantially vertical direction of the image. Thus, even if one solid object is determined separately as a planar object and a three-dimensional object, it can be determined as one target three-dimensional object and a corresponding target region can be extracted.

これにより、特徴点の抽出を含む画像処理において、同じ立体物を構成する画素でありながら何らかの影響で同等の移動速度が算出されない場合であっても、立体物の識別を高い精度で行うことができる。 As a result, in image processing including feature point extraction, even when pixels are included in the same three-dimensional object and the equivalent movement speed is not calculated due to some influence, the three-dimensional object can be identified with high accuracy. it can.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

すなわち、本明細書では、本発明に係る歩行者検出装置100を含む車載装置1000をその一態様として説明するが、本発明はこれに限定されるものではない。   That is, in this specification, although the vehicle-mounted apparatus 1000 containing the pedestrian detection apparatus 100 which concerns on this invention is demonstrated as the one aspect | mode, this invention is not limited to this.

また、本明細書では、歩行者検出装置100の一態様として、特徴点抽出手段の一例としての特徴点抽出部21と、移動情報算出手段の一例としての移動情報算出部22と、判定対象抽出手段の一例としての判定対象抽出部24と、歩行者判定手段としての歩行者判定部34を備える歩行者検出装置100を説明したが、これに限定されるものではない。   In the present specification, as one aspect of the pedestrian detection device 100, a feature point extraction unit 21 as an example of a feature point extraction unit, a movement information calculation unit 22 as an example of a movement information calculation unit, and a determination target extraction Although the pedestrian detection apparatus 100 provided with the determination object extraction part 24 as an example of a means and the pedestrian determination part 34 as a pedestrian determination means was demonstrated, it is not limited to this.

さらに、歩行者検出装置100は、本明細書で説明したように、歩行者候補抽出手段の一例としての歩行者候補抽出部32と、歩行者候補検証手段の一例としての歩行者候補検証部33と、を備えることができる。また、これに加えて、グループ化手段の一例としてのグループ化部と、座標変換手段の一例としての座標変換部24とを備えることができる。   Further, as described in this specification, the pedestrian detection apparatus 100 includes a pedestrian candidate extraction unit 32 as an example of a pedestrian candidate extraction unit and a pedestrian candidate verification unit 33 as an example of a pedestrian candidate verification unit. And can be provided. In addition, a grouping unit as an example of a grouping unit and a coordinate conversion unit 24 as an example of a coordinate conversion unit can be provided.

本発明の実施形態を図面により詳述したが、実施形態は本発明の例示にしか過ぎず、本発明は実施形態の構成にのみ限定されるものではない。したがって本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれることはもちろんである。   Although the embodiment of the present invention has been described in detail with reference to the drawings, the embodiment is merely an example of the present invention, and the present invention is not limited only to the configuration of the embodiment. Accordingly, it is a matter of course that the present invention includes any design change within a range not departing from the gist of the present invention.

例えば、ブロック図は上記実施例に示すものに限定されるものではなく、同等の機能を備えた他の構成とすることができる。 For example, the block diagram is not limited to that shown in the above-described embodiment, and may have other configurations having equivalent functions.

また、カメラの取り付け位置は実施形態で述べた位置に限定されるものではなく、カメラの光軸が車両前方正面方向(Z方向)に向き、撮像面の水平軸および垂直軸がそれぞれ路面と略平行および略垂直となるように設定されていれば良い。   The camera mounting position is not limited to the position described in the embodiment. The optical axis of the camera faces the front front direction (Z direction) of the vehicle, and the horizontal axis and the vertical axis of the imaging surface are substantially the same as the road surface, respectively. What is necessary is just to set so that it may become parallel and substantially perpendicular | vertical.

また、検出したエッジの幅の正規化を行うにあたっては、エッジ幅は3画素に限定されるものではなく、任意の画素数を設定することができる。この場合、その後の処理でエッジの中央部の画素を利用するため、エッジ幅の画素数は奇数個であることが望ましい。 In addition, in normalizing the detected edge width, the edge width is not limited to three pixels, and an arbitrary number of pixels can be set. In this case, since the pixel at the center of the edge is used in the subsequent processing, the number of pixels with the edge width is desirably an odd number.

また、xy平面を分割して設定する短冊領域の数は上記実施形態に示すものに限定されるものではなく、任意の数に分割して設定することができる。 Further, the number of strip regions set by dividing the xy plane is not limited to that shown in the above embodiment, and can be set by dividing it into an arbitrary number.

また、ZX平面を分割して設定する領域の数は上記実施形態に示すものに限定されるものではなく、任意の数に分割して設定することができる。 Further, the number of regions set by dividing the ZX plane is not limited to that shown in the above embodiment, and can be set by dividing it into an arbitrary number.

また、ZX平面の縦方向および横方向の範囲は、任意の値に設定することができる。 Further, the vertical and horizontal ranges of the ZX plane can be set to arbitrary values.

また、上記実施形態では道路を走行する車両に歩行者検出装置10を搭載する例について説明したが、他の移動体に搭載してもよい。 Moreover, although the said embodiment demonstrated the example which mounts the pedestrian detection apparatus 10 in the vehicle which drive | works a road, you may mount in another mobile body.

さらに、上記実施形態では、検出する走路境界として、縁石、白線、外壁と路面との接点の例について説明したが、これに限定されず、例えば、ガードレール、駐車車両と路面との境界、路面と路面以外の領域(田、畑など)との境界を検出してもよい。 Furthermore, in the above-described embodiment, the example of the curbstone, the white line, and the contact point between the outer wall and the road surface has been described as the road boundary to be detected, but is not limited thereto, for example, the guard rail, the boundary between the parked vehicle and the road surface, You may detect the boundary with areas (fields, fields, etc.) other than a road surface.

本実施形態の歩行者検出装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the pedestrian detection apparatus of this embodiment. (A)及び(B)は、カメラ10の搭載例を示す図である。(A) And (B) is a figure which shows the example of mounting of the camera 10. FIG. 車載されたカメラ10により撮像された車両前方の画像例である。It is an example of the image ahead of the vehicle imaged with the camera 10 mounted on the vehicle. (a)〜(f)は移動速度の算出処理例を説明するための図である。(A)-(f) is a figure for demonstrating the calculation process example of a moving speed. 移動画像の一例を示す図である。It is a figure which shows an example of a moving image. グループ化処理例を説明するための図である。It is a figure for demonstrating the example of a grouping process. 立体物を含む領域を判定の対象として抽出する処理例を説明するための図である。It is a figure for demonstrating the example of a process which extracts the area | region containing a solid object as an object of determination. 走路境界を抽出する手法例を説明するための図である。It is a figure for demonstrating the example of a method which extracts a track boundary. 背景となる走路境界を抽出する手法例を説明するための図である。It is a figure for demonstrating the example of the method of extracting the runway boundary used as a background. 抽出された走路境界に基づいて移動する対象立体物を抽出する手法例を説明するための図である。It is a figure for demonstrating the example of a method of extracting the target solid object which moves based on the extracted track boundary. 移動する立体物を対象立体物として抽出する処理例を説明するための図である。It is a figure for demonstrating the process example which extracts the moving solid object as a target solid object. 歩行者の脚部と腕部の速度変化の特徴例を示す図である。It is a figure which shows the example of a characteristic of the speed change of a pedestrian's leg part and an arm part. 歩行者候補の検証処理例を説明するための図である。It is a figure for demonstrating the example of a verification process of a pedestrian candidate. 歩行者の判定処理を説明するための図である。It is a figure for demonstrating the determination process of a pedestrian. 歩行者検出処理の一例を示すフローチャート図である。It is a flowchart figure which shows an example of a pedestrian detection process. 歩行者候補検証処理の一例を示すフローチャート図である。It is a flowchart figure which shows an example of a pedestrian candidate verification process. 歩行者判定処理の一例を示すフローチャート図である。It is a flowchart figure which shows an example of a pedestrian determination process. 第2実施形態に係る、歩行者候補検証処理の他の例を示すフローチャート図である。It is a flowchart figure which shows the other example of a pedestrian candidate verification process based on 2nd Embodiment. 移動する対象立体物を抽出するための処理例を説明するための図である。It is a figure for demonstrating the example of a process for extracting the object solid object to move. 移動する対象立体物を抽出するための処理例を説明するための他の図である。It is another figure for demonstrating the process example for extracting the object solid object to move. 第3実施形態に係る、判定対象抽出処理の他の例を示すフローチャート図である。It is a flowchart figure which shows the other example of the determination target extraction process based on 3rd Embodiment.

符号の説明Explanation of symbols

1000…車載装置
100…歩行者検出装置
10…カメラ
11…画像メモリ
20…画像処理部
21…特徴点抽出部
22…移動情報算出部
23…グループ化部
24…座標変換部
30…判定処理部
31…判定対象抽出部
32…歩行者候補抽出部
33…歩行者候補検証部
34…歩行者判定部
200…車両コントローラ
300…警報装置
400…走行支援装置
500…出力装置
DESCRIPTION OF SYMBOLS 1000 ... In-vehicle apparatus 100 ... Pedestrian detection apparatus 10 ... Camera 11 ... Image memory 20 ... Image processing part 21 ... Feature point extraction part 22 ... Movement information calculation part 23 ... Grouping part 24 ... Coordinate conversion part 30 ... Determination processing part 31 ... Determination object extraction unit 32 ... Pedestrian candidate extraction unit 33 ... Pedestrian candidate verification unit 34 ... Pedestrian determination unit 200 ... Vehicle controller 300 ... Alarm device 400 ... Driving support device 500 ... Output device

Claims (20)

車両に搭載された撮像手段と、
前記撮像手段により前記車両の前方が撮像された画像から特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された特徴点の移動速度及び移動方向を含む移動情報をそれぞれ算出する移動情報算出手段と、
前記移動情報算出手段により算出された前記特徴点の移動情報に基づいて、前記撮像された画像において縦方向に隣接する画素を含むとともに、前記画像の中から移動する対象立体物を含む対象領域を抽出する判定対象抽出手段と、
前記抽出された対象領域に含まれる特徴点の水平方向に沿う移動情報のばらつき度が時間の経過とともに大きくなる場合は、前記対象領域は歩行者を含まないと検証し、当該歩行者を含まないと検証された対象領域を削除する歩行者候補検証手段と、
前記検証の処理が行われた対象領域に関する移動情報と前記対象領域の周囲に設定された比較領域に関する移動情報とを比較し、前記対象領域に関する移動速度と前記対象領域の周囲に設定された比較領域に関する移動速度との差が所定値以上であり、かつ、前記対象領域に関する移動方向と前記対象領域の周囲に設定された比較領域に関する移動方向との差が所定値以上である場合には、前記対象領域に含まれる対象立体物は歩行者であると判定する歩行者判定手段と、を有する歩行者検出装置。
Imaging means mounted on the vehicle ;
Feature point extracting means for extracting feature points from an image of the front of the vehicle imaged by the imaging means;
Movement information calculation means for calculating movement information including movement speed and movement direction of the feature points extracted by the feature point extraction means;
Based on the movement information of the feature points calculated by the moving information calculating unit, with including a pixel adjacent to Oite longitudinally to the captured image, the object comprising a target three-dimensional object which moves out of the image A determination target extraction means for extracting a region;
When the variation degree of the movement information along the horizontal direction of the feature points included in the extracted target area increases with time, the target area is verified not to include a pedestrian and does not include the pedestrian. Pedestrian candidate verification means for deleting the verified target area,
The movement information related to the target area subjected to the verification process is compared with the movement information related to the comparison area set around the target area, and the movement speed related to the target area is set around the target area. When the difference between the movement speed relating to the comparison area is equal to or greater than a predetermined value and the difference between the movement direction relating to the target area and the movement direction relating to the comparison area set around the target area is equal to or greater than a predetermined value A pedestrian detection device comprising: a pedestrian determination unit that determines that a target three-dimensional object included in the target region is a pedestrian .
請求項1に記載の歩行者検出装置において、
前記歩行者候補検証手段は、前記抽出された対象領域に含まれる特徴点について所定時間観察し、歩行者候補とされる対象立体物に対応する特徴点の移動方向方向差が所定値未満であり、かつ前記歩行者候補に対応する特徴点の移動速度速度差が所定値未満である特徴点の数N1と、歩行者候補とされる対象立体物に対応する特徴点の移動方向方向差が所定値以上である特徴点の数N2とを算出し、N2>N1を満たし、前記対象領域の面積に対するN2の割合R1が、予め設定された所定値Rt1よりも大きくなる場合は、前記対象領域は歩行者を含まない対象領域として検証する歩行者検出装置。
In the pedestrian detection device according to claim 1 ,
The pedestrian candidate verification means observes the feature points included in the extracted target area for a predetermined time, and the direction difference in the moving direction of the feature points corresponding to the target three-dimensional object to be a pedestrian candidate is less than a predetermined value. The number N1 of feature points in which the speed difference of the feature points corresponding to the pedestrian candidate is less than a predetermined value, and the direction of the direction of movement of the feature points corresponding to the target three-dimensional object to be a pedestrian candidate When the number N2 of feature points having a difference equal to or larger than a predetermined value is calculated, N2> N1 is satisfied, and the ratio R1 of N2 to the area of the target region is larger than a predetermined value Rt1, A pedestrian detection device that verifies a target area as a target area that does not include a pedestrian.
請求項1又は2に記載の歩行者検出装置において、
前記歩行者候補検証手段は、前記抽出された対象領域と消失点との距離に応じて、前記特徴点の移動方向のばらつき度の変化を観察する時間を決定する歩行者検出装置。
In the pedestrian detection device according to claim 1 or 2 ,
The said pedestrian candidate verification means is a pedestrian detection apparatus which determines the time which observes the variation of the dispersion | variation degree of the moving direction of the said feature point according to the distance of the said extracted object area | region and vanishing point.
請求項1〜3の何れか一項に記載の歩行者検出装置において、
前記歩行者判定手段は、前記対象領域に関する移動方向と前記比較領域に関する移動方向が、予め定義された略反対方向関係である場合は、前記対象領域に含まれる対象立体物は自己に接近する歩行者であると判定する歩行者検出装置。
In the pedestrian detection apparatus as described in any one of Claims 1-3 ,
The pedestrian determination means, when the movement direction related to the target area and the movement direction related to the comparison area are in a substantially opposite direction relationship defined in advance, the target three-dimensional object included in the target area walks close to itself. A pedestrian detection device that determines that a person is a person.
請求項1〜4の何れか一項に記載の歩行者検出装置において、
前記歩行者判定手段は、前記比較の結果、移動速度の差が所定値未満である場合は、前記対象領域に含まれる対象立体物は歩行者以外の立体物であると判定する歩行者検出装置。
In the pedestrian detection apparatus as described in any one of Claims 1-4 ,
The pedestrian determination unit determines that the target three-dimensional object included in the target region is a three-dimensional object other than a pedestrian when the difference in movement speed is less than a predetermined value as a result of the comparison. .
請求項1〜5の何れか一項に記載の歩行者検出装置において、
前記歩行者判定手段は、前記比較の結果、移動方向の差が所定値未満である場合は、前記対象領域に含まれる対象立体物は歩行者以外の立体物であると判定する歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 5 ,
The pedestrian determination device determines that the target three-dimensional object included in the target region is a three-dimensional object other than a pedestrian when the difference in the movement direction is less than a predetermined value as a result of the comparison. .
請求項1〜6の何れか一項に記載の歩行者検出装置において、
前記対象領域の周囲に設定される比較領域は、前記対象領域の上端辺から上側へ所定長さの幅を有する上側比較領域、前記対象領域の左端辺から左側へ所定長さの幅を有する左側比較領域、又は前記対象領域の右端辺から右側へ所定長さの幅を有する右側比較領域のいずれか1つ以上を含む歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 6,
The comparison region set around the target region is an upper comparison region having a predetermined length from the upper end side to the upper side of the target region, and a left side having a predetermined length from the left end side to the left side of the target region. A pedestrian detection device including any one or more of a comparison region or a right comparison region having a predetermined length from the right end side to the right side of the target region.
請求項1〜7の何れか一項に記載の歩行者検出装置において、
前記対象領域の周囲に設定される比較領域は、前記対象領域の上端辺から上側に所定距離だけ離隔するとともに上側へ所定長さの幅を有する第2上側比較領域、前記対象領域の左端辺から左側に所定距離だけ離隔するとともに左側へ所定長さの幅を有する第2左側比較領域、又は前記対象領域の右端辺から所定距離だけ離隔するとともに右側へ所定長さの幅を有する第2右側比較領域のいずれか1つ以上を含む歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 7,
The comparison region set around the target region is spaced apart from the upper end side of the target region by a predetermined distance and a second upper comparison region having a predetermined length width upward from the left end side of the target region. A second left side comparison area that is separated by a predetermined distance on the left side and has a width of a predetermined length on the left side, or a second right side comparison that is separated by a predetermined distance from the right edge of the target area and has a width of a predetermined length on the right side A pedestrian detection device including any one or more of regions.
請求項1〜8の何れか一項に記載の歩行者検出装置において、
前記判定対象抽出手段により抽出された対象領域に含まれる特徴点の移動速度を前記移動情報算出手段から取得し、前記対象領域内の特徴点の移動速度の分散値を算出し、前記分散値が所定値以上である場合は、前記対象領域を歩行者が含まれる対象領域として抽出する歩行者候補抽出手段をさらに備える歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 8,
The moving speed of the feature point included in the target area extracted by the determination target extracting unit is acquired from the moving information calculating unit, the variance value of the moving speed of the feature point in the target area is calculated, and the variance value is A pedestrian detection device further comprising pedestrian candidate extraction means for extracting the target area as a target area including a pedestrian when the target area is equal to or greater than a predetermined value.
請求項9に記載の歩行者検出装置において、
前記歩行者候補抽出手段は、前記算出された移動速度の分散値が所定値未満であっても、所定時間内における前記対象領域内の特徴点の移動量が所定値未満であるとともに、前記対象領域内の特徴点の移動速度の変化が所定値以上である場合は、前記対象領域を歩行者が含まれる対象領域として抽出する歩行者検出装置。
In the pedestrian detection device according to claim 9,
The pedestrian candidate extracting means is configured such that, even if the calculated variance value of the moving speed is less than a predetermined value, the amount of movement of the feature point within the target region within a predetermined time is less than the predetermined value, and the target A pedestrian detection device that extracts the target region as a target region including a pedestrian when a change in the moving speed of a feature point in the region is a predetermined value or more.
請求項1〜10の何れか一項に記載の歩行者検出装置において、
前記移動情報算出手段により算出された移動速度が所定範囲内であり、前記画像おいて略垂直方向に隣接する画素群をグループ化するグループ化手段と、
前記画像に含まれる画素を、所定の視点から見た俯瞰図における変換座標に変換する座標変換手段と、をさらに備え、
前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群のうち、前記変換座標において上端に位置する画素の座標と下端に位置する画素の座標とに基づき、前記撮像された画像の中から対象立体物を含む対象領域を抽出する歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 10 ,
Grouping means for grouping pixel groups adjacent to each other in a substantially vertical direction in the image, the moving speed calculated by the movement information calculating means being within a predetermined range;
Coordinate conversion means for converting the pixels included in the image into conversion coordinates in an overhead view seen from a predetermined viewpoint; and
The determination target extraction unit is configured to extract the captured image based on the coordinates of the pixel located at the upper end and the coordinate of the pixel located at the lower end among the pixel groups grouped by the grouping unit. A pedestrian detection device that extracts a target area including a target three-dimensional object from inside.
請求項11に記載の歩行者検出装置において、
前記座標変換手段は、前記画素を、所定の視点から見た俯瞰図であって、所定の分割領域に区分された変換座標に変換し、
前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群のうち、前記変換座標において上端に位置する画素の座標が前記変換座標の領域外に属するとともに、下端に位置する画素の座標が前記いずれかの分割領域に属する場合は、前記グループ化された画素群に対応する領域を、前記対象立体物を含む対象領域として抽出する歩行者検出装置。
The pedestrian detection device according to claim 11 ,
The coordinate conversion means is an overhead view seen from a predetermined viewpoint, and converts the pixel into conversion coordinates divided into predetermined divided regions,
The determination target extraction unit is configured such that, out of the pixel group grouped by the grouping unit, the coordinate of the pixel located at the upper end in the transformed coordinate belongs outside the area of the transformed coordinate and the coordinate of the pixel located at the lower end Is a pedestrian detection device that extracts a region corresponding to the grouped pixel group as a target region including the target three-dimensional object.
請求項12に記載の歩行者検出装置において、
前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群のうち、前記変換座標において上端に位置する画素の座標と下端に存在する画素の座標とが共通の分割領域に属する場合は、前記グループ化された画素群に対応する領域を、平面物を含む対象領域として抽出する歩行者検出装置。
The pedestrian detection device according to claim 12 ,
In the case where the determination target extraction unit includes, in the pixel group grouped by the grouping unit, the coordinate of the pixel located at the upper end and the coordinate of the pixel existing at the lower end in the converted coordinate belong to a common divided region. A pedestrian detection apparatus that extracts a region corresponding to the grouped pixel group as a target region including a planar object.
請求項13に記載の歩行者検出装置において、
前記判定対象抽出手段は、前記抽出された対象領域に含まれる平面物に対応する画素群が、前記抽出された対象領域に含まれる立体物に対応する画素群に、前記画像の略垂直方向に沿って連なる場合は、前記平面物を含む対象領域と前記立体物を含む対象領域とを一の対象立体物を含む対象領域として抽出する歩行者検出装置。
The pedestrian detection device according to claim 13 ,
The determination target extraction unit includes a pixel group corresponding to a planar object included in the extracted target region in a pixel group corresponding to a three-dimensional object included in the extracted target region in a substantially vertical direction of the image. A pedestrian detection device that extracts a target area including the planar object and a target area including the three-dimensional object as a target area including one target three-dimensional object when connected along.
請求項1〜14の何れか一項に記載の歩行者検出装置において、
前記画像おいて略垂直方向に隣接するとともに、前記移動情報算出手段により算出された移動速度が所定範囲内である画素群をグループ化するグループ化手段を備え、
前記判定対象抽出手段は、前記グループの画素群のうち前記画像の略垂直方向の下端に位置する画素の座標値に基づいて、前記画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、前記グループ化手段によりグループ化された画素群のうち上端に位置する画素の位置が前記基準境界の位置よりも上に位置する場合は、前記グループ化された画素群に対応する領域を前記移動する対象立体物を含む対象領域として抽出する歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 14 ,
Grouping means for grouping pixel groups adjacent to each other in a substantially vertical direction in the image and having a movement speed calculated by the movement information calculation means within a predetermined range,
The determination target extraction unit is a reference having a predetermined relationship with the installation surface of the three-dimensional object included in the image, based on the coordinate value of a pixel located at the lower end in the substantially vertical direction of the image in the group of pixels. When the boundary is extracted and the position of the pixel located at the upper end of the group of pixels grouped by the grouping unit is located above the position of the reference boundary, it corresponds to the grouped pixel group A pedestrian detection apparatus that extracts a region as a target region including the moving target three-dimensional object.
請求項15に記載の歩行者検出装置において、
前記判定対象抽出手段は、前記基準境界の位置に基づいて前記移動速度算出手段により算出された前記基準境界の移動情報から前記画像の背景の予測移動情報を算出し、前記グループ化手段によりグループ化された画素群の移動情報に含まれる移動方向と前記背景の予測移動情報に含まれる予測移動方向との差が、予め定義された略反対方向の関係である場合は、前記グループ化された画素群に対応する領域を、前記自己の方向に移動する対象立体物を含む対象領域として抽出する歩行者検出装置。
The pedestrian detection device according to claim 15 ,
The determination target extraction unit calculates predicted movement information of the background of the image from the movement information of the reference boundary calculated by the movement speed calculation unit based on the position of the reference boundary, and is grouped by the grouping unit. If the difference between the movement direction included in the movement information of the pixel group and the predicted movement direction included in the predicted movement information of the background is a relationship in a substantially opposite direction defined in advance, the grouped pixels The pedestrian detection apparatus which extracts the area | region corresponding to a group as an object area | region containing the object solid object which moves to the said self direction.
請求項16記載の歩行者検出装置において、
前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群の移動情報に含まれる移動方向と前記背景の予測移動情報に含まれる予測移動方向との差が所定値未満であり、前記グループ化手段によりグループ化された画素群の移動情報に含まれる移動速度と前記背景の予測移動情報に含まれる予測移動速度との差が所定値未満である場合は、前記グループ化された画素群に対応する領域を、前記静止物を含む領域として抽出する歩行者検出装置。
The pedestrian detection device according to claim 16 ,
The determination target extraction unit has a difference between a movement direction included in the movement information of the pixel group grouped by the grouping unit and a predicted movement direction included in the predicted movement information of the background is less than a predetermined value, When the difference between the movement speed included in the movement information of the pixel group grouped by the grouping unit and the predicted movement speed included in the predicted movement information of the background is less than a predetermined value, the grouped pixel group The pedestrian detection apparatus which extracts the area | region corresponding to 1 as an area | region containing the said stationary object.
請求項15又は16に記載の歩行者検出装置において、
前記判定対象抽出手段は、前記対象領域が複数抽出されたとき、前記抽出された対象領域に含まれる対象立体物に対応する特徴点の移動方向の差が所定値未満であり、かつ前記対象立体物に対応する特徴点の移動速度の差が所定値未満である場合は、これらの対象領域を共通の対象立体物を含む一の対象領域として抽出する歩行者検出装置。
The pedestrian detection device according to claim 15 or 16 ,
When the plurality of target areas are extracted, the determination target extraction unit has a difference in moving direction of feature points corresponding to the target three-dimensional object included in the extracted target areas that is less than a predetermined value, and the target solid A pedestrian detection device that extracts these target areas as one target area including a common target three-dimensional object when a difference in moving speed of feature points corresponding to the object is less than a predetermined value.
請求項1〜18の何れか一項に記載の歩行者検出装置において、
前記特徴点は前記撮像された画像に含まれる物体のエッジに対応する画素又は画素群である歩行者検出装置。
In the pedestrian detection device according to any one of claims 1 to 18 ,
The pedestrian detection device, wherein the feature point is a pixel or a pixel group corresponding to an edge of an object included in the captured image.
車両に搭載された撮像手段により当該車両の前方が撮像された撮像画像から抽出された特徴点の移動速度及び移動方向を含む移動情報をそれぞれ算出するステップと、
前記特徴点の移動情報に基づいて、前記撮像された画像の中から移動する対象立体物を含み、前記画像おいて縦方向に隣接する画素を含む対象領域を抽出するステップと、
検出された対象領域に存在する移動情報の経時的な推移に基づいて、前記抽出された対象領域に含まれる対象立体物が歩行者の候補を含むか否かを検証するステップと、
前記抽出された対象領域に関する移動情報と前記対象領域の周囲に設定された比較領域に関する移動情報とを比較し、前記比較の結果に基づいて前記抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定するステップと、を備え、
前記対象領域に含まれる対象立体物が歩行者の候補を含むか否かを検証するステップは、前記抽出された対象領域に含まれる特徴点の水平方向に沿う移動情報のばらつき度が時間の経過とともに大きくなる場合は、前記対象領域は歩行者を含まないと検証し、当該歩行者を含まないと検証された対象領域を削除し、
前記対象領域に含まれる対象立体物が歩行者であるか否かを判定するステップは、前記検証の処理が行われた前記対象領域に関する移動速度と前記対象領域の周囲に設定された比較領域に関する移動速度との差が所定値以上であり、かつ、前記対象領域に関する移動方向と前記対象領域の周囲に設定された比較領域に関する移動方向との差が所定値以上である場合には、前記対象領域に含まれる対象立体物は歩行者であると判定する、歩行者検出方法
Calculating each of movement information including the moving speed and moving direction of the feature points extracted from the picked-up image in which the front of the vehicle is picked up by the image pickup means mounted on the vehicle;
Extracting a target region including a target three-dimensional object that moves from the captured image based on movement information of the feature point, and including pixels adjacent in the vertical direction in the image;
Verifying whether or not the target three-dimensional object included in the extracted target region includes a pedestrian candidate based on a temporal transition of movement information present in the detected target region;
The movement information related to the extracted target area is compared with the movement information related to the comparison area set around the target area, and the target three-dimensional object included in the extracted target area is walked based on the comparison result. Determining whether or not a person is a person,
The step of verifying whether or not the target three-dimensional object included in the target area includes a pedestrian candidate is based on the fact that the variation degree of the movement information along the horizontal direction of the feature points included in the extracted target area If the area becomes larger, the target area is verified not to include a pedestrian, the target area verified not to include the pedestrian is deleted,
The step of determining whether or not the target three-dimensional object included in the target area is a pedestrian relates to a moving speed related to the target area where the verification process has been performed and a comparison area set around the target area. When the difference between the moving speed is a predetermined value or more and the difference between the moving direction related to the target area and the moving direction related to the comparison area set around the target area is a predetermined value or more, the target A pedestrian detection method for determining that a target three-dimensional object included in a region is a pedestrian.
JP2008146892A 2008-06-04 2008-06-04 Pedestrian detection device and pedestrian detection method Active JP5320828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008146892A JP5320828B2 (en) 2008-06-04 2008-06-04 Pedestrian detection device and pedestrian detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008146892A JP5320828B2 (en) 2008-06-04 2008-06-04 Pedestrian detection device and pedestrian detection method

Publications (2)

Publication Number Publication Date
JP2009294842A JP2009294842A (en) 2009-12-17
JP5320828B2 true JP5320828B2 (en) 2013-10-23

Family

ID=41542990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008146892A Active JP5320828B2 (en) 2008-06-04 2008-06-04 Pedestrian detection device and pedestrian detection method

Country Status (1)

Country Link
JP (1) JP5320828B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5503578B2 (en) * 2011-03-10 2014-05-28 パナソニック株式会社 Object detection apparatus and object detection method
JP5603835B2 (en) * 2011-06-27 2014-10-08 クラリオン株式会社 Vehicle perimeter monitoring device
JP5742595B2 (en) * 2011-08-30 2015-07-01 日産自動車株式会社 Motion detection device
JP5742596B2 (en) * 2011-08-30 2015-07-01 日産自動車株式会社 Motion detection device
CN103907146A (en) * 2011-09-20 2014-07-02 丰田自动车株式会社 Pedestrian action prediction device and pedestrian action prediction method
JP5829155B2 (en) * 2012-03-13 2015-12-09 株式会社豊田中央研究所 Pedestrian detection device and program
JP6069938B2 (en) * 2012-08-07 2017-02-01 日産自動車株式会社 Pop-up detection device
JP6100635B2 (en) 2012-12-13 2017-03-22 株式会社デンソー Moving body detection device
JP6265322B2 (en) * 2013-05-23 2018-01-24 日本無線株式会社 Radar equipment
JP6197388B2 (en) * 2013-06-11 2017-09-20 富士通株式会社 Distance measuring device, distance measuring method, and program
JP6430907B2 (en) * 2015-07-17 2018-11-28 株式会社Soken Driving support system
JP6496323B2 (en) * 2015-09-11 2019-04-03 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System and method for detecting and tracking movable objects
EP3352134B1 (en) 2015-09-15 2023-10-11 Ricoh Company, Ltd. Image processing device, object recognition device, device control system, image processing method, and program
JP6793448B2 (en) * 2015-10-26 2020-12-02 株式会社デンソーテン Vehicle condition determination device, display processing device and vehicle condition determination method
MY188558A (en) 2016-01-22 2021-12-22 Nissan Motor Vehicle driving assist control method and control device
CN108604415B (en) 2016-01-22 2020-03-03 日产自动车株式会社 Pedestrian determination method and determination device
JP6319361B2 (en) * 2016-05-26 2018-05-09 マツダ株式会社 Pedestrian detection device for vehicles
KR102177879B1 (en) * 2019-02-26 2020-11-12 현대모비스 주식회사 Apparatus and method of object detection for vehicle
CN116953680B (en) * 2023-09-15 2023-11-24 成都中轨轨道设备有限公司 Image-based real-time ranging method and system for target object

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268097A (en) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd On-vehicle object detecting device, and object detecting method
JP4830822B2 (en) * 2005-12-07 2011-12-07 日産自動車株式会社 Object detection apparatus and object detection method
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element
JP2007288657A (en) * 2006-04-19 2007-11-01 Toyota Motor Corp Display apparatus for vehicle, and display method of the display apparatus for vehicle
JP4797794B2 (en) * 2006-05-24 2011-10-19 日産自動車株式会社 Pedestrian detection device and pedestrian detection method

Also Published As

Publication number Publication date
JP2009294842A (en) 2009-12-17

Similar Documents

Publication Publication Date Title
JP5320828B2 (en) Pedestrian detection device and pedestrian detection method
US9836657B2 (en) System and method for periodic lane marker identification and tracking
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP2017526082A (en) Non-transitory computer-readable medium encoded with computer program code for causing a motion estimation method, a moving body, and a processor to execute the motion estimation method
JP2004032460A (en) Image processing apparatus and method therefor
WO2017130640A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2016148962A (en) Object detection device
JP5157692B2 (en) Moving body detection apparatus and moving body detection method
JP2017083326A (en) Image processor, imaging apparatus, equipment control system, frequency distribution image generation method, and program
JP4609603B2 (en) 3D information display device and 3D information display method
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP2007249257A (en) Apparatus and method for detecting movable element
JP2016004446A (en) Motion estimation device
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP2016012304A (en) Target article recognition apparatus
JP2019066333A (en) Outside recognition device for vehicle
Kim Vehicle detection and speed estimation for automated traffic surveillance systems at nighttime
Feng et al. Distance estimation by fusing radar and monocular camera with Kalman filter
JP5981284B2 (en) Object detection device and object detection method
JP4830822B2 (en) Object detection apparatus and object detection method
JP2005170290A (en) Obstacle detecting device
WO2010113253A1 (en) Three-dimensional information display device and three-dimensional information display method
JP5472928B2 (en) Object detection apparatus and method
JP2016009331A (en) Vehicle surroundings monitoring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130701

R150 Certificate of patent or registration of utility model

Ref document number: 5320828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150