JP2009186260A - Object detecting device and distance measuring method - Google Patents

Object detecting device and distance measuring method Download PDF

Info

Publication number
JP2009186260A
JP2009186260A JP2008025021A JP2008025021A JP2009186260A JP 2009186260 A JP2009186260 A JP 2009186260A JP 2008025021 A JP2008025021 A JP 2008025021A JP 2008025021 A JP2008025021 A JP 2008025021A JP 2009186260 A JP2009186260 A JP 2009186260A
Authority
JP
Japan
Prior art keywords
distance
reference object
calculated
relative position
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008025021A
Other languages
Japanese (ja)
Other versions
JP5145986B2 (en
Inventor
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008025021A priority Critical patent/JP5145986B2/en
Publication of JP2009186260A publication Critical patent/JP2009186260A/en
Application granted granted Critical
Publication of JP5145986B2 publication Critical patent/JP5145986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detecting device for calculating a distance up to an object existing far away which is not directly measured from a radar receiving signal at high precision. <P>SOLUTION: The object detecting device includes: an inter-object relative position calculating part 30 for calculating relative position relationship between the object being a ranging object and a reference object making reference of ranging based on information on the image imaged by an on-vehicle camera 10; a reference distance measuring part 40 for finding the reference distance between the reference object selected as the reference of the ranging and an own vehicle based on a receiving signal obtained by an on-vehicle radar distance measuring device 20; and a distance calculating part 50 for calculating a distance up to the object from the own vehicle based on the relative position relationship between the object and the reference object and the reference distance up to the reference object from the own vehicle when the radar distance measuring device 20 does not measure a distance up to the object. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両から物体までの距離を演算し、物体を検出する物体検出装置及び測距方法に関する。   The present invention relates to an object detection apparatus and a distance measurement method for calculating a distance from a vehicle to an object and detecting the object.

カメラから出力される画像の情報に基づいて物体を抽出し、自車両との相対位置と相対距離とを算出し、停止車両及びこの停止車両の上部を移動する移動物体が検出された場合は、レーダの出力信号に基づいて停止車両と移動物体との相対距離を算出する走行安全装置が知られている(特許文献1参照)。   When an object is extracted based on information of an image output from the camera, a relative position and a relative distance with the host vehicle are calculated, and a stopped vehicle and a moving object that moves above the stopped vehicle are detected, A travel safety device that calculates a relative distance between a stopped vehicle and a moving object based on an output signal of a radar is known (see Patent Document 1).

特開2005−280538号公報JP 2005-280538 A

しかしながら、前方に停止車両が無く歩行者が遠方に存在する場合は、その反射率が低くなるため、正確な距離情報を得ることができず、歩行者等の物体を検出することができない可能性があるという問題があった。   However, if there is no stop vehicle ahead and the pedestrian is in the distance, the reflectance will be low, so accurate distance information may not be obtained and objects such as pedestrians may not be detected. There was a problem that there was.

本願発明が解決しようとする課題は、自車両から遠方に存在する物体までの正確な距離情報を取得し、遠方の歩行者等の物体を高い精度で検出することである。   The problem to be solved by the present invention is to acquire accurate distance information from an own vehicle to an object that exists far away, and to detect an object such as a distant pedestrian with high accuracy.

本発明は、レーダ測距手段が対象物体までの距離を測距できない場合は、撮像手段により撮像される画像の情報に基づいて算出された、対象物体と基準物体との相対位置関係と、レーダ測距手段により取得された受信信号に基づいて計測された自車両から基準物体までの基準距離とに基づいて、自車両から対象物体までの距離を演算することにより、上記課題を解決する。   The present invention relates to the relative positional relationship between the target object and the reference object calculated based on the information of the image captured by the imaging unit, and the radar when the radar distance measuring unit cannot measure the distance to the target object. The above problem is solved by calculating the distance from the host vehicle to the target object based on the reference distance from the host vehicle to the reference object measured based on the received signal acquired by the distance measuring means.

本発明によれば、基準物体の位置を基準として、対象物体と基準物体との相対位置関係を、自車両との相対位置関係に変換するため、遠方に存在する物体又は歩行者のように受信信号が弱く、レーダ測距手段により直接計測することができない場合であっても、自車両から対象物体までの距離を演算することができ、歩行者等の物体を高い精度で検出することができる。   According to the present invention, since the relative positional relationship between the target object and the reference object is converted into the relative positional relationship with the own vehicle with reference to the position of the reference object, the object is received as a distant object or a pedestrian. Even when the signal is weak and cannot be measured directly by the radar ranging means, the distance from the host vehicle to the target object can be calculated, and objects such as pedestrians can be detected with high accuracy. .

本実施形態に係る物体検出装置は、車両に搭載され、車両周囲の物体の存在、及び自車両との位置関係を検出する装置である。   The object detection device according to the present embodiment is a device that is mounted on a vehicle and detects the presence of objects around the vehicle and the positional relationship with the host vehicle.

図1は物体検出装置100を含む車載装置1000のブロック構成の一例を示す図である。図1に示すように、本実施形態の車載装置1000は、物体検出装置100と、この物体検出装置100の判定結果に基づいて走行支援を行う走行支援装置200と、同じく、物体検出装置100の検出結果を出力する出力装置300とを備える。これらは、CAN(Controller Area Network)などの車載LANにより接続する。   FIG. 1 is a diagram illustrating an example of a block configuration of an in-vehicle device 1000 including the object detection device 100. As shown in FIG. 1, an in-vehicle device 1000 according to the present embodiment includes an object detection device 100, a travel support device 200 that performs travel support based on a determination result of the object detection device 100, and an object detection device 100. And an output device 300 that outputs a detection result. These are connected by an in-vehicle LAN such as a CAN (Controller Area Network).

また、図1に示すように、物体検出装置100は、車両周囲を撮像する撮像手段の一態様としてのカメラ10と、カメラ10により撮像された画像を一時的に記録する画像メモリ11と、車両周囲の対象物体と自車両との距離を計測するレーダ測距手段の一態様としてのレーダ測距装置20と、レーダ測距装置20により取得された受信信号に基づく測距データを一時的に記録する測距データメモリ21と、対象物体と基準物体との相対位置関係と、自車両から基準物体までの基準距離とに基づいて、自車両から対象物体までの距離を演算する制御部101と、を有する。   As shown in FIG. 1, the object detection apparatus 100 includes a camera 10 as one aspect of an imaging unit that captures the surroundings of the vehicle, an image memory 11 that temporarily records an image captured by the camera 10, and a vehicle. A radar distance measuring device 20 as one aspect of a radar distance measuring means for measuring the distance between a surrounding target object and the host vehicle, and distance measurement data based on a received signal acquired by the radar distance measuring device 20 are temporarily recorded. A distance measurement data memory 21, a control unit 101 that calculates a distance from the host vehicle to the target object based on a relative positional relationship between the target object and the reference object, and a reference distance from the host vehicle to the reference object; Have

以下、各構成について説明する。   Each configuration will be described below.

カメラ10は、例えばCCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を有するカメラである。本実施形態のカメラ10は、所定の周期で車両周囲(車両前方、車両後方、車両側方など)に存在する物体(立体、路面上の平面体を含む)を所定周期で撮像し、フレーム毎に撮像された画像を画像メモリ11に出力する。画像メモリ11は、カメラ10により撮像された画像をアクセス可能な状態で記憶する。 The camera 10 is a camera having an image sensor such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The camera 10 according to the present embodiment captures an object (including a solid body and a plane body on the road surface) existing around the vehicle (including the front of the vehicle, the rear of the vehicle, and the side of the vehicle) at a predetermined cycle. The captured image is output to the image memory 11. The image memory 11 stores an image captured by the camera 10 in an accessible state.

図2は、カメラ10の設置例を示す。図2(A)はカメラを搭載する車両を側面から見た図、図2(B)はカメラを搭載する車両を上方から見た図である。図2に示すように、本実施形態では、1つのカメラ10を車両に設置する。つまり、単眼で車両周囲を撮像する。本実施形態では、カメラ10を車両の室内上部に車両前方に向けて設置する。そして、カメラ10の光軸LSが、車両の走行方向(ドライバ正面方向)のZ方向に向くように調整し、撮像面の水平軸Xが路面と平行となるように調整し、さらに、撮像面の垂直軸Yが路面と垂直になるように調整する。 FIG. 2 shows an installation example of the camera 10. FIG. 2A is a side view of a vehicle equipped with a camera, and FIG. 2B is a view of the vehicle equipped with a camera viewed from above. As shown in FIG. 2, in this embodiment, one camera 10 is installed in the vehicle. That is, the vehicle periphery is imaged with a single eye. In the present embodiment, the camera 10 is installed in the upper part of the vehicle interior facing the front of the vehicle. Then, the optical axis LS of the camera 10 is adjusted so as to be directed in the Z direction of the vehicle traveling direction (driver front direction), the horizontal axis X of the imaging surface is adjusted to be parallel to the road surface, and the imaging surface The vertical axis Y is adjusted to be perpendicular to the road surface.

図3は、本実施形態のカメラ10を用いて車両前方が撮像された画像の例である。カメラ10による撮像画像は、画像左上の頂点を原点とするxy座標系によって表される。そして、原点から右方向へ延在する軸をx軸とし、原点から下へ延在する軸をy軸とする。なお、図3に示す撮像画像には、静止物体である停止車両と歩行者とが含まれる。   FIG. 3 is an example of an image obtained by capturing the front of the vehicle using the camera 10 of the present embodiment. An image captured by the camera 10 is represented by an xy coordinate system with the vertex at the upper left of the image as the origin. An axis extending rightward from the origin is taken as the x-axis, and an axis extending downward from the origin is taken as the y-axis. Note that the captured image illustrated in FIG. 3 includes a stationary vehicle and a pedestrian that are stationary objects.

レーダ測距装置20は、電磁波を対象物体に向けて発射し、その反射波(受信信号)を分析することにより、対象物体までの距離や方向を計測する装置である。本実施形態のレーダ測距装置20、例えばスキャニング機構を有するレーザレーダであり、スキャニング面において所定の角度で光軸を変更することで、所定のスキャン範囲でレーザ光を走査させる。これにより、レーダ測距装置20は、スキャン範囲に存在する物体にレーザ光を照射する。レーダ測距装置20は、出射されたレーザ光が前方に存在する物体に照射されて反射された反射レーザ光(反射波)を検出することにより、反射レーザ光の光強度に基づいた受信信号(反射信号)を取得する。そして、取得された受信信号に基づいた距離計測処理を行うことにより、距離計測情報を生成し、測距データメモリ21を介して、又は、直接、制御部101へ出力する。なお、レーダ測距装置20による測距のタイミングは特に限定されないが、カメラ10の撮像タイミングと略同時となるようにレーダ波の発射を行うことが好ましい。 The radar distance measuring device 20 is a device that measures the distance and direction to the target object by emitting electromagnetic waves toward the target object and analyzing the reflected wave (received signal). The radar distance measuring device 20 of this embodiment, for example, a laser radar having a scanning mechanism, scans laser light within a predetermined scanning range by changing the optical axis at a predetermined angle on the scanning surface. Thereby, the radar distance measuring device 20 irradiates the object existing in the scan range with the laser light. The radar distance measuring device 20 detects a reflected laser beam (reflected wave) reflected by irradiating an emitted laser beam to an object existing ahead, thereby receiving a received signal (based on the light intensity of the reflected laser beam). (Reflected signal) is acquired. And distance measurement information is produced | generated by performing the distance measurement process based on the acquired received signal, and it outputs to the control part 101 via the distance measurement data memory 21 or directly. The timing of the distance measurement by the radar distance measuring device 20 is not particularly limited, but it is preferable to emit the radar wave so as to be substantially the same as the imaging timing of the camera 10.

また、本実施形態のレーダ測距装置20は、図2に示すように、車両の前部に設置され、その光軸はカメラ10と同様に、車両正面方向(Z方向)に向くように設定する。 Further, as shown in FIG. 2, the radar distance measuring device 20 of the present embodiment is installed at the front portion of the vehicle, and its optical axis is set so as to face the vehicle front direction (Z direction) like the camera 10. To do.

制御部101は、カメラ10により撮像された画像から算出された対象物体と基準物体との相対位置関係と、レーダ測距装置20により受信された受信信号に基づいて計測された自車両から基準物体までの基準距離とに基づいて、自車両から対象物体までの距離を演算する。この制御部101は、CPU、MPU、DSP、FPGAなどの動作回路を組み合わせて構成する。   The control unit 101 uses the relative position relationship between the target object calculated from the image captured by the camera 10 and the reference object and the reference object from the own vehicle measured based on the received signal received by the radar distance measuring device 20. The distance from the host vehicle to the target object is calculated based on the reference distance up to. The control unit 101 is configured by combining operation circuits such as a CPU, MPU, DSP, and FPGA.

制御部101の作用を図4に示す。図4に示すように、本実施形態の制御部101は、カメラ10の撮像画像に基づく対象物体と基準物体との相対位置関係を、レーダ測距装置20により計測された自車両から基準物体までの基準距離に基づいて、自車両と対象物体との相対位置に変換することにより、自車両から対象物体までの距離を演算し、対象物体を検出する。本実施形態の手法によれば、遠方の歩行者のように反射が弱く、レーダ測距装置20では計測ができない対象物体についても、その対象物体までの距離を高い精度で求めることができ、その物体の存在を高い精度で検出することができる。   The operation of the control unit 101 is shown in FIG. As shown in FIG. 4, the control unit 101 of the present embodiment determines the relative positional relationship between the target object and the reference object based on the captured image of the camera 10 from the own vehicle measured by the radar distance measuring device 20 to the reference object. Based on the reference distance, the distance from the host vehicle to the target object is calculated and converted to the relative position between the host vehicle and the target object, and the target object is detected. According to the method of the present embodiment, even for a target object that is weakly reflected like a distant pedestrian and cannot be measured by the radar distance measuring device 20, the distance to the target object can be obtained with high accuracy. The presence of an object can be detected with high accuracy.

本実施形態の制御部101は、物体間相対位置算出部30と、基準距離計測部40と、距離演算部50とを有する。   The control unit 101 according to the present embodiment includes an inter-object relative position calculation unit 30, a reference distance measurement unit 40, and a distance calculation unit 50.

以下、物体検出装置100の制御部101が備える各構成について説明する。 Hereinafter, each structure with which the control part 101 of the object detection apparatus 100 is provided is demonstrated.

まず、物体間相対位置算出部30について説明する。この物体間相対位置算出部30は、特徴抽出部31と、移動情報算出部22とを備え、カメラ10により撮像された画像の情報に基づいて、撮像された物体のうち、測距対象となる対象物体と測距の基準となる基準物体との相対位置関係を算出する。 First, the inter-object relative position calculation unit 30 will be described. The inter-object relative position calculation unit 30 includes a feature extraction unit 31 and a movement information calculation unit 22, and is a distance measurement target among the captured objects based on information of an image captured by the camera 10. A relative positional relationship between the target object and a reference object that is a reference for distance measurement is calculated.

この特徴抽出部31は、カメラ10により撮像された各画像データ(フレーム)から、撮像された物体の画像上の動きを観測するため、物体の外延、物体の特徴的な部分を含む特徴部を抽出する。本実施形態の特徴抽出部31は、カメラ10で撮像された画像を画像メモリ11から読み込み、読み込んだ撮像画像を所定の閾値を用いて2値化し、画像内に存在する物体のエッジを抽出する。このエッジ成分に基づいて、特徴部を抽出する。 The feature extraction unit 31 includes a feature including an extension of the object and a characteristic part of the object in order to observe the movement of the imaged object on the image from each image data (frame) captured by the camera 10. Extract. The feature extraction unit 31 of the present embodiment reads an image captured by the camera 10 from the image memory 11, binarizes the read captured image using a predetermined threshold, and extracts an edge of an object present in the image. . A feature portion is extracted based on the edge component.

本実施形態の特徴抽出部31は、カメラ10で撮像された画像を画像メモリ11から読み込み、読み込んだ撮像画像を所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。図5(a)に抽出された垂直方向のエッジの例を示す。次に、抽出された各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する(図5(b)参照)。さらに、細線化されたエッジのエッジ幅が一定の幅となるように、例えば3画素分の幅となるように、エッジを水平方向に膨張させる(図5(c)参照)。この操作により、抽出されたエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得る。   The feature extraction unit 31 according to the present embodiment reads an image captured by the camera 10 from the image memory 11 and binarizes the read captured image using a predetermined threshold value, whereby an edge of an object existing in the image is detected. To extract. FIG. 5A shows an example of the extracted vertical edge. Next, thinning processing is performed on each extracted edge to narrow the edge width, and the center of the edge is accurately set (see FIG. 5B). Further, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a constant width, for example, a width corresponding to three pixels (see FIG. 5C). By this operation, the extracted edges are normalized, and an edge image having a uniform width for each edge is obtained.

移動情報算出部32は、特徴抽出部31により抽出されたエッジから求められた特徴部の画素の速度を算出する。求めた特徴部の移動速度と移動方向は、撮像タイミング識別子又はフレーム識別子と対応づけて記憶する。この画素の移動情報は、画素の特定情報とともに、「画素の移動速度」と「画素の移動方向」とを含む。なお、一の画像データ中に複数の特徴部が存在する場合は、すべての特徴部について速度を算出する。 The movement information calculation unit 32 calculates the speed of the pixel of the feature portion obtained from the edge extracted by the feature extraction unit 31. The obtained moving speed and moving direction of the characteristic part are stored in association with the imaging timing identifier or the frame identifier. This pixel movement information includes “pixel movement speed” and “pixel movement direction” along with pixel identification information. Note that if there are a plurality of feature portions in one image data, the speed is calculated for all the feature portions.

以下、本実施形態の移動情報算出部32は、カメラ10により撮像された物体の画像の情報に基づいて、物体の外延に対応するエッジが検出された位置の画素のカウント値をカウントアップし、このカウント値の傾きに基づいて、エッジの移動速度及び移動方向を算出する。 Hereinafter, the movement information calculation unit 32 of the present embodiment counts up the count value of the pixel at the position where the edge corresponding to the extension of the object is detected based on the information of the image of the object imaged by the camera 10, Based on the slope of the count value, the edge moving speed and direction are calculated.

本実施形態の移動情報算出部32は、撮像タイミングが異なる画像データについて、各画像データに含まれるエッジに対応する画素の画素カウンタのカウンタ値を所定の手法で更新する。ここで、画素カウンタとは、各画素に設定されたカウンタであり、画素がエッジに対応する場合は画素カウンタのカウンタ値を+1加算し、画素がエッジに対応しない場合は画素カウンタのカウンタ値を0とする(初期化する)カウンタである。このカウンタ値の更新処理を、カメラ10により所定周期で繰り返し撮像されるフレーム毎に行う。この操作を行うと、エッジに対応する時間が長い画素は、対応する画素カウンタのカウンタ値が大きくなり、他方、エッジに対応する時間が短い画素は、対応する画素カウンタのカウンタ値が小さくなる。   The movement information calculation unit 32 of the present embodiment updates the counter value of the pixel counter of the pixel corresponding to the edge included in each image data with a predetermined method for image data with different imaging timings. Here, the pixel counter is a counter set for each pixel. When the pixel corresponds to the edge, the counter value of the pixel counter is incremented by +1. When the pixel does not correspond to the edge, the counter value of the pixel counter is increased. This is a counter that is set to 0 (initialized). This counter value update process is performed for each frame that is repeatedly imaged by the camera 10 in a predetermined cycle. When this operation is performed, the counter value of the corresponding pixel counter increases for a pixel having a long time corresponding to an edge, while the counter value of the corresponding pixel counter decreases for a pixel having a short time corresponding to an edge.

この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表していることになる。このため、このカウンタ値に基づいて、撮像画像上におけるエッジの移動方向と移動速度とを算出できる。また、画像の座標系は方位を表しているため、このカウンタ値に基づいて、エッジ及びこのエッジに対応する特徴部の移動方向と移動速度を求めることができる。 This change in the counter value of the pixel counter represents the moving direction and moving amount of the edge. Therefore, the moving direction and moving speed of the edge on the captured image can be calculated based on this counter value. Further, since the coordinate system of the image represents the azimuth, the moving direction and moving speed of the edge and the feature corresponding to the edge can be obtained based on the counter value.

さらに、図5に基づいて、移動情報算出部32の移動情報の算出手法を説明する。図5は移動情報の算出処理を説明するための図である。ここでは、抽出されたエッジが正規化されたエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する処理を説明する。 Furthermore, the movement information calculation method of the movement information calculation unit 32 will be described with reference to FIG. FIG. 5 is a diagram for explaining the movement information calculation process. Here, a process of acquiring an edge image in which the extracted edge is normalized and calculating a moving direction and a moving speed from the edge counter value (residence time) will be described.

まず、特徴抽出部31は、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。 First, the feature extraction unit 31 performs binarization processing on the edge image. The binarization process is a process in which a pixel at a position where an edge is detected is set to 1 and a pixel at a position where no edge is detected is set to 0.

図5(a)は抽出された垂直方向のエッジの2値化画像例を示す。次に、図5(b)に示すように、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。つまり、抽出された各エッジに対して細線化処理を行ってエッジ幅を絞る。本例では、図5(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定する。なお、本例では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。 FIG. 5A shows an example of the binarized image of the extracted vertical edge. Next, as shown in FIG. 5B, thinning processing is performed on the generated binary image. The thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. That is, the edge width is narrowed by performing thinning processing on each extracted edge. In this example, as shown in FIG. 5B, the edge width of the edge is thinned until the predetermined pixel width becomes one pixel. In this way, the edge is thinned to a predetermined pixel width, thereby setting the center position as the center of the edge. Note that, in this example, an example in which one pixel is thinned is shown, but the number of pixels to be thinned is not particularly limited.

次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅が一定の幅となるように膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。本例では、細線化されたエッジのエッジ幅が3画素分の幅となるように、エッジを水平方向に膨張させる。この処理により、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得る。具体的に、図5(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。 Next, an expansion process is performed to expand the edge width of the thinned edge. The expansion process is performed so that the edge width is constant from the center position set by thinning toward the edge movement direction, and the edge width is also changed from the center position to the direction opposite to the edge movement direction. It is a process of expanding. In this example, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a width corresponding to three pixels. By this process, the extracted edges are normalized, and an edge image having a uniform width is obtained. Specifically, as shown in FIG. 5C, the pixel is expanded by one pixel from the edge center position x0 to the edge movement direction (the positive direction of the x axis), and opposite to the edge movement direction from the edge center position x0. The edge width is expanded to 3 pixels by expanding one pixel in the direction (negative direction of the x axis).

このように、細線化処理と膨張処理とを行うことによって、抽出されたエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一し、規格化することができる。 In this way, by performing the thinning process and the expansion process, the edge width of the extracted edge image can be standardized and standardized to a predetermined width in the edge moving direction.

次に、移動情報算出部32が移動情報を算出するために行う、カウントアップ処理について説明する。ここに言うカウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。 Next, the count-up process performed for the movement information calculation unit 32 to calculate movement information will be described. The count-up process mentioned here is a process for counting up the value of the memory address corresponding to the position of the pixel where the edge is detected and initializing the value of the memory address corresponding to the position of the pixel where the edge is not detected. It is.

以下、図5(c)〜(f)に基づいて移動情報算出部32によるエッジのカウントアップ処理について説明する。説明の便宜のため、ここでは、エッジがx軸の正方向に移動する場合を例にして説明する。エッジがx軸の負方向やy軸方向、あるいは2次元的に移動する場合においても、基本的な処理手法は共通する。 Hereinafter, the edge count-up process performed by the movement information calculation unit 32 will be described with reference to FIGS. For convenience of explanation, here, a case where the edge moves in the positive direction of the x-axis will be described as an example. Even when the edge moves in the negative x-axis direction, the y-axis direction, or two-dimensionally, the basic processing method is common.

図5(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張されている。 As shown in FIG. 5C, the edge has the center position of the edge at a position x0 in a certain frame. Then, it is expanded from the center position to the position x0 + 1 of one pixel in the edge moving direction, and similarly expanded from the center position to the position x0-1 of one pixel in the direction opposite to the edge moving direction.

このようなエッジが検出された位置、「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は「+1」カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。   The count value of the memory address corresponding to the position where such an edge is detected, “x0-1”, “x0”, “x0 + 1” is incremented by “+1”. On the other hand, the count value of the memory address corresponding to the position where the edge is not detected is reset.

例えば、図5(d)では、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各「1」カウントアップされる。その結果、位置「x0+1」のカウント値は「1」、位置「x0」のカウント値は「3」、位置「x0−1」のカウント値は「5」である。 For example, in FIG. 5D, edges are detected at positions “x0-1”, “x0”, and “x0 + 1” at time t. Therefore, the count value of the memory address corresponding to each position is incremented by “1”. As a result, the count value at the position “x0 + 1” is “1”, the count value at the position “x0” is “3”, and the count value at the position “x0-1” is “5”.

次に、図5(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2、位置「x0」のカウント値は4、位置「x0−1」のカウント値は6となる。 Next, as shown in FIG. 5E, since the edge does not move even at time t + 1, the edge is detected at each of the positions “x0-1”, “x0”, and “x0 + 1”. . Therefore, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are further incremented by one. As a result, the count value at position “x0 + 1” is 2, the count value at position “x0” is 4, and the count value at position “x0-1” is 6.

さらに、図5(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値はカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図5(f)に示すように位置「x0+2」のカウント値は1、位置「x0+1」のカウント値は3、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」になっている。   Further, as shown in FIG. 5 (f), at time t + 2, the edge is shifted by one pixel in the positive direction of the x-axis, and the edge is detected at positions “x0”, “x0 + 1”, and “x0 + 2”. Therefore, the count value of the memory address corresponding to the positions “x0”, “x0 + 1”, and “x0 + 2” where the edge is detected is counted up. On the other hand, the count value at the position “x0-1” where no edge is detected is reset to “zero”. As a result, the count value at the position “x0 + 2” is 1, the count value at the position “x0 + 1” is 3, and the count value at the position “x0” is 5, as shown in FIG. Further, the count value at the position “x0-1” where no edge is detected is reset to “0”.

このように、移動情報算出部32は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする。   As described above, the movement information calculation unit 32 counts up the count value of the memory address corresponding to the position where the edge is detected, and resets the count value of the memory address corresponding to the position where the edge is not detected.

なお、図5に基づく説明においては、カウント値を検出する位置として、エッジの中心位置「x0」と、この中心位置からエッジの移動方向へ1画素の位置「x0+1」と、中心位置からエッジの移動方向と反対方向に1画素の位置「x0−1」の3箇所でカウント値を検出するが、後述するカウント値の傾きが求められれば、カウント値を検出するポイントの配置、数は限定されない。つまり、エッジの移動方向に対して2箇所以上においてカウント値を検出できれば、カウント値の検出箇所はいくつであってもよい。 In the description based on FIG. 5, as the position for detecting the count value, the center position “x0” of the edge, the position “x0 + 1” of one pixel in the moving direction of the edge from the center position, and the edge position from the center position The count value is detected at three positions of the position “x0-1” of one pixel in the direction opposite to the moving direction. However, if the slope of the count value described later is obtained, the arrangement and number of points for detecting the count value are not limited. . That is, as long as the count value can be detected at two or more locations in the edge moving direction, the count value may be detected in any number.

また、物体が自車に対して一定角度で近づく場合、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図5の例では、連続する時刻tのフレームと時刻t+1のフレームにおいて、エッジは位置x0において2回検出される。したがって、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。 Further, when the object approaches the vehicle at a constant angle, the edge is detected a plurality of times at the same position between successive frames. For example, in the example of FIG. 5, the edge is detected twice at the position x0 in the continuous frame at time t and frame at time t + 1. Therefore, when the count value of the memory address corresponding to the position where the edge is detected is counted up, the count value correlates with the time (number of frames, dwell time) at which the edge is detected at that position.

次に、エッジの移動速度、移動方向及び位置の算出手法について説明する。まず、カウント値の傾きを算出し、この傾きに基づいて、エッジの移動速度、移動方向及び位置を算出する。   Next, a method for calculating the moving speed, moving direction, and position of the edge will be described. First, the inclination of the count value is calculated, and the moving speed, moving direction, and position of the edge are calculated based on this inclination.

例えば、図5(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出される。 For example, in the case of FIG. 5E, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are “6”, “4”, and “2”, respectively. When the count value “2” of “x0 + 1” is subtracted from the count value “6” of the position “x0-1”, the slope H of the count value is calculated as H = (6-2) / 2 = 2.

これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味するので、これによりエッジが位置x0のある1画素を通過するのに要する時間(フレーム数)を算出することになる。   This means H = {(time from the edge moving to the position x0-1 to the present) − (time after the edge moves to the position x0 + 1)} / (2 pixels). The time (number of frames) required to pass through one pixel at position x0 is calculated.

したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要したかに相当し、このカウント値の傾きHに基づいて、エッジの移動速度1/Hを算出できる。図5(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出される。 Therefore, the slope H of the count value corresponds to how many frames are required for the edge to move by one pixel, and the edge moving speed 1 / H can be calculated based on the slope H of the count value. In FIG. 5 (e), two frames are required to move one pixel, so the edge moving speed is calculated as 1/2 (pixel / frame).

続いて、カウント値の大小に基づいて、エッジの移動方向を判断する手法について説明する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。 Next, a method for determining the edge moving direction based on the magnitude of the count value will be described. Since the edge moves to a position where there is no edge and the count value at the position where the edge is newly detected is 1, the count value at each position is the smallest value. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large. By using this tendency, the moving direction of the edge can be determined.

以上のように、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップすることにより、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。 As described above, by counting up the count value of the memory address corresponding to the position where the edge is detected, the moving speed and moving direction of the edge can be calculated based on the slope of the counted up value. .

また、移動情報算出部32は、撮像画像上に存在するエッジの移動情報を所定の階級値に分類し、移動情報の特徴を表現する移動画像を生成する。図6に移動画像の一例を示す。図6に示すように、本実施形態の移動画像では、移動情報が検出されたエッジの画素を丸印で表し、移動速度が速い画素ほど点を大きい丸印で表すことにより、画素の速度情報を表現する。また、移動方向が右、すなわち右方向へ移動する画素を塗りつぶした黒印で表し、移動方向が左、すなわち左方向へ移動する画素を色抜きの白印で表すことにより、画素の移動方向を表現する。図6では、走行路左側に静止している歩行者に対応するエッジにおいて、画像の左側へ向かう移動速度が検出され、走行路左側に存在する停止車両に対応するエッジにおいて、画像の左側へ向かう移動速度が検出されている。この移動画像によれば、速度情報と移動方向を含む移動情報を表現することができる。 Further, the movement information calculation unit 32 classifies the movement information of the edges existing on the captured image into predetermined class values, and generates a movement image that represents the feature of the movement information. FIG. 6 shows an example of the moving image. As shown in FIG. 6, in the moving image of the present embodiment, the pixel of the edge where the movement information is detected is indicated by a circle, and the pixel having the higher movement speed is indicated by a larger circle, thereby obtaining pixel velocity information. Express. In addition, the moving direction of the pixel is represented by a solid black mark that represents a pixel that moves to the right, that is, the right direction, and the moving direction is represented by a white mark that represents a pixel that moves to the left, that is, the left direction. Express. In FIG. 6, the moving speed toward the left side of the image is detected at the edge corresponding to the pedestrian stationary on the left side of the road, and the left side of the image is reached at the edge corresponding to the stopped vehicle existing on the left side of the road. The moving speed is detected. According to this moving image, moving information including speed information and a moving direction can be expressed.

物体間相対位置算出部20は、算出された速度画像から物体を抽出するために、移動画像を分割する領域を設定する。すなわち、図7に示すように、移動画像上に短冊状の複数の領域を設定し、移動画像を複数の領域で分割する。 The inter-object relative position calculation unit 20 sets an area for dividing the moving image in order to extract an object from the calculated velocity image. That is, as shown in FIG. 7, a plurality of strip-shaped areas are set on the moving image, and the moving image is divided into the plurality of areas.

次に、領域ごとに、移動情報の共通する画素が縦方向に連続する領域をグループ化して物体を抽出する。すなわち、画像の下部から上部に向かって各領域を走査し、領域内に移動情報を持った画素が存在する場合は、その画素の上方に隣接する移動情報を持った画素との移動速度差を比較する。移動速度差が閾値T1以下である場合には、車両に対して同じ移動速度で移動する物体であると推定できるから、同じ物体として抽出する。   Next, for each region, an object is extracted by grouping regions in which pixels having common movement information are continuous in the vertical direction. That is, when each area is scanned from the bottom to the top of the image and there is a pixel with movement information in the area, the difference in movement speed between the pixels with movement information adjacent to the pixel is calculated. Compare. When the movement speed difference is equal to or less than the threshold value T1, it can be estimated that the objects move at the same movement speed with respect to the vehicle, and therefore are extracted as the same object.

例えば、静止物体であれば、手前の物体の移動速度は、奥の物体よりも移動速度は早くなるから、短冊状の領域内で移動速度差が生じていれば、相対位置の異なる物体が存在することがわかる。したがって、移動情報を比較することにより、各物体の存在領域を抽出することができ、その位置を対比することで対象物体と基準物体間の相対位置関係を把握し、各物体の存在(位置)を正確に検出することができる。 For example, if the object is a stationary object, the moving speed of the object in the foreground will be faster than that of the object in the back, so if there is a difference in moving speed within the strip-shaped area, there will be objects with different relative positions. I understand that Therefore, by comparing the movement information, the existence area of each object can be extracted, and by comparing the positions, the relative positional relationship between the target object and the reference object can be grasped, and the existence (position) of each object. Can be accurately detected.

なお、この構成によれば、検出対象となる物体を特定することなく物体を抽出することができる。また、特徴点が一定位置に留まる時間を計測して移動速度を算出するため、フレーム間の移動量を1画素以下に制限して、物体の特定のために必要なフレーム間の対応付け処理を排除することにより、高速な演算処理が可能となる。また、繰り返し演算(再帰処理)行わずに、ピクセル単位の逐次処理を行うことにより、高速な演算処理が可能となる。また、移動情報算出部32により算出された移動情報では、静止状態の立体であれば、相対位置が異なることにより、異なる移動速度を得ることができ、移動する物体と静止する物体では、相対位置が同じであっても、異なる移動速度を得ることができるため、これらの情報に基づいて物体の属性(立体、平面体、静止物体、移動物体など)を判定することができ、画像から物体間の相対位置と属性を把握しながら物体の抽出を行うことができる。   In addition, according to this structure, an object can be extracted without specifying the object used as a detection target. In addition, in order to calculate the movement speed by measuring the time that the feature point stays at a certain position, the amount of movement between frames is limited to 1 pixel or less, and the correlation processing between frames necessary for object identification is performed. By eliminating, high-speed arithmetic processing is possible. Also, high-speed arithmetic processing can be performed by performing sequential processing in units of pixels without performing repetitive arithmetic (recursive processing). Further, in the movement information calculated by the movement information calculation unit 32, if the solid is in a stationary state, a different movement speed can be obtained because the relative position is different, and a relative position is obtained between a moving object and a stationary object. Since different moving speeds can be obtained even if the same, the attributes of the object (solid, plane, stationary object, moving object, etc.) can be determined based on this information. The object can be extracted while grasping the relative position and attribute of the object.

次に、基準距離計測部40について説明する。本実施形態の基準距離計測部40は、レーダ測距装置20により取得された受信信号に基づいて、測距の基準として選択された基準物体と自車両との間の基準距離を求める。本実施形態の基準距離計測部40は、基準距離計測部40は、レーダ測距装置20により測距された自車両と物体との距離のうち、測距の基準として選択された基準物体と自車両との間の基準距離を、測距データメモリ21から取得する。 Next, the reference distance measurement unit 40 will be described. The reference distance measurement unit 40 according to the present embodiment obtains a reference distance between the reference object selected as a distance measurement reference and the host vehicle based on the received signal acquired by the radar distance measuring device 20. The reference distance measurement unit 40 of the present embodiment is configured such that the reference distance measurement unit 40 and the reference object selected as the reference for distance measurement among the distances between the vehicle and the object measured by the radar distance measuring device 20 are determined. A reference distance to the vehicle is acquired from the distance measurement data memory 21.

また、基準距離計測部40は、レーダ測距装置20により計測された距離情報の中から一の基準距離を取得するため、自車両との距離が測距された物体の中から測距の基準として適切と判断された「基準物体」を選択する基準物体選択部41を有する。 In addition, the reference distance measurement unit 40 obtains one reference distance from the distance information measured by the radar distance measuring device 20, so that a reference for distance measurement is selected from objects whose distance from the host vehicle is measured. As a reference object selection unit 41 that selects a “reference object” determined to be appropriate.

この基準物体選択部41は、レーダ測距装置20の距離計測に係る信頼度、及び物体間相対位置算出部30の相対位置算出に係る信頼度に基づいて「基準物体」を選択するため、距離測定に係る信頼度と相対位置算出に係る信頼度を判断する信頼度判断部411を有する。レーダ測距装置20の距離計測に係る信頼度は、そのレーダ測距装置20の測距性能に基づく信頼度を含む。この信頼度は、レーダ測距装置20側において予め記憶されたレーザデータ20aから取得することができる。また、相対位置算出に係る信頼度は、カメラ10の撮像性能に基づく信頼度を含む。この信頼度は、カメラ10側において予め記憶されたカメラレーダ10aから取得することができる。 The reference object selection unit 41 selects the “reference object” based on the reliability related to the distance measurement of the radar distance measuring device 20 and the reliability related to the relative position calculation of the inter-object relative position calculation unit 30. A reliability determination unit 411 that determines the reliability related to measurement and the reliability related to relative position calculation is included. The reliability related to the distance measurement of the radar distance measuring device 20 includes the reliability based on the distance measuring performance of the radar distance measuring device 20. This reliability can be acquired from laser data 20a stored in advance on the radar distance measuring device 20 side. Further, the reliability related to the relative position calculation includes the reliability based on the imaging performance of the camera 10. This reliability can be acquired from the camera radar 10a stored in advance on the camera 10 side.

まず、信頼度判断部411は、物体間相対位置算出部30の相対位置算出に係る信頼度を求める。本実施形態の信頼度判断部411は、カメラ10により撮像された画像に含まれる物体像に対応する画素の移動情報に基づいて、その信頼度を判断する。物体像に対応する画素、例えば物体像のエッジ(特徴部)に対応する移動情報は、エッジが1画素移動するフレーム数、すなわち、移動するまでの画素の蓄積量を示している。このため、エッジの蓄積量が多ければS/Nが向上するため、信頼度も高くなるといえる。このエッジの蓄積量が多い領域は、画素の移動速度が遅い領域に該当し、静止物体の移動速度で考えると、自車両から遠方に離隔する物体像に対応する領域に該当する。すなわち、移動情報の信頼度は移動するまでの画素の蓄積量が多くなるにつれて高くなるから、自車両から遠方に離隔するにしたがって信頼度が高くなる。カメラ10により撮像された対象物体までの距離と信頼度との関係を図8に示す。図8に示すように、距離が遠方に離隔するに従い、その信頼度(画像の蓄積度)は大きくなる。カメラ10により撮像される画像に対する信頼度が高くなることにより、信頼度の高い画像情報に基づいて算出された測距対象となる対象物体と測距の基準とする基準物体との相対位置関係の信頼度も高くなる。 First, the reliability determination unit 411 obtains the reliability related to the relative position calculation of the inter-object relative position calculation unit 30. The reliability determination unit 411 according to the present embodiment determines the reliability based on the movement information of the pixels corresponding to the object image included in the image captured by the camera 10. The movement information corresponding to the pixel corresponding to the object image, for example, the edge (feature portion) of the object image, indicates the number of frames in which the edge moves by one pixel, that is, the accumulated amount of pixels until the movement. For this reason, it can be said that the reliability increases because the S / N is improved when the edge accumulation amount is large. The region where the edge accumulation amount is large corresponds to a region where the moving speed of the pixel is slow, and corresponds to a region corresponding to an object image that is far away from the own vehicle in terms of the moving speed of the stationary object. That is, since the reliability of the movement information increases as the amount of accumulated pixels until the movement increases, the reliability increases as the distance from the host vehicle increases. FIG. 8 shows the relationship between the distance to the target object imaged by the camera 10 and the reliability. As shown in FIG. 8, the reliability (the degree of image accumulation) increases as the distance increases. Since the reliability of the image captured by the camera 10 is increased, the relative positional relationship between the target object to be a distance measurement calculated based on the image information with a high reliability and the reference object as a reference for distance measurement is increased. Reliability is also increased.

次に、信頼度判断部411は、レーダ測距装置20の距離計測に係る信頼度を求める。本実施形態の信頼度判断部411は、レーダ測距装置20が取得する受信信号の強度に基づいて、その信頼度を判断する。レーダ測距装置20による測距は受信信号の受信強度が高ければ、測距精度が高いと考えられる。受信強度はレーダ方程式から距離の2乗に反比例するから、距離情報の信頼度は距離の2乗に反比例する。レーダ測距装置20により測距された対象物体までの距離と信頼度との関係を図8に示す。図8に示すように、距離が遠方に離隔するに従い、距離計測の信頼度は低くなる。 Next, the reliability determination unit 411 calculates the reliability related to the distance measurement of the radar distance measuring device 20. The reliability determination unit 411 according to the present embodiment determines the reliability based on the intensity of the received signal acquired by the radar distance measuring device 20. The distance measurement by the radar distance measuring device 20 is considered to have high distance measurement accuracy if the reception intensity of the received signal is high. Since the received intensity is inversely proportional to the square of the distance from the radar equation, the reliability of the distance information is inversely proportional to the square of the distance. FIG. 8 shows the relationship between the distance to the target object measured by the radar distance measuring device 20 and the reliability. As shown in FIG. 8, the reliability of distance measurement becomes lower as the distance is further away.

信頼度判断部411は、図8に示す2つの信頼度から基準物体の探索を行う領域を決定する。画素の移動情報に基づく相対位置関係に係る信頼度は距離に比例する一方で、受信強度に基づく距離計測に係る信頼度は距離の2乗に反比例する。このため、信頼度判断部411は、どちらか一方の信頼度が極端に悪化しない領域を、基準物体を探索する領域として決定する。本実施形態で、図8で示すように、2つの信頼度を示す関数の交点となる距離を中心に所定幅の探索領域を設定する。例えば、フレームレートが120fpsのカメラを用いた場合、距離は50mを中心とする領域、例えば45m以上55m以内、30m以上60m以内など、任意に設定された計測距離範囲内の領域を探索領域とする。 The reliability determination unit 411 determines a region for searching for a reference object from the two reliability levels shown in FIG. While the reliability related to the relative positional relationship based on pixel movement information is proportional to the distance, the reliability related to distance measurement based on the received intensity is inversely proportional to the square of the distance. For this reason, the reliability determination unit 411 determines a region in which either one of the reliability is not extremely deteriorated as a region for searching for the reference object. In the present embodiment, as shown in FIG. 8, a search area having a predetermined width is set around a distance that is an intersection of two functions indicating reliability. For example, when a camera with a frame rate of 120 fps is used, the search area is an area within an arbitrarily set measurement distance range such as an area centered at 50 m, for example, 45 m to 55 m, 30 m to 60 m, and the like. .

そして、基準物体選択部41は、この探索領域に属する計測距離範囲内に存在する物体を基準物体として選択する。例えば、距離計測に係る信頼度が所定閾値内となる計測距離範囲に存在し、かつ、相対位置算出に係る信頼度が所定閾値内となる計測距離範囲に存在する物体を基準物体として選択する。 Then, the reference object selection unit 41 selects an object that exists within the measurement distance range belonging to this search area as a reference object. For example, an object that exists in a measurement distance range in which the reliability related to distance measurement is within a predetermined threshold and that is in a measurement distance range in which the reliability related to relative position calculation is within the predetermined threshold is selected as the reference object.

また、基準物体選択部41は、物体が静止体であるか移動体であるかに着目し、静止する物体を基準物体として選択することができる。特に、レーダ測距装置20が自車両から所定距離以上離隔する状態から継続的に距離を計測できた静止物体を基準物体として選択することができる。   Further, the reference object selection unit 41 can select a stationary object as a reference object by paying attention to whether the object is a stationary body or a moving body. In particular, it is possible to select, as the reference object, a stationary object that has been able to continuously measure the distance from a state in which the radar distance measuring device 20 is separated from the host vehicle by a predetermined distance or more.

本実施形態の基準物体選択部41は、静止物体判断部412を備え、基準物体として選択された物体が静止物体であるか否かを、その物体からの受信信号に基づいて判断する。基準物体選択部41は、その判断結果を参照し、静止物体を優先的に基準物体として選択する。物体が静止物体であるか否かを判断する手法は特に限定されないが、自車両の走行時において、静止物体は遠方で移動速度が遅く、近傍で移動速度が速いという特徴を用いて静止物体を抽出することができる。また、自車両の車速を用いれば、静止物体の画像の移動速度の推定が可能であるため、移動情報に基づいて静止物体を抽出することができる。 The reference object selection unit 41 of the present embodiment includes a stationary object determination unit 412 and determines whether or not the object selected as the reference object is a stationary object based on a received signal from the object. The reference object selection unit 41 refers to the determination result and preferentially selects a stationary object as the reference object. The method for determining whether or not an object is a stationary object is not particularly limited, but when the host vehicle is running, a stationary object is characterized by a slow moving speed in the distance and a fast moving speed in the vicinity. Can be extracted. Further, if the vehicle speed of the host vehicle is used, it is possible to estimate the moving speed of the image of the stationary object, so that the stationary object can be extracted based on the movement information.

また、本実施形態の基準物体選択部41は、検出継続時間判断部412を備え、基準物体として選択された物体が自車両から所定距離以上離隔する状態から継続的に距離を計測できた物体であるか否かを、その物体からの受信信号に基づいて判断する。基準物体選択部41は、その判断結果を参照し、遠くに存在するときから継続的に測距ができた物体を優先的に基準物体として選択する。 Further, the reference object selection unit 41 of the present embodiment includes a detection duration determination unit 412 and is an object that can continuously measure a distance from a state in which the object selected as the reference object is separated from the host vehicle by a predetermined distance or more. Whether or not there is is determined based on a received signal from the object. The reference object selection unit 41 refers to the determination result, and preferentially selects an object whose distance has been continuously measured since it exists far away as a reference object.

続いて、距離演算部50について説明する。   Next, the distance calculation unit 50 will be described.

距離演算部50は、レーダ測距装置20が対象物体までの距離を測距できない場合は、物体間相対位置算出部30により算出された対象物体と基準物体との相対位置関係と、基準距離計測部40により求められた自車両から基準物体までの基準距離とに基づいて、自車両から対象物体までの距離を演算する。つまり、自車両から基準物体までの基準距離を用いて、対象物体と基準物体との相対位置関係を、自車両と対象物体との位置関係に変換して、その距離を演算する。   When the radar distance measuring device 20 cannot measure the distance to the target object, the distance calculation unit 50 calculates the relative positional relationship between the target object and the reference object calculated by the inter-object relative position calculation unit 30, and the reference distance measurement. Based on the reference distance from the host vehicle to the reference object determined by the unit 40, the distance from the host vehicle to the target object is calculated. That is, using the reference distance from the host vehicle to the reference object, the relative positional relationship between the target object and the reference object is converted into the positional relationship between the host vehicle and the target object, and the distance is calculated.

距離演算部50は、自車両と対象物体との位置関係を得るために、基準物体が同一の物体であるか否かを判定する同一物体判定部51を備える。 The distance calculation unit 50 includes the same object determination unit 51 that determines whether or not the reference object is the same object in order to obtain the positional relationship between the host vehicle and the target object.

この同一物体判定部51は、カメラ10の画像の情報に基づいて算出された相対位置関係に係る第1の基準物体と、レーダ測距装置20の受信信号に基づいて求められた基準距離に係る第2の基準物体とが同一の物体であるか否かを判定する。そして、同一物体判定部51は、第1の基準物体と第2の基準物体とが同一の物体である場合に、対象物体と基準物体との相対位置関係を、自車両から基準物体までの基準距離を用いて、自車両と対象物体との位置関係に変換する。 The same object determination unit 51 relates to the first reference object related to the relative positional relationship calculated based on the image information of the camera 10 and the reference distance obtained based on the received signal of the radar ranging device 20. It is determined whether or not the second reference object is the same object. Then, when the first reference object and the second reference object are the same object, the same object determination unit 51 determines the relative positional relationship between the target object and the reference object as a reference from the own vehicle to the reference object. Using the distance, it is converted into a positional relationship between the host vehicle and the target object.

同一物体判定部51は、各基準物体の位置を比較してその同一性を判定する。つまり、同一物体判定部51は、物体間相対位置算出部30により相対位置関係が算出された第1の基準物体の位置と、基準距離計測部40により基準物体として選択された第2の基準物体の位置とを比較し、第1の基準物体と前記第2の基準物体とが同一の物体であるか否かを判定する。   The same object determination unit 51 compares the positions of the reference objects to determine their identity. In other words, the same object determination unit 51 detects the position of the first reference object whose relative positional relationship is calculated by the relative position calculation unit 30 between objects and the second reference object selected as the reference object by the reference distance measurement unit 40. To determine whether the first reference object and the second reference object are the same object.

図9に基づいて、具体的な判定手法を説明する。 A specific determination method will be described with reference to FIG.

まず、同一物体判定部51は、基準距離計測部40から、基準物体選択部41により基準物体として選択された物体(第2の基準物体)までの距離Z1(m)と、基準物体の方位情報θ(rad)を取得する。 First, the same object determination unit 51 includes the distance Z1 (m) from the reference distance measurement unit 40 to the object (second reference object) selected as the reference object by the reference object selection unit 41, and the reference object orientation information. Obtain θ (rad).

次に、同一物体判定部51は、図9に示すように、基準物体選択部41で選択された基準物体が、物体権相対位置算出部30で相対位置関係を求めた物体のうちのどの物体と一致するかの判定を行う。   Next, as shown in FIG. 9, the same object determination unit 51 determines which reference object selected by the reference object selection unit 41 is one of the objects whose relative positional relationship is obtained by the object right relative position calculation unit 30. It is determined whether or not it matches.

ここで、カメラ10の路面からの高さをCh(m)、カメラ10の俯角をTr(rad)、画像の縦サイズをIh、画像の横サイズをIw、高さ方向の1画素あたりの角度分解能をPYr(rad)、横方向の1画素あたりの角度分解能をPXr(rad)とすると、基準物体の画像上のx、y座標は、方位θ(rad)と距離Z1(m)を用い、次式から計算する。カメラの高さ等の情報は、カメラ10側に記憶されたカメラデータ10aから取得する。   Here, the height of the camera 10 from the road surface is Ch (m), the depression angle of the camera 10 is Tr (rad), the vertical size of the image is Ih, the horizontal size of the image is Iw, and the angle per pixel in the height direction When the resolution is PYr (rad) and the angular resolution per pixel in the horizontal direction is PXr (rad), the x and y coordinates on the image of the reference object use the azimuth θ (rad) and the distance Z1 (m), Calculate from the following formula. Information such as the height of the camera is acquired from the camera data 10a stored on the camera 10 side.

(式1)x=θ/PXr+(Iw/2)
(式2)y=(ATAN(Ch/Z1)- Tr)/ PYr+(Ih/2)
つまり、取得された第2の基準物体の方位情報に基づいて、物体間相対位置算出部30により相対位置関係が算出される画像の座標における第2の基準物体の位置を算出し、この算出された第2の基準物体の位置と、相対位置関係を求めた画像中の第1の基準物体の位置とを比較すれば、第1の基準物体と第2の基準物体との同一性を判断できる。
(Formula 1) x = θ / PXr + (Iw / 2)
(Formula 2) y = (ATAN (Ch / Z1) -Tr) / PYr + (Ih / 2)
That is, based on the obtained orientation information of the second reference object, the position of the second reference object in the coordinates of the image whose relative positional relationship is calculated by the inter-object relative position calculation unit 30 is calculated. By comparing the position of the second reference object and the position of the first reference object in the image for which the relative positional relationship has been obtained, the identity between the first reference object and the second reference object can be determined. .

本実施形態では、基準物体として選択された第2の基準物体の基準距離から、この第2の基準物体の下端領域の水平位置(y)を算出する。そして、物体間相対位置算出部30により相対位置関係が算出される画像について、算出された第2の基準物体の下端領域の水平位置近傍上に、その下端領域が存在する第1の基準物体候補を探索する。そして、探索された第1の基準物体候補のうち、その下端領域の垂直位置と第2の基準物体の下端領域の垂直位置との差が所定値以下となる第1の基準物体を抽出し、この抽出された第1の基準物体が、基準距離計測部40により基準物体として選択された第2の基準物体と同一の物体であると判定する。 In the present embodiment, the horizontal position (y) of the lower end region of the second reference object is calculated from the reference distance of the second reference object selected as the reference object. Then, with respect to the image in which the relative positional relationship is calculated by the inter-object relative position calculation unit 30, the first reference object candidate in which the lower end region is present in the vicinity of the horizontal position of the calculated lower end region of the second reference object. Explore. Then, out of the searched first reference object candidates, a first reference object in which a difference between the vertical position of the lower end region and the vertical position of the lower end region of the second reference object is equal to or less than a predetermined value is extracted, It is determined that the extracted first reference object is the same object as the second reference object selected as the reference object by the reference distance measurement unit 40.

具体的には、図9に示すように、第2の基準物体の方位情報に基づいて計算されたx座標上で物体を探索する。探索された各物体の下端領域の位置y1と、基準距離から算出された第2の基準物体の下端領域の位置yとを比較する。y1とyのy座標の差が最も小さいものを第2の基準物体と同一の第1の基準物体と判定する。 Specifically, as shown in FIG. 9, an object is searched for on the x-coordinate calculated based on the orientation information of the second reference object. The position y1 of the lower end area of each searched object is compared with the position y of the lower end area of the second reference object calculated from the reference distance. The thing with the smallest difference of y coordinate of y1 and y is determined as the 1st reference object same as the 2nd reference object.

さらに、同一物体判定部51は、物体間相対位置算出部30により相対位置関係が算出された第1の基準物体と、基準距離計測部40により選択された第2の基準物体とがいずれも静止物体であると判断された場合は、第1の基準物体と第2の基準物体とは同一の物体であると判定する。移動物体と静止物体では、相対位置が同じであっても異なる移動速度が算出されるため、物体が静止物体であるか否かは、移動情報に基づいて判断することができる。 Furthermore, the same object determination unit 51 is configured such that the first reference object whose relative positional relationship is calculated by the inter-object relative position calculation unit 30 and the second reference object selected by the reference distance measurement unit 40 are both stationary. If it is determined that the object is an object, it is determined that the first reference object and the second reference object are the same object. Even if the relative position is the same between the moving object and the stationary object, different movement velocities are calculated. Therefore, whether or not the object is a stationary object can be determined based on the movement information.

本実施形態の同一物体判定部51は、第1の基準物体の移動情報と第2の基準物体の移動情報とに基づいて、これらが静止物体であるか否かを判断し、両物体がいずれも静止物体と判定されれば両者は同一物体であると判定し、一の基準物体の位置(下端領域のy座標(y1))を取得することができる。 Based on the movement information of the first reference object and the movement information of the second reference object, the same object determination unit 51 of the present embodiment determines whether or not these are stationary objects. If both are determined to be stationary objects, both are determined to be the same object, and the position of one reference object (y coordinate (y1) of the lower end region) can be acquired.

このように、距離演算部50は、共通の基準物体を特定し、自車両と対象物体との位置関係を得るために必要な、基準物体の位置(下端領域のy座標)であるy1を取得する。 As described above, the distance calculation unit 50 identifies a common reference object, and obtains y1 that is the position of the reference object (y coordinate of the lower end region) necessary to obtain the positional relationship between the host vehicle and the target object. To do.

続いて、距離演算部50は、レーダ測距装置20では測定できない対象物体と自車両との距離を演算する。本実施形態の距離演算部50は、図10に示すように、カメラ10の撮像画像から抽出された物体であって、レーダ測距装置20では距離を測距できない物体の距離情報を演算する。 Subsequently, the distance calculation unit 50 calculates the distance between the target object that cannot be measured by the radar distance measuring device 20 and the host vehicle. As shown in FIG. 10, the distance calculation unit 50 of the present embodiment calculates distance information of an object that is extracted from an image captured by the camera 10 and cannot be measured by the radar distance measuring device 20.

先に、同一物体判定部51で同一物体として判定された基準物体の下端位置y1と、基準物体選択部41で選択された基準物体の基準距離とに基づいて、ピッチング等の車両挙動によって変化する現在のカメラ10の俯角Tr1(rad)を次式から計算する。 First, based on the lower end position y1 of the reference object determined as the same object by the same object determination unit 51 and the reference distance of the reference object selected by the reference object selection unit 41, it changes according to vehicle behavior such as pitching. The depression angle Tr1 (rad) of the current camera 10 is calculated from the following equation.

(式3)Tr1=ATAN(Ch/Z1)−(y1−(Ih/2)×PYr)
次に、距離情報を取得する対象物体Pの下端領域の位置y2を取得すれば、自車との距離を示すZ2を次式で計算する。
(Formula 3) Tr1 = ATAN (Ch / Z1)-(y1- (Ih / 2) * PYr)
Next, if the position y2 of the lower end region of the target object P from which the distance information is acquired is acquired, Z2 indicating the distance from the own vehicle is calculated by the following equation.

(式4)Z2=(Ch)/(TAN(Tr1+(y2−Ih/2)×PYr))
以上の演算処理により、自車両と対象物体との距離を得ることができる。
(Formula 4) Z2 = (Ch) / (TAN (Tr1 + (y2-Ih / 2) × PYr))
The distance between the host vehicle and the target object can be obtained by the above arithmetic processing.

このように、自車両と対象物体との距離が得られた場合は、対象物体が存在することに他ならず、「対象物体が存在する」、「対象物体が自車両から距離Z2の位置に存在する」という物体の検出結果を得ることができる。本実施形態の物体検出装置100によれば、レーダ測距装置20によって検出できない対象物体について、距離を算出し、その存在を検出することができる。すなわち、対象物体が遠方の物体や歩行者など反射が弱い物体であるとき、レーダ測距装置20は受信信号を得られず物体の存在を検出できない場合があるが、本実施形態の物体検出手法によれば、そのような対象物体の存在を検出することができる。 As described above, when the distance between the host vehicle and the target object is obtained, the target object exists, and “the target object exists” or “the target object is located at a distance Z2 from the host vehicle. The detection result of the object “present” can be obtained. According to the object detection device 100 of the present embodiment, it is possible to calculate the distance and detect the presence of a target object that cannot be detected by the radar ranging device 20. That is, when the target object is a distant object or an object with low reflection such as a pedestrian, the radar distance measuring device 20 may not be able to obtain a received signal and cannot detect the presence of the object. Therefore, the presence of such a target object can be detected.

また、演算処理により得た自車両と対象物体との距離は、出力装置300、走行支援装置200等へ出力される。出力装置300は、自車両と対象物体の距離、及び対象物体の存在を物体検出結果として出力する。また、走行支援装置200は、自車両と対象物体との距離に基づいて、自車両の走行を支援する情報の出力、車両制御を行う。 Further, the distance between the subject vehicle and the target object obtained by the arithmetic processing is output to the output device 300, the driving support device 200, and the like. The output device 300 outputs the distance between the host vehicle and the target object and the presence of the target object as an object detection result. In addition, the driving support device 200 performs output of information for supporting driving of the host vehicle and vehicle control based on the distance between the host vehicle and the target object.

続いて、本実施形態の物体検出装置100の物体検出処理手順を図11に基づいて説明する。図11は本実施形態の物体検出装置100の画像処理手順を示すフローチャート図である。     Subsequently, an object detection processing procedure of the object detection apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 11 is a flowchart showing an image processing procedure of the object detection apparatus 100 of the present embodiment.

イグニションスイッチ(図示省略)がオンされ、車載装置1000が起動すると、この処理用のプログラムが実行される。 When an ignition switch (not shown) is turned on and the in-vehicle device 1000 is activated, this processing program is executed.

まず、カメラ10は、所定の周期で車両周囲を撮像する(S101)。撮像された画像は画像メモリ11に蓄積される。特徴抽出21は、画像に対してエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出するとともにエッジ画像の正規化を行う(S102)。移動情報算出部22は、エッジの移動情報を算出する(S103)。そして、算出された移動情報を所定の階調で表された移動画像(図6参照)を作成する。   First, the camera 10 captures an image around the vehicle at a predetermined cycle (S101). The captured image is stored in the image memory 11. The feature extraction 21 performs edge extraction processing on the image, extracts the contour of the object existing in the captured image as an edge image, and normalizes the edge image (S102). The movement information calculation unit 22 calculates edge movement information (S103). Then, a moving image (see FIG. 6) in which the calculated movement information is represented by a predetermined gradation is created.

ステップS104では、移動情報算出部22が、作成された移動画像上に物体検出用の短冊領域を設定する(S104)。続いて、ステップS105では、物体間相対位置算出部30が各短冊領域内に移動情報を持った画素があるかどうかを下から上に向かって探索する。移動情報を持った画素がある場合は、その上方に隣接する移動情報を持った画素との移動速度差を比較し、移動速度差がしきい値以下である場合には、同一物体に対応するものとしてグループ化を行い、物体を抽出する(S105)。 In step S104, the movement information calculation unit 22 sets a strip area for object detection on the generated movement image (S104). Subsequently, in step S105, the inter-object relative position calculation unit 30 searches from the bottom to the top whether there is a pixel having movement information in each strip area. If there is a pixel with movement information, compare the movement speed difference with the pixel with movement information adjacent above it, and if the movement speed difference is less than or equal to the threshold value, it corresponds to the same object The objects are grouped and objects are extracted (S105).

ステップS106では、画像に含まれる全ての物体が抽出されたか否かを判断する(S106)。全ての物体の抽出が完了したら、ステップS107の処理に移行し、抽出が完了していなければ、ステップS105の処理に戻る。   In step S106, it is determined whether all the objects included in the image have been extracted (S106). If extraction of all objects is completed, the process proceeds to step S107. If extraction is not completed, the process returns to step S105.

ステップS107において、基準物体選択部411は、レーダ測距装置20で計測された基準距離に基づいて基準物体を選択する。基準物体選択部41は、レーダ測距装置20を介して取得された受信信号の強度を参照して求めた距離計測に係る信頼度と、物体間相対位置算出部30が撮像画像中の対象物体像に対応する画素の移動速度を参照して求めた相対位置算出に係る信頼度とに基づいて、基準物体を選択する。具体的には、図8に示すようなエッジ蓄積量から算出された相対位置算出の信頼度を示す関数と、受信信号の強度から算出された距離計測に係る信頼度を示す関数との交点となる距離を中心に設定された所定範囲内の計測距離範囲内にある物体を基準物体として選択する。さらに、レーダ測距装置20が遠方から継続的に距離を計測できた静止物体を、基準物体として選択し、その基準物体までの距離とその方位情報と取得する。この後に、フローはステップS108へ移行する。 In step S <b> 107, the reference object selection unit 411 selects a reference object based on the reference distance measured by the radar distance measuring device 20. The reference object selection unit 41 is a reliability related to the distance measurement obtained by referring to the intensity of the received signal acquired via the radar distance measuring device 20, and the target object included in the captured image by the inter-object relative position calculation unit 30. The reference object is selected based on the reliability relating to the relative position calculation obtained by referring to the moving speed of the pixel corresponding to the image. Specifically, an intersection of a function indicating the reliability of relative position calculation calculated from the edge accumulation amount as shown in FIG. 8 and a function indicating the reliability related to distance measurement calculated from the intensity of the received signal, An object within a measurement distance range within a predetermined range set with a distance as a center is selected as a reference object. Further, a stationary object for which the radar distance measuring device 20 has been able to continuously measure the distance from a distance is selected as a reference object, and the distance to the reference object and its orientation information are acquired. After this, the flow moves to step S108.

ステップS108では、基準物体選択部41で選択された物体が、カメラ10で撮像され、物体間相対位置算出部30により相対位置関係が算出された物体のうち、いずれの物体と一致するかの判定を行う。同一性判定部51は、基準物体選択部41により選択された基準物体(第2の基準物体)までの距離と方位情報から、その第2の基準物体について画像上におけるxy座標を計算する。方位情報から計算されたx座標上に存在し、その下端領域のy座標の差が最小の物体を同一の基準物体の候補とする。 In step S108, the object selected by the reference object selection unit 41 is imaged by the camera 10, and it is determined which of the objects whose relative positional relationship is calculated by the inter-object relative position calculation unit 30 matches with the object. I do. The identity determination unit 51 calculates xy coordinates on the image of the second reference object from the distance and direction information to the reference object (second reference object) selected by the reference object selection unit 41. An object that exists on the x-coordinate calculated from the azimuth information and has the smallest difference in the y-coordinate of the lower end region is set as a candidate for the same reference object.

ステップS109では、同一物体判定部51が、同一の基準物体の候補の移動情報から静止物体か否かを判定する。基準物体の候補が静止物体と判定されれば、同一物体として確定し、基準物体として選択する。そして、その基準物体の下端領域のy座標を取得する(S109)。 In step S109, the same object determination unit 51 determines whether or not the object is a stationary object from the movement information of the same reference object candidate. If the reference object candidate is determined to be a stationary object, it is determined as the same object and selected as the reference object. Then, the y coordinate of the lower end region of the reference object is acquired (S109).

ステップS110では、同一物体として確定した基準物体の下端領域の座標から、現在のカメラの俯角を計算する(S110)。 In step S110, the depression angle of the current camera is calculated from the coordinates of the lower end region of the reference object determined as the same object (S110).

ステップS111では、算出された現在のカメラの俯角を用い、レーダ測距装置20によっては距離を計測できない対象物体と自車両の距離を演算する。具体的には、対象物体の下端領域の位置を取得し、自車両との相対位置を示す、自車両と対象物体との距離を演算する(S111)。S111で得た自車両と対象物体との距離は、外部の出力装置300、走行支援装置200等へ出力される。 In step S111, the calculated current depression angle of the camera is used to calculate the distance between the target object that cannot be measured by the radar distance measuring device 20 and the host vehicle. Specifically, the position of the lower end region of the target object is acquired, and the distance between the host vehicle and the target object indicating the relative position with the host vehicle is calculated (S111). The distance between the host vehicle and the target object obtained in S111 is output to the external output device 300, the driving support device 200, and the like.

ステップS112では、全ての対象物体と自車両との距離が計算されたか否かを判断する(S112)。 In step S112, it is determined whether the distances between all target objects and the host vehicle have been calculated (S112).

全ての対象物体について自車両との距離の計算が完了したら、ステップS113に移行し、完了していなければ、ステップS111に戻る。 If the calculation of the distance from the host vehicle is completed for all target objects, the process proceeds to step S113, and if not completed, the process returns to step S111.

ステップS113では、自車のイグニションスイッチがオフされたか否かの判定を行う(S113)。 In step S113, it is determined whether or not the ignition switch of the own vehicle is turned off (S113).

イグニションスイッチがオフされていない場合は、ステップS101に戻り処理を繰り返す。一方、イグニションスイッチがオフされた場合は、フローはステップS114へ移行して処理を終了する(S114)。 If the ignition switch is not turned off, the process returns to step S101 and is repeated. On the other hand, if the ignition switch is turned off, the flow moves to step S114 and the process ends (S114).

本実施形態の画像処理装置100は以上のとおり構成され、動作するので、以下の効果を奏する。 Since the image processing apparatus 100 according to the present embodiment is configured and operates as described above, the following effects can be obtained.

本実施形態の物体検出装置100は、レーダ測距装置20が対象物体までの距離を測距できない場合は、カメラ10により撮像された画像の情報に基づいて算出された、対象物体と基準物体との相対位置関係と、レーダ測距装置20により取得された受信信号から計測された自車両から基準物体までの基準距離とに基づいて、自車両から対象物体までの距離を演算することにより、基準物体の位置を基準として、対象物体と基準物体との相対位置関係を、自車両との相対位置関係に変換するため、レーダ受信信号から直接計測できない遠方に存在する対象物体までの距離を高い精度で演算することができる。つまり、測距対象となる対象物体が、反射の弱い歩行者やレーダの検出エリア外に存在する物体のようにレーダ測距装置20によっては直接距離を測距できない場合であっても、自車両から対象物体までの距離を高い精度で演算し、物体を正確に検出することができる。   The object detection device 100 according to the present embodiment, when the radar distance measuring device 20 cannot measure the distance to the target object, calculates the target object, the reference object, and the reference object calculated based on the information of the image captured by the camera 10. By calculating the distance from the subject vehicle to the target object based on the relative positional relationship between the subject vehicle and the reference distance from the subject vehicle to the reference object measured from the received signal acquired by the radar distance measuring device 20. Since the relative positional relationship between the target object and the reference object is converted into the relative positional relationship with the host vehicle based on the position of the object, the distance to the target object located far away that cannot be directly measured from the radar received signal is highly accurate. It can be calculated with. That is, even if the target object to be distance-measured cannot be directly measured by the radar distance measuring device 20 such as a pedestrian with weak reflection or an object existing outside the radar detection area, the own vehicle The distance from the target object to the target object can be calculated with high accuracy, and the object can be detected accurately.

また、測距の基準とする基準物体を、レーダ測距装置20の距離計測に係る信頼度と、物体間相対位置算出部30の相対位置算出に係る信頼度とに基づいて選択することにより、距離に対して異なる信頼度の傾向を示すカメラ10の撮像画像(撮像画像の情報)の信頼度とレーダ測距装置20の測距の信頼度の両方の信頼度が考慮された基準物体を選択することができ、精度の高い測距及び物体検出を行うことができる。   Further, by selecting a reference object as a reference for distance measurement based on the reliability related to the distance measurement of the radar distance measuring device 20 and the reliability related to the relative position calculation of the relative position calculation unit 30 between the objects, A reference object is selected in which the reliability of both the reliability of the captured image of the camera 10 (information of the captured image) and the reliability of the distance measurement of the radar distance measuring device 20 showing different reliability trends with respect to the distance is considered. It is possible to perform ranging and object detection with high accuracy.

特に、基準距離計測部40により、距離計測に係る信頼度を、受信信号の強度を参照して求め、物体間相対位置算出部30の相対位置算出に係る信頼度を、カメラ10により撮像された対象物体像に対応する画素の移動速度,例えば画素のカウント値の蓄積量を参照して求めることにより、画像情報、受信信号の特性に応じた信頼度に基づいて、検出精度の高い基準物体を選択することができるため、精度の高い測距及び物体検出を行うことができる。   In particular, the reference distance measurement unit 40 obtains the reliability related to the distance measurement with reference to the intensity of the received signal, and the reliability related to the relative position calculation of the inter-object relative position calculation unit 30 is captured by the camera 10. A reference object with high detection accuracy can be obtained based on the reliability according to the characteristics of the image information and received signal by obtaining the moving speed of the pixel corresponding to the target object image, for example, by referring to the accumulated amount of the count value of the pixel. Since it can be selected, highly accurate distance measurement and object detection can be performed.

さらに、基準距離計測部により、距離計測に係る信頼度が所定閾値内となる計測距離範囲に存在し、かつ、相対位置算出に係る信頼度が所定閾値内となる計測距離範囲に存在する物体を基準物体として選択することにより、距離計測に係る信頼度及び相対位置算出に係る信頼度の両方の信頼度を維持することができる。これにより、距離計測に係る信頼度と相対位置算出に係る信頼度とは、距離に対して異なる傾向を示すが、いずれか一方の信頼度が極端に低くならない距離の範囲から基準物体を選択することができる。このように、一定の信頼度が確保される範囲を設定することにより、カメラ10及びレーダ測距装置20で検出精度が高い物体を基準物体として選択することができる。これにより、対象物体と基準物体との相対位置関係を自車両と対象物体の相対位置に変換するのに適した、正確な基準物体を検出することができ、精度の高い測距及び物体検出を行うことができる。   Further, the reference distance measurement unit detects an object that exists in a measurement distance range in which the reliability related to distance measurement is within a predetermined threshold, and exists in a measurement distance range in which the reliability related to relative position calculation is within the predetermined threshold. By selecting as the reference object, it is possible to maintain both the reliability related to distance measurement and the reliability related to relative position calculation. As a result, the reliability related to the distance measurement and the reliability related to the relative position calculation tend to be different with respect to the distance, but the reference object is selected from the range of the distance where one of the reliability does not become extremely low. be able to. Thus, by setting a range in which a certain degree of reliability is ensured, an object with high detection accuracy can be selected as a reference object by the camera 10 and the radar distance measuring device 20. As a result, it is possible to detect an accurate reference object suitable for converting the relative positional relationship between the target object and the reference object into a relative position between the host vehicle and the target object, and to perform accurate ranging and object detection. It can be carried out.

加えて、基準距離計測部40により、レーダ測距装置20が自車両から所定距離以上離隔する状態から継続的に距離を計測できた物体を基準物体として選択することにより、計測精度の高い物体を基準物体とすることができ、精度の高い測距及び物体検出を行うことができる。   In addition, an object with high measurement accuracy can be selected by selecting, as the reference object, an object whose distance has been continuously measured from the state in which the radar distance measuring device 20 is separated from the host vehicle by a predetermined distance or more by the reference distance measurement unit 40. It can be used as a reference object, and highly accurate ranging and object detection can be performed.

さらに加えて、物体のうち、位置の比較が正確に行える静止物体を基準物体として選択することにより、物体間相対位置算出部30により算出された物体間位置関係における基準物体と、基準距離測距部40により求められた基準距離における基準物体との対応関係を高い精度で判断することができる。なお、距離演算部50において自車両と対象物体との距離を演算するに際し、物体間位置関係における基準物体と基準距離における基準物体との同一性を判定する必要があるが、基準物体を静止物とすることにより、高い精度でその同一性を判定し、同一の基準物体を抽出することができる。これにより、精度の高い測距及び物体検出を行うことができる。   In addition, by selecting, as a reference object, a stationary object that can accurately compare positions among the objects, the reference object in the inter-object relative position calculated by the inter-object relative position calculation unit 30 and the reference distance measurement The correspondence with the reference object at the reference distance obtained by the unit 40 can be determined with high accuracy. When the distance calculation unit 50 calculates the distance between the host vehicle and the target object, it is necessary to determine the identity of the reference object in the positional relationship between the objects and the reference object at the reference distance. By doing so, it is possible to determine the identity with high accuracy and extract the same reference object. Thereby, highly accurate ranging and object detection can be performed.

また、自車両と対象物体との距離を演算するにあたり、物体間相対位置算出部30により相対位置関係が算出された第1の基準物体の位置と、基準距離計測部40により基準物体として選択された第2の基準物体の位置とに基づいて、両基準物体が同一の物体であるか否かを判定することにより、対象物体と第1の基準物体との相対位置関係を、自車両と第2の基準物体との基準距離に基づいて、自車両と対象物体との位置関係に正確に変換することができる。これにより、精度の高い測距及び物体検出を行うことができる。   Further, in calculating the distance between the host vehicle and the target object, the position of the first reference object whose relative positional relationship is calculated by the inter-object relative position calculation unit 30 and the reference distance measurement unit 40 are selected as the reference objects. By determining whether both reference objects are the same object based on the position of the second reference object, the relative positional relationship between the target object and the first reference object is Based on the reference distance to the second reference object, it is possible to accurately convert the positional relationship between the host vehicle and the target object. Thereby, highly accurate ranging and object detection can be performed.

特に、本実施形態の距離演算部50は、第1の基準物体と第2の基準物体とが同一の物体であるか否かの判断を、第2の基準物体の距離及び方位情報に基づいて第2の基準物体の所定位置を画像上に座標変換し、この変換された座標近傍に存在する第1の基準物体と第2の基準物体との位置関係を比較して、両者が同一物体であるか否かを判定するため、レーダ測距装置20の計測精度の高い距離と方位情報に基づいて、カメラ10により撮像される画像に含まれる物体のうち基準物体が存在する領域を絞り込むことができ、基準距離における基準物体と共通する物体を、相対位置関係において特定することができる。これにより、精度の高い測距及び物体検出を行うことができる。 In particular, the distance calculation unit 50 according to the present embodiment determines whether the first reference object and the second reference object are the same object based on the distance and orientation information of the second reference object. A predetermined position of the second reference object is coordinate-converted on the image, and the positional relationship between the first reference object and the second reference object existing in the vicinity of the converted coordinates is compared. In order to determine whether or not there is, it is possible to narrow down the region where the reference object exists among the objects included in the image captured by the camera 10 based on the distance and azimuth information with high measurement accuracy of the radar distance measuring device 20. And an object common to the reference object at the reference distance can be specified in the relative positional relationship. Thereby, highly accurate ranging and object detection can be performed.

さらに、相対位置関係が算出された第1の基準物体と、基準距離が算出された第2の基準物体とがいずれも静止物体であると判断された場合に、両者が同一の物体であると判定することにより、位置の比較又は移動情報の比較を正確に行うことができるため、高い精度でその同一性を判定することができ、同一の基準物体を正確に抽出することができる。これにより、精度の高い測距及び物体検出を行うことができる。   Furthermore, when it is determined that the first reference object for which the relative positional relationship is calculated and the second reference object for which the reference distance is calculated are both stationary objects, they are the same object. Since the position comparison or the movement information comparison can be accurately performed by the determination, the identity can be determined with high accuracy, and the same reference object can be accurately extracted. Thereby, highly accurate ranging and object detection can be performed.

また、対象物体と基準物体との相対位置関係を算出するにあたり、物体間相対位置算出部30は、カメラ10の撮像画像の特徴部に対応する画素のカウント値をカウントアップし、カウント値の傾きに基づいて、特徴部に対応する画素の移動情報を算出し、この移動情報に基いて物体間の相対位置関係を算出する。この構成によれば、カメラ10で撮像された画像から抽出された特徴点の移動情報を計測することで、物体の特定位置、例えば下端位置を正確に検出することが可能になるため、広範囲にわたって物体間の相対位置関係を算出することができる。また、特徴点の位置情報と移動情報により物体同士の同一判定を行うことができる。つまり、物体の下端位置及び下端位置の移動情報に基づいて、物体同士の同一性を正確に判断することができる。さらに、移動物体と静止物体では、相対位置が同じであっても異なる移動速度が算出されるため、物体が静止物体か否かを正確に判断することができる。   Further, in calculating the relative positional relationship between the target object and the reference object, the inter-object relative position calculation unit 30 counts up the count value of the pixel corresponding to the feature portion of the captured image of the camera 10, and the inclination of the count value Based on the above, the movement information of the pixel corresponding to the feature is calculated, and the relative positional relationship between the objects is calculated based on the movement information. According to this configuration, it is possible to accurately detect the specific position of the object, for example, the lower end position, by measuring the movement information of the feature points extracted from the image captured by the camera 10, and therefore, over a wide range. The relative positional relationship between the objects can be calculated. In addition, it is possible to perform the same determination between objects based on the position information and movement information of the feature points. That is, it is possible to accurately determine the identity between objects based on the lower end position of the object and the movement information of the lower end position. Furthermore, since different moving speeds are calculated even when the relative position is the same between the moving object and the stationary object, it is possible to accurately determine whether or not the object is a stationary object.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

本実施形態の物体検出装置100を含む車載装置1000のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the vehicle-mounted apparatus 1000 containing the object detection apparatus 100 of this embodiment. (A)及び(B)は、カメラ10及びレーダ測距装置20の搭載例を示す図である。(A) And (B) is a figure which shows the example of mounting of the camera 10 and the radar ranging device 20. FIG. カメラ10により撮像された車両前方の画像例である。2 is an example of an image in front of a vehicle imaged by a camera 10; 本実施形態の物体検出装置の作用を説明するための図である。It is a figure for demonstrating the effect | action of the object detection apparatus of this embodiment. (a)〜(f)は移動速度の算出処理を説明するための図である。(A)-(f) is a figure for demonstrating the calculation process of moving speed. 移動画像の一例を示す図である。It is a figure which shows an example of a moving image. 移動画像から物体を検出する手法例を説明するための図である。It is a figure for demonstrating the example of a method of detecting an object from a moving image. 異なる指標の信頼度に基づいて、基準物体を探索する領域の決定手法を説明するための図である。It is a figure for demonstrating the determination method of the area | region which searches a reference | standard object based on the reliability of a different parameter | index. 基準物体の同一性を判定する手法例を説明するための図である。It is a figure for demonstrating the example of a method which determines the identity of a reference | standard object. 自車両から対象物体までの距離を演算する手法例を説明するための図である。It is a figure for demonstrating the example of a method which calculates the distance from the own vehicle to a target object. 本実施形態の物体検出装置の制御手順を示すフローチャート図である。It is a flowchart figure which shows the control procedure of the object detection apparatus of this embodiment.

符号の説明Explanation of symbols

1000…車載装置
100…物体検出装置
10…カメラ
11…画像メモリ
20…レーダ測距装置
30…物体間相対位置算出部
31…特徴抽出部
32…移動情報算出部
40…基準距離計測部
41…基準物体選択部
50…距離演算部
51…同一物体判定部
DESCRIPTION OF SYMBOLS 1000 ... Vehicle-mounted apparatus 100 ... Object detection apparatus 10 ... Camera 11 ... Image memory 20 ... Radar ranging apparatus 30 ... Inter-object relative position calculation part 31 ... Feature extraction part 32 ... Movement information calculation part 40 ... Reference distance measurement part 41 ... Reference | standard Object selection unit 50 ... Distance calculation unit 51 ... Same object determination unit

Claims (11)

自車両に搭載される撮像手段により撮像された画像の情報に基づいて、測距対象となる対象物体と測距の基準となる基準物体との相対位置関係を算出する物体間相対位置算出手段と、
前記自車両に搭載されるレーダ測距手段により取得された受信信号に基づいて、前記測距の基準として選択された基準物体と前記自車両との間の基準距離を求める基準距離計測手段と、
前記レーダ測距手段が前記対象物体までの距離を測距できない場合は、前記物体間相対位置算出手段により算出された前記対象物体と基準物体との相対位置関係と、前記基準距離計測手段により求められた前記基準物体と自車両の基準距離とに基づいて、前記自車両から前記対象物体までの距離を演算する距離演算手段とを有する物体検出装置。
An inter-object relative position calculating unit that calculates a relative positional relationship between a target object to be a distance measurement target and a reference object to be a distance measurement reference based on information of an image captured by an imaging unit mounted on the host vehicle; ,
Reference distance measuring means for obtaining a reference distance between the reference object selected as the reference of the distance measurement and the own vehicle based on the received signal acquired by the radar distance measurement means mounted on the own vehicle;
If the radar distance measuring means cannot measure the distance to the target object, the relative position relationship between the target object and the reference object calculated by the inter-object relative position calculating means is obtained by the reference distance measuring means. An object detection apparatus comprising: distance calculation means for calculating a distance from the host vehicle to the target object based on the reference object and the reference distance of the host vehicle.
請求項1に記載の物体検出装置において、
前記基準距離計測手段は、前記レーダ測距手段による距離計測に係る信頼度と、前記物体間相対位置算出手段による相対位置算出に係る信頼度とに基づいて、前記基準物体を選択する物体検出装置。
The object detection apparatus according to claim 1,
The reference distance measuring means selects the reference object based on reliability related to distance measurement by the radar distance measuring means and reliability related to relative position calculation by the inter-object relative position calculating means. .
請求項2に記載の物体検出装置において、
前記基準距離計測手段は、前記レーダ測距手段により受信された受信信号の強度を参照して求めた距離計測に係る信頼度と、前記物体間相対位置算出手段が前記撮像手段により撮像された対象物体に対応する画素の移動速度を参照して求めた相対位置算出に係る信頼度とに基づいて、前記基準物体を選択する物体検出装置。
The object detection device according to claim 2,
The reference distance measuring means includes a reliability related to distance measurement obtained by referring to an intensity of a received signal received by the radar distance measuring means, and an object in which the inter-object relative position calculating means is imaged by the imaging means. An object detection apparatus that selects the reference object based on a reliability related to relative position calculation obtained by referring to a moving speed of a pixel corresponding to the object.
請求項3に記載の物体検出装置において、
前記基準距離計測手段は、前記受信信号の強度を参照して求められた前記距離計測に係る信頼度が所定閾値内となる計測距離範囲に存在し、かつ、前記対象物体に対応する画素の移動速度を参照して求められた前記相対位置算出に係る信頼度が所定閾値内となる計測距離範囲に存在する物体を、前記基準物体として選択する物体検出装置。
The object detection device according to claim 3,
The reference distance measuring means is located within a measurement distance range in which the reliability related to the distance measurement obtained with reference to the intensity of the received signal is within a predetermined threshold, and the pixel corresponding to the target object is moved. An object detection apparatus that selects, as the reference object, an object that exists in a measurement distance range in which a reliability related to the relative position calculation obtained by referring to a velocity is within a predetermined threshold.
請求項1〜4の何れか一項に記載の物体検出装置において、
前記基準距離計測手段は、前記レーダ測距手段が前記自車両から所定距離以上離隔する状態から継続的に距離を計測できた物体を、前記基準物体として選択する物体検出装置。
In the object detection device according to any one of claims 1 to 4,
The reference distance measurement unit is an object detection device that selects, as the reference object, an object whose distance has been continuously measured from a state in which the radar distance measurement unit is separated from the host vehicle by a predetermined distance or more.
請求項1〜5の何れか一項に記載の物体検出装置において、
前記基準距離計測手段は、前記レーダ測距手段により取得された受信信号に基づいて静止物体と判断された物体を基準物体として選択する物体検出装置。
In the object detection device according to any one of claims 1 to 5,
The reference distance measurement unit is an object detection device that selects, as a reference object, an object that is determined as a stationary object based on a reception signal acquired by the radar ranging unit.
請求項1〜6の何れか一項に記載の物体検出装置において、
前記距離演算手段は、前記物体間相対位置算出手段により相対位置関係が算出された第1の基準物体の位置と、前記基準距離計測手段により基準物体として選択された第2の基準物体の位置とに基づいて、前記第1の基準物体と前記第2の基準物体とが同一の物体であるか否かを判定する物体検出装置。
In the object detection device according to any one of claims 1 to 6,
The distance calculation means includes a position of a first reference object whose relative positional relationship is calculated by the relative position calculation means between the objects, and a position of a second reference object selected as a reference object by the reference distance measurement means. An object detection apparatus that determines whether the first reference object and the second reference object are the same object based on the above.
請求項7に記載の物体検出装置において、
前記距離演算手段は、前記第1の基準物体と前記第2の基準物体とが同一の物体であると判定するに際し、
前記第2の基準物体の方位情報に基づいて、前記物体間相対位置算出手段により前記相対位置関係が算出される画像上における前記第2の基準物体の下端領域の水平位置を算出し、
前記物体間相対位置算出手段により前記相対位置関係が算出される画像に含まれる物体について、前記算出された第2の基準物体の下端領域の水平位置近傍上にその下端領域が存在する第1の基準物体候補を探索し、
前記探索された第1の基準物体候補のうち、その下端領域の垂直位置と前記第2の基準物体の下端領域の垂直位置との差が所定値以下となる第1の基準物体を抽出し、
前記抽出された第1の基準物体を前記第2の基準物体と同一の物体であると判定する物体検出装置。
The object detection apparatus according to claim 7,
When the distance calculation means determines that the first reference object and the second reference object are the same object,
Based on the azimuth information of the second reference object, calculate the horizontal position of the lower end region of the second reference object on the image where the relative positional relationship is calculated by the relative position calculation means between the objects,
For the object included in the image for which the relative positional relationship is calculated by the inter-object relative position calculating means, a first lower end region exists in the vicinity of the horizontal position of the lower end region of the calculated second reference object. Search for reference object candidates,
From the searched first reference object candidates, a first reference object in which a difference between a vertical position of a lower end region thereof and a vertical position of a lower end region of the second reference object is a predetermined value or less is extracted,
An object detection apparatus that determines that the extracted first reference object is the same object as the second reference object.
請求項7又は8に記載の物体検出装置において、
前記距離演算手段は、前記第1の基準物体と前記第2の基準物体とが同一の物体であると判定するに際し、
さらに、前記物体間相対位置算出手段により相対位置関係が算出された第1の基準物体と、前記基準距離計測手段により選択された第2の基準物体とがいずれも静止物であると判断された場合は、前記第1の基準物体と前記第2の基準物体とは同一の物体であると判定する物体検出装置。
In the object detection device according to claim 7 or 8,
When the distance calculation means determines that the first reference object and the second reference object are the same object,
Further, it is determined that the first reference object whose relative positional relationship is calculated by the relative position calculation means between the objects and the second reference object selected by the reference distance measurement means are both stationary objects. In this case, the object detection apparatus determines that the first reference object and the second reference object are the same object.
前記請求項1〜9の何れかに記載の物体検出装置において、
前記物体間相対位置算出手段は、前記撮像手段により所定周期で撮像された物体の各画像の情報に基づいて、前記物体に対応する特徴部を抽出し、前記抽出された特徴部の位置に対応する画素のカウント値をカウントアップし、前記カウント値の傾きに基づいて、前記特徴部に対応する画素の移動情報を算出し、前記算出された画素の移動情報に基づいて、前記対象物体と前記基準物体との相対位置関係を算出する物体検出装置。
In the object detection device according to any one of claims 1 to 9,
The inter-object relative position calculating means extracts a feature corresponding to the object based on information of each image of the object imaged at a predetermined period by the imaging means, and corresponds to the position of the extracted feature A count value of a pixel to be counted, and based on the inclination of the count value, pixel movement information corresponding to the feature is calculated, and based on the calculated pixel movement information, the target object and the An object detection device that calculates a relative positional relationship with a reference object.
測距対象となる対象物体と自車両との距離を計測する測距方法であって、
前記自車両側から発射された電磁波に対する受信信号に基づいて算出された、前記対象物体と自車両との距離と、
前記自車両周囲の撮像画像の情報に基づいて算出された前記測距対象となる対象物体と測距の基準となる基準物体との相対位置関係と、前記自車両側から発射された電磁波に対する受信信号に基づいて算出された前記基準物体と前記自車両との間の基準距離とに基づいて演算された、前記対象物体と自車両との距離との何れか一方の距離を、前記受信信号の強度に応じて選択する測距方法。
A distance measuring method for measuring a distance between a target object to be measured and a subject vehicle,
The distance between the target object and the host vehicle calculated based on the received signal for the electromagnetic waves emitted from the host vehicle side,
Relative positional relationship between the target object that is the distance measurement target and the reference object that is the reference for distance measurement calculated based on the information of the captured images around the host vehicle, and reception of electromagnetic waves emitted from the own vehicle side One of the distances between the target object and the host vehicle calculated based on the reference distance between the reference object and the host vehicle calculated based on the signal is calculated based on the received signal. Ranging method selected according to intensity.
JP2008025021A 2008-02-05 2008-02-05 Object detection apparatus and distance measuring method Active JP5145986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008025021A JP5145986B2 (en) 2008-02-05 2008-02-05 Object detection apparatus and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008025021A JP5145986B2 (en) 2008-02-05 2008-02-05 Object detection apparatus and distance measuring method

Publications (2)

Publication Number Publication Date
JP2009186260A true JP2009186260A (en) 2009-08-20
JP5145986B2 JP5145986B2 (en) 2013-02-20

Family

ID=41069659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008025021A Active JP5145986B2 (en) 2008-02-05 2008-02-05 Object detection apparatus and distance measuring method

Country Status (1)

Country Link
JP (1) JP5145986B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011070650A1 (en) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP2012018124A (en) * 2010-07-09 2012-01-26 Fujitsu Ltd Radar device, roadside unit, and on-vehicle device
JP2014021709A (en) * 2012-07-18 2014-02-03 Honda Motor Co Ltd Object position detecting device
WO2014033955A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Speed calculating device and speed calculating method, and collision determination device
WO2014033957A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Collision determination device and collision determination method
JP2014109943A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
JP2014109944A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
US8854461B2 (en) 2011-01-20 2014-10-07 Samsung Techwin Co., Ltd. Method of controlling camera
JP2016057066A (en) * 2014-09-05 2016-04-21 パイオニア株式会社 Identifying device, travel lane identifying method, and travel lane identifying program
JP2019164124A (en) * 2018-01-30 2019-09-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Fusion of front vehicle sensor data for detection and ranging of preceding objects
CN110675393A (en) * 2019-09-29 2020-01-10 上海呈彧智能科技有限公司 Blank specification detection method based on machine vision
JP2020031406A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Determination system and determination method
JP2020030189A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Position measuring system and position measuring method
CN111953934A (en) * 2020-07-03 2020-11-17 北京航空航天大学杭州创新研究院 Target marking method and device
WO2021024562A1 (en) * 2019-08-07 2021-02-11 日立オートモティブシステムズ株式会社 Target detection device
WO2022004260A1 (en) * 2020-07-01 2022-01-06 京セラ株式会社 Electromagnetic wave detection device and ranging device
WO2022254610A1 (en) * 2021-06-02 2022-12-08 三菱電機株式会社 Object detection device and object detection method
CN115516543A (en) * 2020-05-13 2022-12-23 三菱电机株式会社 Object recognition device, route generation device, parking support device, object recognition system, route generation system, and parking support system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102178433B1 (en) * 2014-05-30 2020-11-16 주식회사 만도 Auto emergency braking system and method for recognizing pedestrian of the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121601A (en) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd Device for detecting object, and method therefor
JP2007187618A (en) * 2006-01-16 2007-07-26 Omron Corp Object identifying device
JP2007240314A (en) * 2006-03-08 2007-09-20 Omron Corp Object detector
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2007304033A (en) * 2006-05-15 2007-11-22 Honda Motor Co Ltd Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121601A (en) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd Device for detecting object, and method therefor
JP2007187618A (en) * 2006-01-16 2007-07-26 Omron Corp Object identifying device
JP2007240314A (en) * 2006-03-08 2007-09-20 Omron Corp Object detector
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2007304033A (en) * 2006-05-15 2007-11-22 Honda Motor Co Ltd Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011070650A1 (en) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP4883246B2 (en) * 2009-12-08 2012-02-22 トヨタ自動車株式会社 Object detection apparatus and object detection method
US8610620B2 (en) 2009-12-08 2013-12-17 Toyota Jidosha Kabushiki Kaisha Object detecting apparatus and object detecting method
DE112009005424B4 (en) * 2009-12-08 2015-12-24 Toyota Jidosha Kabushiki Kaisha Object detection device and object detection method
JP2012018124A (en) * 2010-07-09 2012-01-26 Fujitsu Ltd Radar device, roadside unit, and on-vehicle device
US8854461B2 (en) 2011-01-20 2014-10-07 Samsung Techwin Co., Ltd. Method of controlling camera
JP2014021709A (en) * 2012-07-18 2014-02-03 Honda Motor Co Ltd Object position detecting device
WO2014033957A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Collision determination device and collision determination method
US9905013B2 (en) 2012-09-03 2018-02-27 Toyota Jidosha Kabushiki Kaisha Speed calculating device and speed calculating method, and collision determination device
WO2014033955A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Speed calculating device and speed calculating method, and collision determination device
JPWO2014033955A1 (en) * 2012-09-03 2016-08-08 トヨタ自動車株式会社 Speed calculation device, speed calculation method, and collision determination device
CN104620297A (en) * 2012-09-03 2015-05-13 丰田自动车株式会社 Speed calculating device and speed calculating method, and collision determination device
JP5862785B2 (en) * 2012-09-03 2016-02-16 トヨタ自動車株式会社 Collision determination device and collision determination method
CN104620297B (en) * 2012-09-03 2017-03-22 丰田自动车株式会社 Speed calculating device and speed calculating method, and collision determination device
JP2014109944A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
JP2014109943A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
JP2016057066A (en) * 2014-09-05 2016-04-21 パイオニア株式会社 Identifying device, travel lane identifying method, and travel lane identifying program
JP2019164124A (en) * 2018-01-30 2019-09-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Fusion of front vehicle sensor data for detection and ranging of preceding objects
JP7242316B2 (en) 2018-01-30 2023-03-20 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Fusion of forward vehicle sensor data for preceding object detection and ranging
JP2020031406A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Determination system and determination method
JP2020030189A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Position measuring system and position measuring method
JP2021025945A (en) * 2019-08-07 2021-02-22 日立オートモティブシステムズ株式会社 Target detection device
WO2021024562A1 (en) * 2019-08-07 2021-02-11 日立オートモティブシステムズ株式会社 Target detection device
JP7233340B2 (en) 2019-08-07 2023-03-06 日立Astemo株式会社 Target detection device
CN110675393A (en) * 2019-09-29 2020-01-10 上海呈彧智能科技有限公司 Blank specification detection method based on machine vision
CN110675393B (en) * 2019-09-29 2024-03-26 上海呈彧智能科技有限公司 Blank specification detection method based on machine vision
CN115516543A (en) * 2020-05-13 2022-12-23 三菱电机株式会社 Object recognition device, route generation device, parking support device, object recognition system, route generation system, and parking support system
CN115516543B (en) * 2020-05-13 2024-01-02 三菱电机株式会社 Object recognition device, route generation device, parking support device, object recognition system, route generation system, and parking support system
WO2022004260A1 (en) * 2020-07-01 2022-01-06 京セラ株式会社 Electromagnetic wave detection device and ranging device
JP2022012559A (en) * 2020-07-01 2022-01-17 京セラ株式会社 Electromagnetic wave detection device and distance measuring device
JP7402129B2 (en) 2020-07-01 2023-12-20 京セラ株式会社 Electromagnetic wave detection device, ranging device, and electromagnetic wave detection method
CN111953934A (en) * 2020-07-03 2020-11-17 北京航空航天大学杭州创新研究院 Target marking method and device
WO2022254610A1 (en) * 2021-06-02 2022-12-08 三菱電機株式会社 Object detection device and object detection method

Also Published As

Publication number Publication date
JP5145986B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
JP5145986B2 (en) Object detection apparatus and distance measuring method
US9836657B2 (en) System and method for periodic lane marker identification and tracking
EP3229041B1 (en) Object detection using radar and vision defined image detection zone
JP5822255B2 (en) Object identification device and program
JP5407898B2 (en) Object detection apparatus and program
JP4985306B2 (en) Obstacle determination device and method, and vehicle equipped with an obstacle determination device
JP3596339B2 (en) Inter-vehicle distance measurement device
JP6450294B2 (en) Object detection apparatus, object detection method, and program
US20060115113A1 (en) Method for the recognition and tracking of objects
JP2007114831A (en) Object detection device
JP2007255978A (en) Object detection method and object detector
JP2017004176A (en) Road surface marking detection device and road surface marking detection method
JP5369921B2 (en) Object detection apparatus and object detection method
JP2007249257A (en) Apparatus and method for detecting movable element
JP2010020476A (en) Object detection device and object detection method
JP2005156199A (en) Vehicle detection method and vehicle detector
JP3988758B2 (en) Moving body detection device
CN115151836A (en) Method for detecting a moving object in the surroundings of a vehicle and motor vehicle
JP7226565B2 (en) Object recognition method and object recognition device
JP3690260B2 (en) Vehicle distance measurement method
JP5464073B2 (en) Outside environment recognition device, outside environment recognition method
JP5141275B2 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD
JP5141603B2 (en) Moving object detection apparatus and moving object detection method
CN108885262A (en) For capturing the method for at least one object, the device of sensor device, sensor device and with the driver assistance system of at least one sensor device
JPH10312463A (en) Recognizing method for object and its device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R150 Certificate of patent or registration of utility model

Ref document number: 5145986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3