JP6075168B2 - Vehicle object detection device - Google Patents

Vehicle object detection device Download PDF

Info

Publication number
JP6075168B2
JP6075168B2 JP2013081404A JP2013081404A JP6075168B2 JP 6075168 B2 JP6075168 B2 JP 6075168B2 JP 2013081404 A JP2013081404 A JP 2013081404A JP 2013081404 A JP2013081404 A JP 2013081404A JP 6075168 B2 JP6075168 B2 JP 6075168B2
Authority
JP
Japan
Prior art keywords
unit
detection
detection point
distance
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013081404A
Other languages
Japanese (ja)
Other versions
JP2014202709A (en
Inventor
久保田 整
整 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Co Ltd
Original Assignee
Suzuki Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Co Ltd filed Critical Suzuki Motor Co Ltd
Priority to JP2013081404A priority Critical patent/JP6075168B2/en
Publication of JP2014202709A publication Critical patent/JP2014202709A/en
Application granted granted Critical
Publication of JP6075168B2 publication Critical patent/JP6075168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、送信波を自車両の走行方向に向け発射し、その反射波の検出結果を基に自車両の走行方向に存在する物体を検出する技術に関する。   The present invention relates to a technique for emitting a transmission wave in a traveling direction of a host vehicle and detecting an object existing in the traveling direction of the host vehicle based on a detection result of the reflected wave.

車両の走行方向に存在する物体を検出する技術は種々ある(例えば、特許文献1、2参照)。
このような技術の中には、レーザレーダによって得られた自車両の周囲に存在する物体の検出点(又は反射点)をグルーピングして、当該物体を特定するものがある。そして、グルーピングの技術として、ハフ変換処理によって直線を抽出し、検出点が直線に含まれるか否かをしきい値を用いて判定し、同―直線上の検出点群を同一物体としてグルーピングする技術がある。また、グルーピングの技術として、隣接する2点の検出点の距離をしきい値を用いて判定し、これら検出点が同一の物体に属するものか否かを判定するグルーピングの技術がある。
There are various techniques for detecting an object existing in the traveling direction of a vehicle (see, for example, Patent Documents 1 and 2).
Among such techniques, there is a technique for grouping detection points (or reflection points) of objects existing around the host vehicle obtained by laser radar to identify the objects. Then, as a grouping technique, a straight line is extracted by the Hough transform process, and whether or not the detection point is included in the straight line is determined using a threshold value, and the detection point group on the same line is grouped as the same object. There is technology. Further, as a grouping technique, there is a grouping technique in which the distance between two adjacent detection points is determined using a threshold value and it is determined whether or not these detection points belong to the same object.

特開2003−255047号公報JP 2003-255047 A 特開2010−256040号公報JP 2010-256040 A

ところで、ハフ変換処理によって直線を抽出する方法では、検出点全てについてρ−θ空間への投票処理を行うこと、及びハフ変換処理によって特定された直線を基に再度検出点が直線に含まれるか否かを判定することが必要である。そのため、この方法は、計算処理が複雑で、計算コストが増大するという問題を有する。さらに、この方法では、直線の抽出精度がハフ変換処理時のρ−θ空間の分解能に左右される。   By the way, in the method of extracting a straight line by the Hough transform process, whether the detection point is included in the straight line again by performing a voting process to the ρ-θ space for all the detected points and based on the straight line specified by the Hough transform process. It is necessary to determine whether or not. Therefore, this method has a problem that the calculation process is complicated and the calculation cost increases. Furthermore, in this method, the accuracy of straight line extraction depends on the resolution of the ρ-θ space during the Hough transform process.

また、隣接する2点の検出点の距離をしきい値を用いて判定する方法では、自車両から遠くなるほどレーザ光線の密度が低くなる。そのため、自車両に近い物体と遠い物体とを同じしきい値で判定してしまうと、判定精度、すなわちグルーピングの精度が低下するという問題がある。さらに、自車両に対する物体の角度によっても、レーザ光線の密度が変化するため、しきい値を用いた単純な判定では、その精度が低下してしまう問題がある。   In the method of determining the distance between two adjacent detection points using a threshold value, the density of the laser beam decreases as the distance from the host vehicle increases. Therefore, if an object close to the own vehicle and an object far from the own vehicle are determined with the same threshold value, there is a problem that the determination accuracy, that is, the accuracy of grouping is lowered. Furthermore, since the density of the laser beam changes depending on the angle of the object with respect to the host vehicle, there is a problem that the accuracy of the simple determination using the threshold value is lowered.

これらの問題によって、車両検出システムは、路肩に縦列駐車している車両についての情報、例えば、縦列駐車している車両の側面や後端、縦列駐車している車両間の隙間等を高い精度で検出できない。
本発明の目的は、グルーピングの精度の低下を防止しつつより簡単な計算で物体を検出することである。
Due to these problems, the vehicle detection system is highly accurate in information about vehicles parked in parallel on the shoulder, such as the side and rear end of vehicles parked in parallel, and the gaps between vehicles parked in parallel. It cannot be detected.
An object of the present invention is to detect an object with a simpler calculation while preventing a reduction in grouping accuracy.

前記課題を解決するために、本発明の一態様は、送信波を自車両の走行方向に向けかつ水平方向に走査させつつ発射し、発射された送信波の反射波を検出して自車両の走行方向に存在する物体を検出する車両用物体検出装置であって、前記走査によって前記送信波が反射された複数の反射点を、前記送信波を発射した順序に複数の検出点P(h=0,1,2,・・・,N−1,N(Nは整数))に割り当てる検出点群生成部と、前記複数の検出点Pから比較される対象となる検出点Pを決定する被比較検出点決定部と、前記複数の検出点Pから前記検出点Pと比較する検出点P に隣接する連続した検出点P i−1 、P i−2 を決定する比較検出点決定部と、前記送信波の発射点と前記検出点Pとを含む直線と、前記検出点P i−1 と前記検出点P i−2 とを含む直線との交点を特定する交点特定部と、前記交点特定部が特定した交点と前記送信波の発射点との距離を算出する距離算出部と、前記距離算出部が算出した距離と、前記送信波の発射点と前記検出点Pとの距離との差分を算出する距離差算出部と、前記距離差算出部が算出した距離差が予め設定されている距離差判定用しきい値以上であるか否かを判定する距離差判定部と、前記距離差判定部が前記距離差が前記距離差判定用しきい値未満であると判定すると、前記検出点Pを前記検出点P i−1 、P i−2 と同じグループにグルーピングし、前記距離差判定部が前記距離差が前記距離差判定用しきい値以上であると判定すると、前記検出点Pを前記検出点P i−1 、P i−2 とは異なるグループにグルーピングするグルーピング処理部と、前記グルーピング処理部によるグルーピングが終わると、前記値iを大きい値に更新する更新部と、前記グルーピング処理部によってグループ分けされた検出点を基に、自車両の走行方向に存在する物体を検出する物体検出部と、を有することを特徴とする車両用物体検出装置を提供する。 In order to solve the above-described problem, according to one aspect of the present invention, a transmission wave is emitted while being scanned in a horizontal direction in a traveling direction of the host vehicle, and a reflected wave of the transmitted transmission wave is detected to detect the reflected wave of the host vehicle. the vehicle object detection apparatus for detecting an object existing in the traveling direction, a plurality of reflection points which the transmission wave is reflected by the scanning, the transmission plurality of detection points in the firing the order of wave P h (h = 0, 1, 2, and N-1, N (N is an integer)) to assign the detection point group generation unit, a detection point P i of interest to be compared from the plurality of detection points P h comparison to determine the comparand detection point determining unit determining, the continuous detection point adjacent a plurality of detection points P h to the detection point P i to be compared with the detection point P i P i-1, P i-2 a straight line including a detection point determining unit, and the firing point of the transmission wave and the detection point P i, said analyzing Distance calculating the intersection specifying unit configured to specify a point of intersection between the straight line, the distance between the firing point of the transmission wave and intersection the intersection specifying unit has identified containing the point P i-1 and said detection point P i-2 A calculation unit, a distance calculated by the distance calculation unit, a distance difference calculation unit that calculates a difference between a launch point of the transmission wave and a distance between the detection points Pi, and a distance calculated by the distance difference calculation unit A distance difference determination unit that determines whether or not the difference is greater than or equal to a preset distance difference determination threshold, and the distance difference determination unit has the distance difference less than the distance difference determination threshold The detection point P i is grouped into the same group as the detection points P i-1 and P i-2, and the distance difference determination unit has the distance difference equal to or greater than the distance difference determination threshold value. and if it is determined, wherein the detection point P i detection point P i-1, different from P i-2 Based on detection groups grouped by the grouping processing unit, grouping processing unit for grouping into groups, an updating unit for updating the value i to a larger value after the grouping by the grouping processing unit, and the grouping processing unit And an object detection unit that detects an object existing in the traveling direction of the vehicle.

本発明の一態様の他の第1の例では、前記各検出点P 、P i−1 、P i−2 のそれぞれの位置情報を基に、前記検出点Pと前記検出点P i−1 とを含む直線と、前記検出点P i−1 と前記検出点P i−2 とを含む直線とがなす角度を算出する角度算出部と、前記角度算出部が算出した角度が予め設定されている角度判定用しきい値以上であるか否かを判定する角度判定部と、を有し、前記グルーピング処理部は、前記角度判定部が前記角度が前記角度判定用しきい値以上であると判定すると、前記距離差判定部の判定結果によらず、前記検出点Pを前記検出点P i−1 、P i−2 とは異なるグループにグルーピングし、前記角度判定部が前記角度が前記角度判定用しきい値未満であると判定すると、前記距離差判定部の判定結果を基にグルーピングを行うことが好ましい。 In one other first example embodiment of the present invention, the respective detection points P i, P i-1, P i-2 of the respective position information based, the detection point P i and the detection point P i -1 and an angle calculation unit that calculates an angle formed by a straight line including the detection point P i-1 and the detection point P i-2, and an angle calculated by the angle calculation unit is set in advance. An angle determination unit that determines whether or not the angle determination threshold value is greater than or equal to the angle determination threshold value, and the grouping processing unit is configured such that the angle determination unit has the angle equal to or greater than the angle determination threshold value. When it is determined that there is, the detection point P i is grouped into a group different from the detection points P i-1 and P i-2 regardless of the determination result of the distance difference determination unit, and the angle determination unit Is determined to be less than the angle determination threshold, the determination result of the distance difference determination unit is It is preferable to perform grouping based on the results.

本発明の一態様によれば、車両用物体検出装置は、距離差と距離判定用しきい値との関係から各検出点P i−1 、P i−2 が同一直線上の検出点群であるか否かを判定することでグルーピングを行っており、簡単な計算でグルーピングを行うことができる。 According to one aspect of the present invention, the vehicle object detection device detects each detection point P i , P i-1 , P i-2 on the same straight line from the relationship between the distance difference and the distance determination threshold value. Grouping is performed by determining whether or not it is a point cloud, and grouping can be performed by simple calculation.

また、本発明の一態様によれば、距離差と距離判定用しきい値との関係から検出点をグルーピングすることによって、物体までの距離や物体の向きによって分解能が変化することに起因するグルーピング精度の低下を防止できる。   Further, according to one aspect of the present invention, grouping the detection points based on the relationship between the distance difference and the distance determination threshold causes the resolution to change depending on the distance to the object and the direction of the object. Decrease in accuracy can be prevented.

また、本発明の一態様の他の第1の例によれば、車両用物体検出装置は、同一直線上の検出点群であるか否かの判定を行う検出点の数を抑えることができる。これによって、車両用物体検出装置は、グルーピングの計算時間を短縮できる。   According to another first example of one aspect of the present invention, the vehicle object detection device can suppress the number of detection points for determining whether or not the detection point group is on the same straight line. . As a result, the vehicle object detection device can shorten the grouping calculation time.

図1は、本実施形態に係る運転支援装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of the driving support apparatus according to the present embodiment. 図2は、物体を検出する際のレーザレーダの動作例を示す図である。FIG. 2 is a diagram illustrating an operation example of the laser radar when detecting an object. 図3は、運転支援装置の処理例を示すフローチャートである。FIG. 3 is a flowchart illustrating a processing example of the driving support device. 図4は、物体検出部の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of the object detection unit. 図5は、レーザレーダによって検出される検出点Pi−2、Pi−1、Pの一例を示す図である。FIG. 5 is a diagram illustrating an example of detection points P i−2 , P i−1 , and P i detected by the laser radar. 図6は、グルーピング部の処理内容の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing contents of the grouping unit. 図7は、自車両の走行方向に存在する他の車両の側面の反射点に割り当てられている検出点P(h=0〜77)の一例を示す図である。FIG. 7 is a diagram illustrating an example of detection points P h (h = 0 to 77) assigned to reflection points on the side surfaces of other vehicles existing in the traveling direction of the host vehicle. 図8は、図7に示すような検出点P(h=0〜77)が得られている場合の距離L、L、距離差△L、及びグループ番号jの一例を示す図である。FIG. 8 is a diagram illustrating an example of the distances L i and L q , the distance difference ΔL, and the group number j when the detection points P h (h = 0 to 77) as illustrated in FIG. 7 are obtained. is there. 図9は、運転支援制御部が検出した物体である複数の停車車両、及び運転支援制御部が決定した複数の要注意領域の一例を示す図である。FIG. 9 is a diagram illustrating an example of a plurality of stopped vehicles that are objects detected by the driving support control unit and a plurality of areas requiring attention determined by the driving support control unit.

本発明の実施形態を図面を参照しつつ説明する。
本実施形態では、運転支援装置を挙げている。運転支援装置は、自車両の走行方向に存在する物体を検出し、その検出結果を基に自車両の運転支援を行う
(構成)
図1には、運転支援装置1の構成例を示す。
Embodiments of the present invention will be described with reference to the drawings.
In the present embodiment, a driving support device is cited. The driving support device detects an object existing in the traveling direction of the host vehicle, and performs driving support of the host vehicle based on the detection result (configuration).
In FIG. 1, the structural example of the driving assistance apparatus 1 is shown.

図1に示すように、運転支援装置1は、レーザレーダ2、車速センサ3、舵角センサ4、ヨーレイトセンサ5、運転支援制御部10、制動装置6、及び表示部7を有している。
図2には、物体を検出する際のレーザレーダ2の動作例を示す。
図2に示すように、レーザレーダ2は、レーザ光線2aを自車両の走行方向(例えば自車両前方)に照射するとともに水平方向(車両幅方向)に走査し、自車両の走行方向に存在する物体100からの反射波を検出する。これによって、レーザレーダ2は、物体100における反射点と自車両との距離及びその反射点の検出角度(例えば、レーザレーダ2の光源の光軸に対する反射点の角度)を取得する。そして、レーザレーダ2は、その取得した各種の情報(以下、距離情報という。)を運転支援制御部10に出力する。
As shown in FIG. 1, the driving support device 1 includes a laser radar 2, a vehicle speed sensor 3, a rudder angle sensor 4, a yaw rate sensor 5, a driving support control unit 10, a braking device 6, and a display unit 7.
FIG. 2 shows an operation example of the laser radar 2 when detecting an object.
As shown in FIG. 2, the laser radar 2 emits a laser beam 2a in the traveling direction of the host vehicle (for example, in front of the host vehicle) and scans in the horizontal direction (vehicle width direction) and exists in the traveling direction of the host vehicle. A reflected wave from the object 100 is detected. Thereby, the laser radar 2 acquires the distance between the reflection point on the object 100 and the own vehicle and the detection angle of the reflection point (for example, the angle of the reflection point with respect to the optical axis of the light source of the laser radar 2). Then, the laser radar 2 outputs the acquired various information (hereinafter referred to as distance information) to the driving support control unit 10.

また、車速センサ3は、自車両の車速を検出する。そして、車速センサ3は、検出値を運転支援制御部10に出力する。また、舵角センサ4は、ステアリングホイールの舵角を検出する。そして、舵角センサ4は、検出値を運転支援制御部10に出力する。また、ヨーレイトセンサ5は、自車両のヨーレイトを検出する。そして、ヨーレイトセンサ5は、検出値を運転支援制御部10に出力する。   The vehicle speed sensor 3 detects the vehicle speed of the host vehicle. Then, the vehicle speed sensor 3 outputs the detected value to the driving support control unit 10. The steering angle sensor 4 detects the steering angle of the steering wheel. Then, the steering angle sensor 4 outputs the detected value to the driving support control unit 10. The yaw rate sensor 5 detects the yaw rate of the host vehicle. Then, the yaw rate sensor 5 outputs the detected value to the driving support control unit 10.

運転支援制御部10は、例えば、マイクロコンピュータ及びその周辺回路を備えるECU(Electronic Control Unit)において構成されている。そのために、例えば、運転支援制御部10は、CPU、ROM、RAM等によって構成されている。ROMには、1又は2以上のプログラムが格納されている。CPUは、ROMに格納されている1又は2以上のプログラムに従って各種処理を実行する。   The driving support control unit 10 is configured in, for example, an ECU (Electronic Control Unit) including a microcomputer and its peripheral circuits. Therefore, for example, the driving support control unit 10 is configured by a CPU, a ROM, a RAM, and the like. The ROM stores one or more programs. The CPU executes various processes according to one or more programs stored in the ROM.

本実施形態では、運転支援制御部10は、自車両移動量算出部11、物体検出部20、要注意領域判定部12、優先順位設定部13、障害物判定部14、接触可能性判定部15、制動制御部16、及び表示処理部17を有している。
ここで、自車両移動量算出部11には、車速センサ3、舵角センサ4、及びヨーレイトセンサ5からの検出値(車両情報)が入力される。この自車両移動量算出部11は、これら検出値等から自車両の移動量を算出する。そして、自車両移動量算出部11は、算出値を要注意領域判定部12及び物体検出部20に出力する。
In the present embodiment, the driving support control unit 10 includes the own vehicle movement amount calculation unit 11, the object detection unit 20, a caution area determination unit 12, a priority order setting unit 13, an obstacle determination unit 14, and a contact possibility determination unit 15. The brake control unit 16 and the display processing unit 17 are provided.
Here, detection values (vehicle information) from the vehicle speed sensor 3, the rudder angle sensor 4, and the yaw rate sensor 5 are input to the own vehicle movement amount calculation unit 11. The own vehicle movement amount calculation unit 11 calculates the movement amount of the own vehicle from these detection values and the like. Then, the own vehicle movement amount calculation unit 11 outputs the calculated value to the attention area determination unit 12 and the object detection unit 20.

物体検出部20には、自車両移動量算出部11からの自車両の移動量の他に、レーザレーダ2からの距離情報が入力される。この物体検出部20は、レーザレーダ2からの距離情報及び自車両の移動量を基に、自車両の前方に存在する物体を検出(特定)する。具体的には、物体検出部20は、レーザレーダ2からの距離情報を自車両の移動量で補正し、その補正した距離情報を基に自車両の走行方向に存在する物体を検出する。例えば、物体検出部20は、レーザレーダ2からの距離情報に含まれる距離の値から自車両の移動量をキャンセルし、移動量がキャンセルされた距離の値を用いて自車両の走行方向に存在する物体を検出する。ここで、物体は、例えば、車両や人である。そして、物体検出部20は、検出した物体情報を要注意領域判定部12及び障害物判定部14に出力する。この物体検出部20の構成及びその処理内容については後で詳述する。   In addition to the movement amount of the host vehicle from the host vehicle movement amount calculation unit 11, distance information from the laser radar 2 is input to the object detection unit 20. The object detection unit 20 detects (identifies) an object that exists in front of the host vehicle based on the distance information from the laser radar 2 and the amount of movement of the host vehicle. Specifically, the object detection unit 20 corrects the distance information from the laser radar 2 with the movement amount of the host vehicle, and detects an object present in the traveling direction of the host vehicle based on the corrected distance information. For example, the object detection unit 20 cancels the movement amount of the host vehicle from the distance value included in the distance information from the laser radar 2, and exists in the traveling direction of the host vehicle using the distance value at which the movement amount is canceled. The object to be detected is detected. Here, the object is, for example, a vehicle or a person. Then, the object detection unit 20 outputs the detected object information to the attention area determination unit 12 and the obstacle determination unit 14. The configuration of the object detection unit 20 and the processing content will be described in detail later.

要注意領域判定部12は、物体検出部20からの物体情報を基に、各物体の死角となる領域(以下、死角領域という。)を特定する。そして、要注意領域判定部12は、特定した各死角領域について歩行者や自転車等の障害物が自車両の前に飛び出してくる可能性を判定する。これによって、要注意領域判定部12は、各死角領域から歩行者や自転車等の障害物が自車両の走行方向(例えば、自車両の前方)に飛び出してくる可能性がある(可能性が高い)と判定すると、その飛び出してくる可能性がある死角領域を要注意領域と決定する。そして、要注意領域判定部12は、決定した要注意領域の情報を優先順位設定部13に出力する。   The caution area determination unit 12 identifies an area (hereinafter referred to as a blind spot area) that is a blind spot of each object based on the object information from the object detection unit 20. Then, the attention area determination unit 12 determines the possibility that an obstacle such as a pedestrian or a bicycle jumps out in front of the vehicle for each identified blind spot area. As a result, the caution area determination unit 12 may cause an obstacle such as a pedestrian or a bicycle to jump out of each blind spot area in the traveling direction of the host vehicle (for example, in front of the host vehicle) (highly likely). ), The blind spot area that may pop out is determined as the area requiring attention. Then, the attention area determination unit 12 outputs information on the determined attention area to the priority order setting unit 13.

優先順位設定部13は、要注意領域判定部12が決定した要注意領域が複数存在する場合に各要注意領域での接触可能性の度合いを算出する。そして、優先順位設定部13は、算出した接触可能性の度合いに応じて優先順位を設定する。具体的には、優先順位設定部13は、接触可能性の度合いが高いほど優先順位を高く設定する。優先順位設定部13は、設定した優先順位の情報を障害物判定部14及び表示処理部17に出力する。   The priority setting unit 13 calculates the degree of possibility of contact in each caution area when there are a plurality of caution areas determined by the caution area determination unit 12. And the priority order setting part 13 sets a priority order according to the calculated degree of contact possibility. Specifically, the priority order setting unit 13 sets the priority order higher as the degree of contact possibility increases. The priority order setting unit 13 outputs information on the set priority order to the obstacle determination unit 14 and the display processing unit 17.

障害物判定部14は、物体検出部20からの物体情報及び優先順位設定部13からの優先順位情報を基に、物体検出部20が検出した物体が障害物となり得るか否かを判定する。具体的には、障害物判定部14は、物体検出部20が検出した物体のうち、自車両の進路に進入する可能性が高い物体を障害物になると判定する。このとき、障害物判定部14は、優先順位情報を基に、障害物となり得るか否かを判定する。例えば、障害物判定部14は、優先順位が高い要注意領域では障害物を判定する際の検出点のグルーピングに用いるしきい値を小さくする。後述するように、しきい値は、角度判定用しきい値βthや距離判定用しきい値Lthである。しきい値を小さくすることで、物体を障害物として多く特定することができ、死角から飛び出してくる障害物を早い段階で検出できるようになる。そして、障害物判定部14は、障害物の判定結果を接触可能性判定部15に出力する。 The obstacle determination unit 14 determines whether the object detected by the object detection unit 20 can be an obstacle based on the object information from the object detection unit 20 and the priority order information from the priority order setting unit 13. Specifically, the obstacle determination unit 14 determines that an object that is likely to enter the path of the host vehicle among the objects detected by the object detection unit 20 is an obstacle. At this time, the obstacle determination unit 14 determines whether or not the obstacle can be an obstacle based on the priority order information. For example, the obstacle determination unit 14 decreases the threshold value used for grouping detection points when determining an obstacle in a high-priority attention area. As will be described later, the threshold values are an angle determination threshold value β th and a distance determination threshold value L th . By reducing the threshold value, many objects can be identified as obstacles, and obstacles popping out from the blind spot can be detected at an early stage. The obstacle determination unit 14 outputs the determination result of the obstacle to the contact possibility determination unit 15.

接触可能性判定部15は、障害物判定部14が判定した障害物が自車両に接触する可能性を判定する。接触可能性判定部15は、障害物が自車両に接触する可能性が高いと判定すると、例えば、その可能性の度合いが予め設定されているしきい値よりも大きいと判定すると、制動制御部16に制動指令を出力し、表示処理部17に表示指令を出力する。   The contact possibility determination unit 15 determines the possibility that the obstacle determined by the obstacle determination unit 14 contacts the host vehicle. If the contact possibility determination unit 15 determines that there is a high possibility that an obstacle will contact the host vehicle, for example, if the contact possibility determination unit 15 determines that the degree of possibility is greater than a preset threshold value, the braking control unit A braking command is output to 16 and a display command is output to the display processing unit 17.

制動制御部16は、接触可能性判定部15からの制動指令が入力されると、制動装置6を駆動する。これによって、自車両は、障害物との接触を回避でき、又は障害物との接触の被害を軽減できる。
表示処理部17は、接触可能性判定部15からの表示指令が入力されると、表示部7に自車両が障害物に接触する可能性が高いことを表示させる。また、このとき、表示部7は、当該表示部7が有する音声出力部から警報音を出力させても良い。また、表示処理部17は、優先順位設定部13からの優先順位情報を基に、要注意領域とともにその優先順位を表示部7に表示させても良い。
When the braking command from the contact possibility determination unit 15 is input, the braking control unit 16 drives the braking device 6. Thereby, the own vehicle can avoid contact with an obstacle, or can reduce the damage of contact with an obstacle.
When the display command from the contact possibility determination unit 15 is input, the display processing unit 17 causes the display unit 7 to display that the possibility that the vehicle is in contact with an obstacle is high. At this time, the display unit 7 may output an alarm sound from an audio output unit included in the display unit 7. The display processing unit 17 may display the priority order on the display unit 7 together with the area requiring attention based on the priority order information from the priority order setting unit 13.

図3には、図1に示す運転支援装置1の処理例のフローチャートを示す。
図3に示すように、先ずステップS1では、物体検出部20は、レーザレーダ2のレーザ光線を水平方向で走査させ、自車両の走行方向に存在する物体からの反射波を検出する。これによって、レーザレーダ2は、反射点となる検出点と自車両との距離及びその反射点の検出角度を取得する(距離情報を取得する)。この取得処理を実現する物体検出部20の構成及び処理内容については後で詳述する。
FIG. 3 shows a flowchart of a processing example of the driving support device 1 shown in FIG.
As shown in FIG. 3, first in step S1, the object detection unit 20 scans the laser beam of the laser radar 2 in the horizontal direction, and detects a reflected wave from an object existing in the traveling direction of the host vehicle. As a result, the laser radar 2 acquires the distance between the detection point serving as the reflection point and the host vehicle and the detection angle of the reflection point (acquires distance information). The configuration and processing contents of the object detection unit 20 that realizes this acquisition processing will be described in detail later.

次に、ステップS2では、自車両移動量算出部11は、車速センサ3、舵角センサ4、及びヨーレイトセンサ5等からの車両情報を取得する。
次に、ステップS3では、自車両移動量算出部11は、前記ステップS2で取得された車両情報を基に、自車両の移動量を算出する。
Next, in step S2, the own vehicle movement amount calculation unit 11 acquires vehicle information from the vehicle speed sensor 3, the steering angle sensor 4, the yaw rate sensor 5, and the like.
Next, in step S3, the own vehicle movement amount calculation unit 11 calculates the movement amount of the own vehicle based on the vehicle information acquired in step S2.

次に、ステップS4では、物体検出部20は、前記ステップS1で取得された検出点についての距離情報を前記ステップS3で算出した自車両の移動量を基に補正する。
次に、ステップS5では、物体検出部20は、前記ステップS4で距離情報が補正された検出点群をグルーピングする。このグルーピングを実現する物体検出部20の構成及び処理内容については後で詳述する。
Next, in step S4, the object detection unit 20 corrects the distance information about the detection point acquired in step S1 based on the movement amount of the host vehicle calculated in step S3.
Next, in step S5, the object detection unit 20 groups the detection point group whose distance information has been corrected in step S4. The configuration and processing contents of the object detection unit 20 that realizes this grouping will be described in detail later.

次に、ステップS6では、物体検出部20は、自車両の走行方向に存在する物体(車両等)を検出(特定)する。さらに、物体検出部20は、自車両の走行方向に存在する物体と物体との隙間を検出する。このとき、物体検出部20は、過去の情報を基に、自車両の走行方向に存在する物体が静止物体か移動物体かを判定しても良い。   Next, in step S6, the object detection unit 20 detects (identifies) an object (such as a vehicle) that exists in the traveling direction of the host vehicle. Furthermore, the object detection part 20 detects the clearance gap between the object which exists in the traveling direction of the own vehicle. At this time, the object detection unit 20 may determine whether an object existing in the traveling direction of the host vehicle is a stationary object or a moving object based on past information.

次に、ステップS7では、要注意領域判定部12は、前記ステップS6で検出された物体情報(物体の検出情報及び物体間の隙間情報)を基に、各物体の死角領域を特定する。
次に、ステップS8では、要注意領域判定部12は、前記ステップS7で特定された各死角領域のうち歩行者や自転車等の障害物が自車両の走行方向に飛び出してくる可能性がある(可能性が高い)死角領域を要注意領域と決定する。
Next, in step S7, the caution area determination unit 12 specifies the blind spot area of each object based on the object information (object detection information and gap information between objects) detected in step S6.
Next, in step S8, the caution area determination unit 12 may cause an obstacle such as a pedestrian or a bicycle to jump out in the traveling direction of the host vehicle in each blind spot area specified in step S7 ( The blind spot area (which is highly likely) is determined as the area requiring attention.

次に、ステップS9では、優先順位設定部13は、前記ステップS8で決定された要注意領域の優先順位を設定する。
次に、ステップS10では、障害物判定部14は、前記ステップS6で検出された物体情報及び前記ステップS9で設定された要注意領域の優先順位を基に、前記ステップS6で検出された物体が障害物となり得るか否かを判定する。
Next, in step S9, the priority order setting unit 13 sets the priority order of the areas requiring attention determined in step S8.
Next, in step S10, the obstacle determination unit 14 determines whether the object detected in step S6 is based on the object information detected in step S6 and the priority order of the attention area set in step S9. Determine whether it can be an obstacle.

次に、ステップS11では、接触可能性判定部15は、前記ステップS10で障害物と判定された物体が自車両に接触する可能性が高いと判定すると、制動制御部16に制動指令を出力して、制動装置6を駆動する。
次に、ステップS11では、接触可能性判定部15は、前記ステップS10で障害物と判定された物体が自車両に接触する可能性が高いと判定すると、表示処理部17に表示指令を出力して、表示部7に自車両が障害物に接触する可能性が高いことを表示させる。
図3に示す処理は以上のような内容になる。
Next, in step S11, when the contact possibility determination unit 15 determines that there is a high possibility that the object determined as an obstacle in step S10 is in contact with the host vehicle, the contact possibility determination unit 15 outputs a braking command to the braking control unit 16. Then, the braking device 6 is driven.
Next, in step S11, when the contact possibility determination unit 15 determines that there is a high possibility that the object determined to be an obstacle in step S10 is in contact with the host vehicle, it outputs a display command to the display processing unit 17. Then, the display unit 7 displays that the possibility that the host vehicle is in contact with the obstacle is high.
The processing shown in FIG. 3 is as described above.

次に、物体検出部20の構成及びその処理内容の具体例について説明する。
図4には、物体検出部20の構成例を示す。
図4に示すように、物体検出部20は、情報取得部21及びグルーピング部30を有している。ここで、情報取得部21は、前記ステップS1の処理を実現する。すなわち、情報取得部21は、レーザレーダ2のレーザ光線を水平方向に走査させ、自車両の走行方向に存在する物体からの反射波を検出する。これによって、情報取得部21は、検出点(反射点)と自車両との距離及びその反射点の検出角度を取得する(距離情報を取得する)。また、グルーピング部30は、前記ステップS5の処理を実現する。すなわち、グルーピング部30は、複数の検出点をグルーピングして物体を検出(特定)する。
Next, a configuration of the object detection unit 20 and a specific example of the processing contents will be described.
FIG. 4 shows a configuration example of the object detection unit 20.
As illustrated in FIG. 4, the object detection unit 20 includes an information acquisition unit 21 and a grouping unit 30. Here, the information acquisition part 21 implement | achieves the process of said step S1. That is, the information acquisition unit 21 scans the laser beam of the laser radar 2 in the horizontal direction and detects a reflected wave from an object existing in the traveling direction of the host vehicle. Thereby, the information acquisition unit 21 acquires the distance between the detection point (reflection point) and the host vehicle and the detection angle of the reflection point (acquires distance information). In addition, the grouping unit 30 realizes the process of step S5. That is, the grouping unit 30 detects (identifies) an object by grouping a plurality of detection points.

ここで、グルーピング部30が行うグルーピングによる物体の検出の原理について先ず説明する。
図5には、レーザレーダ2によって検出される検出点Pi−2、Pi−1、Pを示す。
ここで、前提として、物体検出部20は、レーザレーダ2がレーザ光線を水平方向に走査させ当該レーザ光線が反射された複数の反射点(又は検出点、計測点)を、レーザ光線の走査順に検出点P(h=0,1,2,・・・,N−2,N−1,N(Nは整数))に割り当てている。例えば、この割り当て処理は、物体検出部20によって前記ステップS1の処理内で行われる。
Here, the principle of object detection by grouping performed by the grouping unit 30 will be described first.
FIG. 5 shows detection points P i−2 , P i−1 and P i detected by the laser radar 2.
Here, as a premise, the object detection unit 20 is configured so that the laser radar 2 scans a laser beam in the horizontal direction and reflects a plurality of reflection points (or detection points, measurement points) in the scanning order of the laser beam. It is assigned to detection points P h (h = 0, 1, 2,..., N−2, N−1, N (N is an integer)). For example, this assignment process is performed by the object detection unit 20 within the process of step S1.

図5に示す検出点Pi−2、Pi−1、Pは、そのような複数の検出点P(h=0〜N)のうちの任意の3つの隣接した検出点である
このような場合において、グルーピング部30は、検出点(以下、比較検出点という。)P、及び比較検出点Pに隣接する連続した2つの検出点Pi−1、Pi−2を決定する。以下、比較検出点Pに近い側の検出点Pi−1を第1隣接検出点といい、また、比較検出点Pから遠い側の検出点Pi−2を第2隣接検出点という。
Detection points P i−2 , P i−1 , and P i shown in FIG. 5 are arbitrary three adjacent detection points among such a plurality of detection points P h (h = 0 to N) .
In such a case, the grouping unit 30 uses a detection point (hereinafter referred to as a comparative detection point) P i and two consecutive detection points P i-1 and P i-2 adjacent to the comparative detection point P i. decide. Hereinafter, the detection point P i-1 closer to the comparison detection point P i is referred to as a first adjacent detection point, and the detection point P i-2 farther from the comparison detection point P i is referred to as a second adjacent detection point. .

そして、グルーピング部30は、2つの隣接検出点Pi−1、Pi−2を結ぶ直線の延長線(2つの隣接検出点Pi−1、Pi−2を含む直線)と、比較検出点Pを検出したレーザレーダ2のレーザ光線の光軸(又は軌跡)との交点Qを特定する。
そして、グルーピング部30は、特定した交点Qと自車両(具体的には、レーザレーダ2のレーザ光線の発射点)との距離Lと、比較検出点Pと自車両(具体的には、レーザレーダ2のレーザ光線の発射点)との距離Lとの距離差△L(=|L−L|)を算出する。
Then, the grouping unit 30 compares the two adjacent detection points P i-1 and P i-2 with an extended line (a straight line including the two adjacent detection points P i-1 and P i-2 ) and comparative detection. identifying an intersection Q between the optical axis (or loci) of the laser beam of the laser radar 2 detects a point P i.
The grouping unit 30 then determines the distance Lq between the identified intersection Q and the own vehicle (specifically, the laser beam launch point of the laser radar 2), the comparison detection point Pi, and the own vehicle (specifically, The distance difference ΔL (= | L q −L i |) from the distance L i to the laser beam launch point of the laser radar 2 is calculated.

ここで、距離Lは、例えば、下記(1)式を用いて算出される。
=Li−2・Li−1/(2・Li−2・cosα−Li−1) ・・・(1)
ここで、Li−1は、第1隣接検出点Pi−1と自車両との距離である。また、Li−2は、第2隣接検出点Pi−2と自車両との距離である。また、各検出点P(h=0〜N)を検出するレーザ光線間の角度が一定であれば、αは、そのようなレーザ光線間の角度になる。
Here, the distance Lq is calculated using, for example, the following equation (1).
L q = L i-2 · L i-1 / (2 · L i-2 · cosα-L i-1) ··· (1)
Here, L i-1 is the distance between the first adjacent detection point P i-1 and the host vehicle. L i-2 is the distance between the second adjacent detection point P i-2 and the host vehicle. Further, if the angle between the laser beams for detecting each detection point P h (h = 0 to N) is constant, α is an angle between such laser beams.

そして、グルーピング部30は、距離差△Lと距離差判定用しきい値Lthとを比較する。例えば、距離差判定用しきい値Lthは、実験的、経験的、又は理論的に予め設定されている値である。グルーピング部30は、距離差△Lが距離差判定用しきい値Lth未満であると判定すると、比較検出点Pが、各隣接検出点Pi−1、Pi−2と同一直線上に位置しているとして、これら検出点Pi−2、Pi−1、Pを同一グループにグルーピングする。すなわち、グルーピング部30は、検出点群Pi−2、Pi−1、Pを、同一の物体に属する検出点群とする。また、グルーピング部30は、距離差△Lが距離差判定用しきい値Lth以上であると判定すると、比較検出点Pが、各隣接検出点Pi−2、Pi−1と同一直線上に位置していないとして、比較検出点Pを、隣接検出点Pi−1、Pi−2と異なるグループにグルーピングする。すなわち、グルーピング部30は、比較検出点Pを、各隣接検出点Pi−2、Pi−1が属する物体とは異なる物体に属する検出点とする。 Then, the grouping unit 30 compares the distance difference △ L a distance difference determining threshold value L th. For example, the distance difference determination threshold L th is a value set in advance experimentally, empirically, or theoretically. When the grouping unit 30 determines that the distance difference ΔL is less than the distance difference determination threshold L th , the comparison detection point P i is collinear with the adjacent detection points P i-1 and P i-2. These detection points P i-2 , P i-1 , P i are grouped into the same group. That is, the grouping unit 30 sets the detection point groups P i−2 , P i−1 and P i as detection point groups belonging to the same object. When the grouping unit 30 determines that the distance difference ΔL is equal to or greater than the distance difference determination threshold L th , the comparison detection point P i is the same as the adjacent detection points P i-2 and P i-1. The comparison detection points P i are grouped into groups different from the adjacent detection points P i-1 and P i-2 on the assumption that they are not on a straight line. That is, the grouping unit 30 sets the comparison detection point P i as a detection point belonging to an object different from the object to which the adjacent detection points P i−2 and P i−1 belong.

また、グルーピング部30は、2つの隣接検出点Pi−1、Pi−2を結ぶ直線と、第1隣接検出点Pi−1と比較検出点Pとを結ぶ直線とがなす角度βを基にグルーピングも行う。
ここで、角度βは、例えば、下記(2)式を用いて算出される。
cosβ=((x−xi−1)(xi−1−xi−2)+(y−yi−1)(yi−1−yi−2))/(√((x−xi−1+(y−yi−1)・√((xi−1−xi−2+(yi−1−yi−2))) ・・・(2)
In addition, the grouping unit 30 forms an angle β formed by a straight line connecting the two adjacent detection points P i-1 and P i-2 and a straight line connecting the first adjacent detection point P i-1 and the comparison detection point P i. Grouping is also performed based on this.
Here, the angle β is calculated using, for example, the following equation (2).
cos β = ((x i −x i−1 ) (x i−1 −x i−2 ) + (y i −y i−1 ) (y i−1 −y i−2 )) / (√ (( x i -x i-1 ) 2 + (y i -y i-1 ) 2 ) · √ ((x i-1 -x i-2 ) 2 + (y i-1 -y i-2 ) 2 ) )) (2)

ここで、Pの座標を(x,y)とし、Pi−1の座標を(xi−1,yi−1)とし、Pi−2の座標を(xi−2,yi−2)とする。この場合、ベクトルPi−1の成分は(x−xi−1,y−yi−1)となり、ベクトルPi−1i−2の成分は(xi−1−xi−2,yi−1−yi−2)となり、これら二つのベクトルのなす角βが、ベクトルの余弦定理によって前記(2)式で表されるようになる。 Here, the coordinates of P i are (x i , y i ), the coordinates of P i-1 are (x i-1 , y i-1 ), and the coordinates of P i-2 are (x i-2 , y i-2 ). In this case, the components of the vector P i P i-1 are (x i −x i−1 , y i −y i−1 ), and the components of the vector P i−1 P i−2 are (x i−1 − x i−2 , y i−1 −y i− 2 ), and the angle β formed by these two vectors is expressed by the above equation (2) by the cosine theorem of the vectors.

グルーピング部30は、このような(2)式によって算出される角度βと角度判定用しきい値βthとを比較する。例えば、角度判定用しきい値βthは、実験的、経験的、又は理論的に予め設定されている値である。グルーピング部30は、角度βが角度判定用しきい値βth未満であると判定すると、比較検出点Pが、隣接検出点Pi−1、Pi−2と同一直線上に位置しているとして、これら検出点Pi−2、Pi−1、Pを同一グループにグルーピングする。すなわち、グルーピング部30は、検出点群Pi−2、Pi−1、Pを、同一の物体に属する検出点群とする。また、グルーピング部30は、角度βが角度判定用しきい値βth以上であると判定すると、比較検出点Pが、隣接検出点Pi−1、Pi−2と同一直線上に位置していないとして、比較検出点Pを、隣接検出点Pi−1、Pi−2と異なるグループにグルーピングする。すなわち、グルーピング部30は、比較検出点Pを、隣接検出点Pi−1、Pi−2が属する物体とは異なる物体に属する検出点とする。
以上がグルーピングによる物体の検出の原理である。
The grouping unit 30 compares the angle β calculated by the equation (2) with the angle determination threshold value βth . For example, the angle determination threshold value β th is a value that is experimentally, empirically, or theoretically set in advance. When the grouping unit 30 determines that the angle β is less than the angle determination threshold β th , the comparison detection point P i is positioned on the same straight line as the adjacent detection points P i-1 and P i-2. The detection points P i-2 , P i-1 , P i are grouped into the same group. That is, the grouping unit 30 sets the detection point groups P i−2 , P i−1 and P i as detection point groups belonging to the same object. When the grouping unit 30 determines that the angle β is equal to or greater than the angle determination threshold value β th , the comparison detection point P i is positioned on the same straight line as the adjacent detection points P i-1 and P i-2. If not, the comparison detection point P i is grouped into a group different from the adjacent detection points P i-1 and P i-2 . That is, the grouping unit 30 sets the comparison detection point P i as a detection point belonging to an object different from the object to which the adjacent detection points P i-1 and P i-2 belong.
The above is the principle of object detection by grouping.

以上のようなグルーピングによる物体の検出を実現するために、図4に示すように、グルーピング部30は、検出点管理部31、角度算出部32、角度判定部33、距離算出部34、距離差算出部35、距離差判定部36、及びグルーピング処理部37を有している。
ここで、図6には、グルーピング部30の処理内容の一例のフローチャートを示す。以下に、図6に示す処理手順に沿って、図4に示すグルーピング部30の各部の処理内容を具体的に説明する。
In order to realize the object detection by the grouping as described above, as shown in FIG. 4, the grouping unit 30 includes a detection point management unit 31, an angle calculation unit 32, an angle determination unit 33, a distance calculation unit 34, a distance difference. A calculation unit 35, a distance difference determination unit 36, and a grouping processing unit 37 are included.
Here, FIG. 6 shows a flowchart of an example of processing contents of the grouping unit 30. In the following, the processing content of each part of the grouping unit 30 shown in FIG. 4 will be specifically described along the processing procedure shown in FIG.

先ず、ステップS31では、検出点管理部31は、検出点番号iを初期化してi=2にする。
次に、ステップS32では、検出点管理部31は、グループ番号jを初期化してj=0にする。
First, in step S31, the detection point management unit 31 initializes the detection point number i to i = 2.
Next, in step S32, the detection point management unit 31 initializes the group number j so that j = 0.

次に、ステップS33では、検出点管理部31は、検出点Pを比較検出点に決定(設定)する。
次に、ステップS34では、検出点管理部31は、2つの検出点Pi−1、Pi−2を第1及び第2隣接検出点それぞれに決定(設定)する。
Next, in step S33, the detection point management unit 31 determines (sets) the detection point P i as a comparison detection point.
Next, in step S34, the detection point management unit 31 determines (sets) the two detection points P i-1 and P i-2 as the first and second adjacent detection points, respectively.

次に、ステップS35では、角度算出部32は、角度βを算出する。具体的には、角度算出部32は、2つの隣接検出点Pi−1、Pi−2を結ぶ直線と、第1隣接検出点Pi−1と比較検出点Pとを結ぶ直線とがなす角度βを算出する。
次に、ステップS36では、角度判定部33は、前記ステップS35で算出した角度βが角度判定用しきい値βth以上であるか否かを判定する。そして、角度判定部33は、角度βが角度判定用しきい値βth以上であると判定すると、ステップS42に進む。また、角度判定部33は、角度βが角度判定用しきい値βth未満であると判定すると、ステップS37に進む。
Next, in step S35, the angle calculation unit 32 calculates the angle β. Specifically, the angle calculation unit 32 includes a straight line connecting the two adjacent detection points P i-1 and P i-2 , and a straight line connecting the first adjacent detection point P i-1 and the comparison detection point P i. Is calculated.
Next, in step S36, the angle determination unit 33 determines whether or not the angle β calculated in step S35 is equal to or greater than the angle determination threshold value βth . If the angle determination unit 33 determines that the angle β is equal to or greater than the angle determination threshold value β th , the process proceeds to step S42. If the angle determination unit 33 determines that the angle β is less than the angle determination threshold β th , the process proceeds to step S37.

次に、ステップS37では、距離算出部34は、距離Lを算出する。具体的には、距離算出部34は、2つの隣接検出点Pi−2、Pi−1を結ぶ直線の延長線と、比較検出点Pを検出したレーザレーダ2のレーザ光線の光軸(又は軌跡)との交点Qを特定する。そして、距離算出部34は、特定した交点Qと自車両との距離Lを算出する。 Next, in step S37, the distance calculation unit 34 calculates the distance L q. Specifically, the distance calculation unit 34 extends the straight line connecting the two adjacent detection points P i-2 and P i-1 and the optical axis of the laser beam of the laser radar 2 that detects the comparison detection point P i. The intersection point Q with (or the trajectory) is specified. Then, the distance calculation unit 34 calculates the distance L q of the intersection Q and the subject vehicle identified.

次に、ステップS38では、距離差算出部35は、距離差△Lを算出する。具体的には、距離差算出部35は、前記ステップS37で算出した距離Lと、比較検出点Pと自車両との距離Lとの距離差△L(=|L−L|)を算出する。
次に、ステップS39では、距離差判定部36は、前記ステップS38で算出した距離差△Lが距離判定用しきい値Lth以上であるか否かを判定する。そして、距離差判定部36は、距離差△Lが距離判定用しきい値Lth以上であると判定すると、ステップS42に進む。また、距離差判定部36は、距離差△Lが距離判定用しきい値Lth未満であると判定すると、ステップS40に進む。
Next, in step S38, the distance difference calculation unit 35 calculates a distance difference ΔL. Specifically, the distance difference calculation unit 35 calculates the distance difference ΔL (= | L q −L i ) between the distance L q calculated in step S37 and the distance L i between the comparison detection point P i and the host vehicle. |) Is calculated.
Next, in step S39, the distance difference determination unit 36 determines whether or not the distance difference ΔL calculated in step S38 is greater than or equal to the distance determination threshold value Lth. When the distance difference determination unit 36 determines that the distance difference ΔL is equal to or greater than the distance determination threshold value Lth, the process proceeds to step S42. If the distance difference determination unit 36 determines that the distance difference ΔL is less than the distance determination threshold L th , the process proceeds to step S40.

ステップS40では、検出点管理部31は、検出点番号iを更新する(i=i+1)。すなわち、検出点管理部31は、比較検出点Pを1つ先の検出点Pi+1に変更する。
次に、ステップS41では、検出点管理部31は、検出点番号iが最後の検出点番号であるか否かを判定する。そして、検出点管理部31は、検出点番号iが最後の検出点番号であると判定すると(i=Nの場合)、当該図6に示す処理を終了する。また、検出点管理部31は、検出点番号iが最後の検出点番号でないと判定すると(i<Nの場合)、前記ステップS33から再び処理を開始する。
In step S40, the detection point management unit 31 updates the detection point number i (i = i + 1). That is, the detection point management unit 31 changes the comparison detection point P i to the next detection point P i + 1 .
Next, in step S41, the detection point management unit 31 determines whether or not the detection point number i is the last detection point number. When the detection point management unit 31 determines that the detection point number i is the last detection point number (when i = N), the processing shown in FIG. 6 ends. If the detection point management unit 31 determines that the detection point number i is not the last detection point number (if i <N), the detection point management unit 31 starts the process again from step S33.

また、ステップS42では、グルーピング処理部37は、グループGrpのグルーピングを行う。具体的には、グルーピング処理部37は、第1隣接検出点PをグループGrpの終端の検出点、つまり、物体(具体的には物体の面)の端部の検出点とする。
次に、ステップS43では、検出点管理部31は、グループ番号jを更新する(j=j+1)。
In step S42, the grouping processing unit 37 performs grouping of the group Grp j . Specifically, the grouping processing unit 37 sets the first adjacent detection point P i as the detection point at the end of the group Grp j , that is, the detection point at the end of the object (specifically, the surface of the object).
Next, in step S43, the detection point management unit 31 updates the group number j (j = j + 1).

次に、ステップS44では、グルーピング処理部37は、検出点PをグループGrpの先端の検出点、つまり、物体(具体的には物体の面)の先端の検出点とする。
次に、ステップS45では、検出点管理部31は、検出点番号iを更新する(i=i+2)。すなわち、検出点管理部31は、比較検出点Pを2つ先の検出点Pi+2に変更する。そして、検出点管理部31は、前記ステップS41に進む。
図6に示す処理は以上のような内容になる。
Next, in step S44, the grouping processing unit 37 sets the detection point P i as the detection point at the tip of the group Grp j , that is, the detection point at the tip of the object (specifically, the surface of the object).
Next, in step S45, the detection point management unit 31 updates the detection point number i (i = i + 2). That is, the detection point management unit 31 changes the comparison detection point P i to the detection point P i + 2 that is two points ahead. Then, the detection point management unit 31 proceeds to step S41.
The processing shown in FIG. 6 is as described above.

(動作、作用等)
次に、運転支援制御部10の一連の動作、及びその作用等の一例について説明する。
運転支援制御部10は、レーザレーダ2のレーザ光線を水平方向に走査させて各検出点Pについての距離情報を取得する(前記ステップS1)。そして、運転支援制御部10は、車速センサ3、舵角センサ4、及びヨーレイトセンサ5等からの車両情報を基に自車両の移動量を算出し、算出した自車両の移動量を基に各検出点Pの距離情報を補正する(前記ステップS2〜前記ステップS4)。そして、運転支援制御部10は、距離情報が補正された各検出点Pをグルーピングする(前記ステップS5)。
(Operation, action, etc.)
Next, an example of a series of operations of the driving support control unit 10 and its operation will be described.
Driving support control unit 10 acquires the distance information for each detection point P h by scanning the laser beam of the laser radar 2 in the horizontal direction (step S1). And the driving assistance control part 10 calculates the moving amount | distance of the own vehicle based on the vehicle information from the vehicle speed sensor 3, the steering angle sensor 4, the yaw rate sensor 5, etc., and each based on the calculated moving amount | distance of the own vehicle. It corrects the distance information of the detection point P h (step S2~ step S4). Then, the driving support control unit 10, the distance information is grouping each detection point P h corrected (step S5).

グルーピングでは、運転支援制御部10は、先ず、2つの隣接検出点Pi−1、Pi−2を結ぶ直線と、第1隣接検出点Pi−1と比較検出点Pとを結ぶ直線とがなす角度βを算出する(前記ステップS35)。
そして、運転支援制御部10は、角度βが角度判定用しきい値βth未満であるとき、2つの隣接検出点Pi−2、Pi−1を結ぶ直線の延長線と、比較検出点Pを検出したレーザレーダ2のレーザ光線の光軸(又は軌跡)との交点Qを特定する(前記ステップS36、前記ステップS37)。さらに、距離算出部34は、特定した交点Qと自車両との距離Lを算出する(前記ステップS37)。また、運転支援制御部10は、距離Lと、比較検出点Pと自車両との距離Lとの距離差△Lを算出する(前記ステップS38)。
In the grouping, the driving support control unit 10 firstly connects a straight line connecting the two adjacent detection points P i-1 and P i-2 and a straight line connecting the first adjacent detection point P i-1 and the comparison detection point P i. An angle β formed by the above is calculated (step S35).
Then, when the angle β is less than the angle determination threshold β th , the driving support control unit 10 compares the extension line of the straight line connecting the two adjacent detection points P i-2 and P i-1 and the comparison detection point. identifying an intersection Q between the optical axis (or loci) of the laser beam of the laser radar 2 detects a P i (the step S36, step S37). Furthermore, the distance calculation unit 34 calculates the distance L q of the intersection Q and the subject vehicle identified (step S37). In addition, the driving support control unit 10 calculates a distance difference ΔL between the distance L q and the distance L i between the comparison detection point P i and the host vehicle (Step S38).

そして、運転支援制御部10は、距離差△Lが距離判定用しきい値Lth未満であるとき、検出点番号iを更新することで(i=i+1)、比較検出点Pを1つ先の検出点Pi+1に変更する(前記ステップS39、前記ステップS40)。一方、運転支援制御部10は、距離差△Lが距離判定用しきい値Lth以上であるとき、グループGrpのグルーピングを行い、その後、グループ番号jを更新し(j=j+1)、検出点PをグループGrpの先端の検出点、つまり、物体(具体的には物体の面)の先端の検出点とする(前記ステップS39、前記ステップS42〜前記ステップS44)。そして、運転支援制御部10は、検出点番号iを更新することで(i=i+2)、比較検出点Pを2つ先の検出点Pi+2に変更する(前記ステップS45)。 Then, when the distance difference ΔL is less than the distance determination threshold value L th , the driving support control unit 10 updates the detection point number i (i = i + 1), thereby obtaining one comparison detection point P i. The detection point is changed to the previous detection point Pi + 1 (step S39, step S40). On the other hand, when the distance difference ΔL is greater than or equal to the distance determination threshold L th , the driving support control unit 10 performs grouping of the group Grp j , and then updates the group number j (j = j + 1) for detection. The point P i is set as a detection point at the tip of the group Grp j , that is, a detection point at the tip of the object (specifically, the surface of the object) (Step S39, Steps S42 to S44). Then, the driving support control unit 10 updates the detection point number i (i = i + 2), thereby changing the comparison detection point P i to the next detection point P i + 2 (step S45).

また、運転支援制御部10は、角度βが角度判定用しきい値βth以上であるときは、距離Lと距離判定用しきい値Lthとを比較する判定を行うことなく、すなわち、距離Lと距離判定用しきい値Lthとの比較判定結果によらず、グループGrpのグルーピングを行い、その後、グループ番号jを更新し(j=j+1)、検出点PをグループGrpの先端の検出点、つまり、物体(具体的には物体の面)の先端の検出点とする(前記ステップS36、前記ステップS42〜前記ステップS44)。そして、運転支援制御部10は、検出点番号iを更新することで(i=i+2)、比較検出点Pを2つ先の検出点Pi+2に変更する(前記ステップS45)。 Further, when the angle β is equal to or greater than the angle determination threshold β th , the driving support control unit 10 does not perform the determination of comparing the distance L q with the distance determination threshold L th , that is, distance L q and the distance determination regardless of the comparison judgment result of the threshold L th, performs grouping of the group Grp j, then update the group number j (j = j + 1) , the group detection point P i Grp The detection point at the tip of j , that is, the detection point at the tip of the object (specifically, the surface of the object) is used (step S36, step S42 to step S44). Then, the driving support control unit 10 updates the detection point number i (i = i + 2), thereby changing the comparison detection point P i to the next detection point P i + 2 (step S45).

そして、運転支援制御部10は、以上のような処理を検出点番号iが最後の検出点番号Nになるまで行う(前記ステップS41)。
以上のような処理によって、運転支援制御部10は、全ての検出点Pについてグルーピングを行い、物体を特定する(前記ステップS5、前記ステップS6)。
And the driving assistance control part 10 performs the above processes until the detection point number i becomes the last detection point number N (step S41).
The processing described above, the driving support control unit 10 performs the grouping of all of the detection points P h, to identify the object (step S5, step S6).

図7には、自車両50の走行方向に存在する他の車両101,102の側面の反射点に割り当てられている検出点P(h=0〜77)の一例を示す。この図7に示す例では、複数の反射点を、自車両50からの距離が遠い順に検出点P(h=0〜77)に割り当てている。 FIG. 7 shows an example of detection points P h (h = 0 to 77) assigned to the reflection points on the side surfaces of the other vehicles 101 and 102 existing in the traveling direction of the host vehicle 50. In the example shown in FIG. 7, are assigned a plurality of reflection points, the detection point P h (h = 0~77) in order distance from the vehicle 50 is long.

図8には、図7に示すような検出点P(h=0〜77)が得られている場合の距離L、L、距離差△L、及びグループ番号の一例を示す。この図8に示す例では、距離判定用しきい値Lthが100になっている。図8に示すように、運転支援制御部10は、2台の車両101,102それぞれの横側面101a,102a及び後側面101b,102bを別々に検出している結果として、検出点P(h=0,1,2,・・・,77)を4つのグループ(j=0〜3)にグルーピングしている。 FIG. 8 shows an example of distances L i , L q , distance difference ΔL, and group number when detection points P h (h = 0 to 77) as shown in FIG. 7 are obtained. In the example shown in FIG. 8, the distance determining threshold value L th is set to 100. As shown in FIG. 8, the driving support control unit 10 detects the lateral side surfaces 101 a and 102 a and the rear side surfaces 101 b and 102 b of the two vehicles 101 and 102, respectively. As a result, the detection point P h (h = 0, 1, 2,..., 77) are grouped into four groups (j = 0 to 3).

そして、運転支援制御部10は、このようなグルーピングによって自車両の走行方向に存在する物体(車両等)を検出(特定)し、その検出した物体の情報を基に、各物体の死角領域を特定する(前記ステップS6、前記ステップS7)。
そして、運転支援制御部10は、特定された各死角領域のうち歩行者や自転車等の障害物が自車両の前に飛び出してくる可能性がある(可能性が高い)死角領域を要注意領域と決定する(前記ステップS8)。
Then, the driving support control unit 10 detects (identifies) an object (such as a vehicle) that exists in the traveling direction of the host vehicle through such grouping, and based on the information on the detected object, determines the blind spot area of each object. Specify (step S6, step S7).
Then, the driving support control unit 10 determines a blind spot area in which the pedestrian or the bicycle or the like is likely to jump out in front of the host vehicle among the identified blind spot areas (the possibility is high). Is determined (step S8).

図9には、運転支援制御部10が検出した物体である複数の停車車両103,104,105、及び運転支援制御部10が決定した複数の要注意領域111,112の一例を示す。図9に示すように、各停車車両103,104,105の間に要注意領域111,112が存在する。   FIG. 9 shows an example of a plurality of stopped vehicles 103, 104, and 105 that are objects detected by the driving support control unit 10 and a plurality of caution areas 111 and 112 determined by the driving support control unit 10. As shown in FIG. 9, there are caution areas 111 and 112 between the stopped vehicles 103, 104, and 105.

そして、運転支援制御部10は、図9に示すような要注意領域について優先順位を設定し、設定した優先順位を基に、検出した物体が障害物となり得るか否かを判定する(前記ステップS9、前記ステップS10)。そして、運転支援制御部10は、障害物と判定された物体が自車両に接触する可能性が高いと判定すると、制動制御部16に制動指令を出力して、制動装置6を駆動し、さらに、表示処理部17に表示指令を出力して、表示部7に自車両が障害物に接触する可能性が高いことを表示させる(前記ステップS11、前記ステップS12)。   Then, the driving support control unit 10 sets priorities for the areas requiring attention as shown in FIG. 9, and determines whether or not the detected object can be an obstacle based on the set priorities (the step). S9, said step S10). When the driving support control unit 10 determines that an object determined to be an obstacle is likely to contact the host vehicle, the driving support control unit 10 outputs a braking command to the braking control unit 16 to drive the braking device 6, and Then, a display command is output to the display processing unit 17 to display on the display unit 7 that the possibility that the vehicle is in contact with the obstacle is high (step S11, step S12).

前述したように、運転支援制御部10(具体的には物体検出部20)は、2つの隣接検出点Pi−1、Pi−2を含む直線(2つの隣接検出点Pi−1、Pi−2を結ぶ直線の延長線)と比較検出点Pを検出したレーザ光線の軌跡との交点を特定し、その特定した交点と比較検出点Pとの距離Lを算出している。そして、運転支援制御部10(具体的には物体検出部20)は、算出した距離Lと距離判定用しきい値Lthとの比較結果を基に、グルーピングを行っている。 As described above, the driving support control unit 10 (specifically, the object detection unit 20) is a straight line including two adjacent detection points P i-1 and P i-2 (two adjacent detection points P i-1 , identifying an intersection of the locus of the linear extension) and laser beam detecting a comparison detection points P i connecting P i-2, and calculates the distance L q of the comparison detection point P i and the identified intersection point Yes. Then, the driving support control unit 10 (object detection unit 20 in particular), on the basis of the comparison result between the calculated distance L q and the distance determining threshold value L th, is performed grouping.

これによって、運転支援制御部10は、同一直線上の検出点群かどうかを簡単な計算で判定し、検出点群をグルーピングできるようになる。また、運転支援制御部10は、自車両と検出対象物までの距離、自車両に対する検出対象物の向きに起因するレーザ光線の密度(分解能)の変化に関係なく、一定のしきい値を用いて同一のグループか否かを判定することができる。   As a result, the driving support control unit 10 can determine whether the detection point group is on the same straight line by simple calculation, and can group the detection point group. In addition, the driving support control unit 10 uses a constant threshold value regardless of the change in the density (resolution) of the laser beam due to the distance between the host vehicle and the detection object and the direction of the detection object with respect to the host vehicle. It can be determined whether or not they are the same group.

なお、前述の実施形態の説明では、情報取得部21は、例えば、検出点群生成部を構成する。また、検出点管理部31は、例えば、被比較検出点決定部、比較検出点決定部、及び更新部を構成する。また、距離算出部34は、例えば、距離算出部に加えて交点特定部を構成する。   In the description of the above-described embodiment, the information acquisition unit 21 configures, for example, a detection point group generation unit. Moreover, the detection point management part 31 comprises a comparison detection point determination part, a comparison detection point determination part, and an update part, for example. Moreover, the distance calculation part 34 comprises an intersection specific part in addition to a distance calculation part, for example.

(本実施形態の変形例等)
本実施形態では、角度βと角度判定用しきい値βthとの比較結果に基づく各検出点P(h=0,1,2,・・・,N)のグルーピングと、距離差△Lと距離判定用しきい値Lthとの比較結果に基づく各検出点P(h=0,1,2,・・・,N)のグルーピングとを個別に行っても良い。また、本実施形態では、距離差△Lと距離判定用しきい値Lthとの比較結果に基づく各検出点P(h=0,1,2,・・・,N)のグルーピングだけを行っても良い。
(Modifications of this embodiment, etc.)
In the present embodiment, the angle beta and angle determining threshold value beta th respective detection points based on the result of comparison between P h (h = 0,1,2, ··· , N) and grouping, the distance difference △ L And grouping of detection points P h (h = 0, 1, 2,..., N) based on the comparison result between the threshold value Lth and the distance determination threshold value L th may be performed individually. In the present embodiment, only the grouping of the detection points P h (h = 0, 1, 2,..., N) based on the comparison result between the distance difference ΔL and the distance determination threshold value L th is performed. You can go.

また、本実施形態では、2つの隣接検出点を、比較検出点Pに隣接し互いに連続した検出点Pi−1、Pi−2としている。しかし、本実施形態はこれに限定されない。例えば、2つの隣接検出点は、互いに連続していない検出点Pi−1、Pi−3でも良く、比較検出点Pに隣接しない連続した検出点Pi−2、Pi−3でも良く、比較検出点Pに隣接も互いに連続もしていない検出点Pi−2、Pi−4でも良い。 In the present embodiment, two adjacent detection points are set as detection points P i-1 and P i-2 adjacent to the comparison detection point P i and continuous with each other. However, the present embodiment is not limited to this. For example, the two adjacent detection points may be detection points P i-1 and P i-3 that are not continuous with each other, or may be continuous detection points P i-2 and P i-3 that are not adjacent to the comparison detection point P i. The detection points P i−2 and P i−4 that are not adjacent to the comparison detection point P i and are not continuous with each other may be used.

また、本発明の実施形態を具体的に説明したが、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、請求項1により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。   Further, although the embodiments of the present invention have been specifically described, the scope of the present invention is not limited to the illustrated and described exemplary embodiments, and effects equivalent to those intended by the present invention. All embodiments that provide are also included. Further, the scope of the present invention is not limited to the combination of features of the invention defined by claim 1 but can be defined by any desired combination of specific features among all the disclosed features. .

1 運転支援装置、20 物体検出部、21 情報取得部、30 グルーピング部、31 検出点管理部、32 角度算出部、33 角度判定部、34 距離算出部、35 距離差算出部、36 距離差判定部、37 グルーピング処理部   DESCRIPTION OF SYMBOLS 1 Driving assistance device, 20 Object detection part, 21 Information acquisition part, 30 Grouping part, 31 Detection point management part, 32 Angle calculation part, 33 Angle determination part, 34 Distance calculation part, 35 Distance difference calculation part, 36 Distance difference determination Part 37 Grouping processing part

Claims (2)

送信波を自車両の走行方向に向けかつ水平方向に走査させつつ発射し、発射された送信波の反射波を検出して自車両の走行方向に存在する物体を検出する車両用物体検出装置であって、
前記走査によって前記送信波が反射された複数の反射点を、前記送信波を発射した順序に複数の検出点P(h=0,1,2,・・・,N−1,N(Nは整数))に割り当てる検出点群生成部と、
前記複数の検出点Pから比較される対象となる検出点Pを決定する被比較検出点決定部と、
前記複数の検出点Pから前記検出点Pと比較する検出点P に隣接する連続した検出点P i−1 、P i−2 を決定する比較検出点決定部と、
前記送信波の発射点と前記検出点Pとを含む直線と、前記検出点P i−1 と前記検出点P i−2 とを含む直線との交点を特定する交点特定部と、
前記交点特定部が特定した交点と前記送信波の発射点との距離を算出する距離算出部と、
前記距離算出部が算出した距離と、前記送信波の発射点と前記検出点Pとの距離との差分を算出する距離差算出部と、
前記距離差算出部が算出した距離差が予め設定されている距離差判定用しきい値以上であるか否かを判定する距離差判定部と、
前記距離差判定部が前記距離差が前記距離差判定用しきい値未満であると判定すると、前記検出点Pを前記検出点P i−1 、P i−2 と同じグループにグルーピングし、前記距離差判定部が前記距離差が前記距離差判定用しきい値以上であると判定すると、前記検出点Pを前記検出点P i−1 、P i−2 とは異なるグループにグルーピングするグルーピング処理部と、
前記グルーピング処理部によるグルーピングが終わると、前記値iを大きい値に更新する更新部と、
前記グルーピング処理部によってグループ分けされた検出点を基に、自車両の走行方向に存在する物体を検出する物体検出部と、
を有することを特徴とする車両用物体検出装置。
An object detection device for a vehicle that emits a transmission wave toward a traveling direction of the host vehicle while scanning in the horizontal direction and detects an object existing in the traveling direction of the host vehicle by detecting a reflected wave of the transmitted transmission wave. There,
Wherein the plurality of reflection points which the transmission wave is reflected by the scanning, the plurality of detection points in the order that fired the transmission wave P h (h = 0,1,2, ··· , N-1, N (N Is a detection point cloud generation unit to be assigned to an integer)),
And the comparison detection point determining unit for determining a detection point P i of interest to be compared from the plurality of detection points P h,
A comparison detection point determining unit for determining a detection point P i-1, P i-2 consecutive adjacent said plurality of detection points P h to the detection point P i to be compared with the detection point P i,
An intersection specifying unit for specifying an intersection of a straight line including the emission point of the transmission wave and the detection point P i and a straight line including the detection point P i-1 and the detection point P i-2 ;
A distance calculation unit that calculates a distance between the intersection point identified by the intersection point identification unit and the launch point of the transmission wave;
The distance which the distance calculation unit is calculated, the distance difference calculation section that calculates a difference between the distance between the firing point of the transmission wave and the detection point P i,
A distance difference determination unit that determines whether the distance difference calculated by the distance difference calculation unit is greater than or equal to a preset distance difference determination threshold;
When the distance difference determination unit determines that the distance difference is less than the distance difference determination threshold, the detection points P i are grouped into the same group as the detection points P i-1 and P i-2 , When the distance difference determination unit determines that the distance difference is greater than or equal to the distance difference determination threshold, the detection point P i is grouped into a group different from the detection points P i-1 and P i-2. A grouping processing unit;
When the grouping by the grouping processing unit is finished, an update unit that updates the value i to a large value;
Based on the detection points grouped by the grouping processing unit, an object detection unit that detects an object present in the traveling direction of the host vehicle,
A vehicle object detection device comprising:
前記各検出点P 、P i−1 、P i−2 のそれぞれの位置情報を基に、前記検出点Pと前記検出点P i−1 とを含む直線と、前記検出点P i−1 と前記検出点P i−2 とを含む直線とがなす角度を算出する角度算出部と、
前記角度算出部が算出した角度が予め設定されている角度判定用しきい値以上であるか否かを判定する角度判定部と、をさらに有し、
前記グルーピング処理部は、前記角度判定部が前記角度が前記角度判定用しきい値以上であると判定すると、前記距離差判定部の判定結果によらず、前記検出点Pを前記検出点P i−1 、P i−2 とは異なるグループにグルーピングし、前記角度判定部が前記角度が前記角度判定用しきい値未満であると判定すると、前記距離差判定部の判定結果を基にグルーピングを行うことを特徴とする請求項1に記載の車両用物体検出装置。
Based on the position information of each of the detection points P i , P i-1 and P i-2 , a straight line including the detection point P i and the detection point P i-1, and the detection point P i- 1 and an angle calculation unit for calculating an angle formed by a straight line including the detection point P i-2 ;
An angle determination unit that determines whether or not the angle calculated by the angle calculation unit is equal to or greater than a preset threshold for angle determination;
The grouping processing unit, wherein the angle determination unit determines that the angle is the angle determining threshold value or more, regardless of the determination result of the distance difference determining unit, the detection point P i to the detection point P When grouping into a group different from i-1 and Pi-2 and the angle determination unit determines that the angle is less than the angle determination threshold, grouping is performed based on the determination result of the distance difference determination unit. The vehicle object detection device according to claim 1, wherein:
JP2013081404A 2013-04-09 2013-04-09 Vehicle object detection device Active JP6075168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013081404A JP6075168B2 (en) 2013-04-09 2013-04-09 Vehicle object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013081404A JP6075168B2 (en) 2013-04-09 2013-04-09 Vehicle object detection device

Publications (2)

Publication Number Publication Date
JP2014202709A JP2014202709A (en) 2014-10-27
JP6075168B2 true JP6075168B2 (en) 2017-02-08

Family

ID=52353243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013081404A Active JP6075168B2 (en) 2013-04-09 2013-04-09 Vehicle object detection device

Country Status (1)

Country Link
JP (1) JP6075168B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6629425B2 (en) * 2016-03-14 2020-01-15 日立建機株式会社 Mining work machine
JP6811656B2 (en) * 2017-03-14 2021-01-13 本田技研工業株式会社 How to identify noise data of laser ranging device
WO2020152816A1 (en) * 2019-01-24 2020-07-30 三菱電機株式会社 Tracking device and tracking method
CN112630751A (en) * 2019-10-09 2021-04-09 中车时代电动汽车股份有限公司 Calibration method of laser radar
JP6903196B1 (en) * 2020-05-25 2021-07-14 三菱電機株式会社 Road surface area detection device, road surface area detection system, vehicle and road surface area detection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3341186B2 (en) * 1994-03-31 2002-11-05 オムロン株式会社 Object discriminating apparatus and method, and vehicle equipped with object discriminating apparatus
JP5321640B2 (en) * 2011-05-17 2013-10-23 株式会社デンソー Vehicular road shape recognition method and apparatus, and recording medium

Also Published As

Publication number Publication date
JP2014202709A (en) 2014-10-27

Similar Documents

Publication Publication Date Title
JP6075168B2 (en) Vehicle object detection device
JP6733225B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
WO2017104163A1 (en) Parking support method and device
JP6430907B2 (en) Driving support system
JP5746695B2 (en) Vehicle traveling path estimation device
US10921429B2 (en) Obstacle detection device, moving body, and obstacle detection method
JP2015155878A (en) Obstacle detection device for vehicle
KR102054926B1 (en) System and method for detecting close cut-in vehicle based on free space signal
KR102547274B1 (en) Moving robot and method for estiating location of moving robot
JP6460822B2 (en) Moving object tracking method and moving object tracking apparatus
US9725116B2 (en) Vehicle and vehicle parking system
JP6464410B2 (en) Obstacle determination device and obstacle determination method
WO2016052586A1 (en) Driving assistance device
CN111052201B (en) Collision prediction device, collision prediction method, and storage medium
US20170153329A1 (en) Object detection apparatus
EP3432033B1 (en) Object detection device, object detection method, and program
US11080544B1 (en) Method and device for calibrating pitch of camera on vehicle and method and device for continual learning of vanishing point estimation model to be used for calibrating the pitch
WO2018020680A1 (en) Measurement device, measurement method, and program
EP3549056A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP5781126B2 (en) Obstacle determination device, autonomous mobile device, and obstacle determination method
JP2009098023A (en) Object detector and object detection method
KR20180039900A (en) Apparatus and method for determining collision possibility according to traveling path scenario and controlling a vehicle
JP5490633B2 (en) Vehicle traveling path estimation device
JP5163087B2 (en) Object detection device
JP5163084B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R151 Written notification of patent or utility model registration

Ref document number: 6075168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151