JP5055691B2 - Front object detection apparatus and front object detection method - Google Patents

Front object detection apparatus and front object detection method Download PDF

Info

Publication number
JP5055691B2
JP5055691B2 JP2004308168A JP2004308168A JP5055691B2 JP 5055691 B2 JP5055691 B2 JP 5055691B2 JP 2004308168 A JP2004308168 A JP 2004308168A JP 2004308168 A JP2004308168 A JP 2004308168A JP 5055691 B2 JP5055691 B2 JP 5055691B2
Authority
JP
Japan
Prior art keywords
detection
road
point
road structure
road shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004308168A
Other languages
Japanese (ja)
Other versions
JP2006119026A (en
Inventor
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004308168A priority Critical patent/JP5055691B2/en
Publication of JP2006119026A publication Critical patent/JP2006119026A/en
Application granted granted Critical
Publication of JP5055691B2 publication Critical patent/JP5055691B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、車両前方の物体を検出する前方物体検出装置及び前方物体検出方法に関し、特に道路構造物を検出し、さらに道路構造物以外の物体を検出する装置及び方法に関する。   The present invention relates to a forward object detection apparatus and a forward object detection method for detecting an object in front of a vehicle, and more particularly to an apparatus and method for detecting a road structure and further detecting an object other than a road structure.

車両前方の道路形状を計測する装置として、例えば、特開平07−027541号公報(特許文献1参照)に記載されたものが知られている。この計測装置によれば、車両に搭載された撮像手段が撮像した画像から前方の道路形状を抽出し、道路の3次元形状を含む地図情報と車両位置パラメータから3次元の道路モデルを演算し、画像から得られた道路形状と演算した道路モデルとを比較して両者間の位置のズレ量を算出し、算出したズレ量を考慮した自車両位置を推定することにより、道路形状を正確に計測することができる。
しかしながら、従来の道路形状の計測処理では、撮像手段により撮像された画像を用いるため、撮像距離に応じた画像精度の低下に伴い、撮像手段から離隔した遠方の道路形状を正確に抽出することが困難であるという問題があった。すなわち、撮像された画像から抽出された道路形状と地図情報から演算された道路形状とのズレ量を正確に算出することが困難であるという問題があった。
特開平7−27541号公報
As an apparatus for measuring a road shape in front of a vehicle, for example, a device described in Japanese Patent Application Laid-Open No. 07-027541 (see Patent Document 1) is known. According to this measurement apparatus, a road shape ahead is extracted from an image captured by an imaging unit mounted on a vehicle, a three-dimensional road model is calculated from map information including the three-dimensional shape of the road and vehicle position parameters, Accurately measure the road shape by comparing the road shape obtained from the image with the calculated road model and calculating the amount of displacement between the two, and estimating the position of the vehicle considering the calculated amount of displacement can do.
However, the conventional road shape measurement process uses an image picked up by the image pickup means, so that it is possible to accurately extract a road shape far away from the image pickup means with a decrease in image accuracy according to the image pickup distance. There was a problem that it was difficult. That is, there is a problem that it is difficult to accurately calculate the amount of deviation between the road shape extracted from the captured image and the road shape calculated from the map information.
JP-A-7-27541

本発明は、このような従来の課題を解決するためになされたものであり、道路形状を示す道路構造物を含む前方物体を正確に検出することを目的とする。
本発明によれば、自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントを含む検出情報を取得し、地図データベースにアクセスして自車両の現在位置における前方の道路形状情報を取得し、この道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出し、取得された検出情報と算出された道路形状モデルとに基づいて道路構造物モデルを算出し、算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、グルーピングされた検出ポイントに対応する物体を道路構造物として検出し、道路構造物を検出する際に、算出された道路形状モデルと、先のタイミングにおける道路構造物の検出位置とに基づいて、現タイミングにおける自車両前方の道路構造物を検出する検出領域を設定し、設定された検出領域ごとに道路構造物モデルの起点となる検出ポイントを抽出し、抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデルに対する距離が所定値未満の検出ポイントを順次連結して1又は2以上の線分を検出し、検出された線分に基づいて、道路構造物の形状を近似する道路構造物モデルを算出し、算出された道路構造物モデルと所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として判定するする前方物体検出装置及び前方物体検出方法が提供される
これにより、道路構造物等を含む前方物体を正確に検出することができる。
The present invention has been made to solve such a conventional problem, and an object thereof is to accurately detect a forward object including a road structure indicating a road shape.
According to the present invention, the detection information including the detection point of the object detected based on the reflected wave of the scanning wave emitted in front of the host vehicle is acquired, the map database is accessed, and the current position of the host vehicle is acquired. Obtain road shape information ahead, calculate a road shape model of the traveling road ahead of the host vehicle based on the road shape information, and build a road structure model based on the obtained detection information and the calculated road shape model When the detection point having a predetermined positional relationship with the calculated road structure model is grouped, the object corresponding to the grouped detection point is detected as a road structure, and when the road structure is detected, Based on the calculated road shape model and the road structure detection position at the previous timing, the road structure ahead of the host vehicle at the current timing is detected. Set the detection area, and extracts a detection point serving as a starting point for the road structure model for each detection area set, the starting point that is extracted, a detection point in the origin and a predetermined positional relationship, and the A road structure model that detects one or more line segments by sequentially connecting detection points whose distance to the road shape model is less than a predetermined value, and approximates the shape of the road structure based on the detected line segments A forward object detection apparatus and a forward object detection method for calculating, grouping detection points having a predetermined positional relationship with the calculated road structure model, and determining an object corresponding to the grouped detection point as a road structure Is provided .
Thereby, a forward object including a road structure or the like can be accurately detected.

本発明の前方物体検出装置100は、ユーザが搭乗する車両に搭載され、自車両前方に存在する道路構造物、又は他車両、設置物その他の可動物(道路構造物以外の物)を検出する。特に、前方物体の所在点を示す検出ポイントについて所定のグルーピング処理を行うことにより、道路構造物を正確に検出する。   The forward object detection device 100 of the present invention is mounted on a vehicle on which a user is boarded, and detects a road structure existing in front of the host vehicle, or another vehicle, an installation, or other movable object (an object other than a road structure). . In particular, the road structure is accurately detected by performing a predetermined grouping process on the detection point indicating the location of the forward object.

以下、図面に基づいて、本発明に係る2つの実施形態の前方物体検出装置100を説明する。第1の実施形態は道路構造物を少なくとも検出する第1検出手段(道路構造物検出手段)30を有し、第2の実施形態は道路構造物を検出するとともに、第1検出手段30によって判断された道路構造物以外の物体、例えば他車両、施設、設備その他の可動物を検出する第2検出手段(可動物検出手段)40を有する。   Hereinafter, two embodiments of the forward object detection device 100 according to the present invention will be described with reference to the drawings. The first embodiment has a first detection means (road structure detection means) 30 for detecting at least a road structure, and the second embodiment detects a road structure and makes a determination by the first detection means 30. The second detection means (movable object detection means) 40 for detecting an object other than the road structure, for example, other vehicles, facilities, equipment, and other movable objects.

<第1実施形態>
図1に第1実施形態の前方物体検出装置100を含む車載システムの構成の概要を示した。図1に示すように、本実施形態の前方物体検出装置100は、他の車載装置1000と有線又は無線の車載LAN等により通信可能に接続され、各種情報の授受を行うことができる。
<First Embodiment>
FIG. 1 shows an outline of the configuration of an in-vehicle system including the front object detection device 100 of the first embodiment. As shown in FIG. 1, the front object detection device 100 of the present embodiment is communicably connected to another in-vehicle device 1000 via a wired or wireless in-vehicle LAN, and can exchange various information.

前方物体検出装置100は、道路形状モデル算出手段10と、検出情報取得手段20と、第1検出手段30とを有する。道路形状モデル算出手段10は、外部のナビゲーション装置400と情報の授受が可能なように接続され、現在位置検出機能410から現在位置を取得するとともに、地図データベース420にアクセスして自車両前方の道路形状情報を取得し、道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する。検出情報取得手段20は、外部のレーザレーダ200、車両挙動検出装置300と情報の授受が可能なように接続され、自車両の前方に出射された走査波の反射波の基づいて検出された物体の検出ポイントの情報を含む検出情報を取得する。第1検出手段30、取得した検出情報と算出された道路形状モデルとに基づいて道路構造物モデルを算出し、この道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、グルーピングした検出ポイントに対応する物体を道路構造物として検出する。   The forward object detection device 100 includes a road shape model calculation unit 10, a detection information acquisition unit 20, and a first detection unit 30. The road shape model calculation means 10 is connected to an external navigation device 400 so as to be able to exchange information, acquires the current position from the current position detection function 410, and accesses the map database 420 to access the road ahead of the host vehicle. Shape information is acquired, and a road shape model of a traveling road ahead of the host vehicle is calculated based on the road shape information. The detection information acquisition means 20 is connected to the external laser radar 200 and the vehicle behavior detection device 300 so as to be able to exchange information, and is detected based on the reflected wave of the scanning wave emitted in front of the host vehicle. The detection information including the information of the detection points is acquired. First detection means 30 calculates a road structure model based on the acquired detection information and the calculated road shape model, groups detection points having a predetermined positional relationship with the road structure model, and performs grouped detection An object corresponding to the point is detected as a road structure.

本実施形態の前方物体検出装置100は、検出情報と地図データベースの道路形状情報から求めた道路形状モデルとから道路構造物モデルを算出するため、実際の道路構造物とズレ量の少ない道路構造物モデルを導出することができ、この算出した道路構造物モデルに基づいて前方の物体を検出することから、前方物体を正確に検出することができる。また、本実施形態では距離が遠くなるほど精度が低下する撮像画像を用いることなく物体を検出するため、自車両の広い範囲(自車両から離れた範囲)で物体を正確に検出することができる。また、本実施形態では、検出ポイントの相対速度を参照することなく道路構造物を検出するので、検出ポイントが密集した状態が検出され、検出ポイント同士の時間的な対応づけが容易ではなく、検出ポイントの相対速度を算出することが容易でない場合であっても道路構造物を正確に検出することができる。 Since the forward object detection device 100 of the present embodiment calculates a road structure model from the detection information and the road shape model obtained from the road shape information in the map database, the road structure with a small amount of deviation from the actual road structure. Since the model can be derived and the forward object is detected based on the calculated road structure model , the forward object can be accurately detected. In the present embodiment, since the object is detected without using a captured image whose accuracy decreases as the distance increases, the object can be accurately detected in a wide range of the host vehicle (a range away from the host vehicle). Further, in the present embodiment, the road structure is detected without referring to the relative speed of the detection points, so that a state in which the detection points are densely detected is detected, and it is not easy to temporally associate the detection points with each other. Even if it is not easy to calculate the relative speed of the points, the road structure can be accurately detected.

次に、車載システムを構成する外部装置について先に説明し、その後に本実施形態の前方物体検出装置100の具体的構成について説明する。   Next, the external device constituting the in-vehicle system will be described first, and then the specific configuration of the front object detection device 100 of the present embodiment will be described.

車載装置1000は、前方物体検出機能を備えたレーザレーダ200と、走行時の車両の挙動を検出する機能を備えた車両挙動検出装置300と、自車両の現在位置及び走行道路及び走行道路の形状を認識する機能を備えたナビゲーション装置400と、検出した前方物体についての情報をユーザに提示する機能を備えたディスプレイ、スピーカその他の出力装置500とを有している。   The in-vehicle device 1000 includes a laser radar 200 having a front object detection function, a vehicle behavior detection device 300 having a function of detecting the behavior of the vehicle during traveling, the current position of the host vehicle, the traveling road, and the shape of the traveling road. And a display device, a speaker, and other output devices 500 having a function of presenting information about the detected forward object to the user.

図2にレーザレーダ200の設置位置を示した。図2(A)は車両600を側面から見た図、図2(B)は車両600を上面から見た図である。本実施形態では、距離センサとしてスキャニングレーザレーダ(以下、「レーザレーダ」という)を利用して検出情報を取得する場合を例にして説明するが、自車両前方に出射された走査波の反射波に基づいて検出された物体の検出ポイント(検出された物体が存在する相対的位置)を含む検出情報を検出できれば特に限定されない。   FIG. 2 shows the installation position of the laser radar 200. 2A is a view of the vehicle 600 viewed from the side, and FIG. 2B is a view of the vehicle 600 viewed from the top. In the present embodiment, a case where detection information is acquired using a scanning laser radar (hereinafter referred to as “laser radar”) as a distance sensor will be described as an example, but a reflected wave of a scanning wave emitted in front of the host vehicle. If the detection information including the detection point of the object detected based on (the relative position where the detected object exists) can be detected, there is no particular limitation.

図2(A)(B)に示すように、レーザレーダ200は、自車両600の前部に設置される。また、レーザレーダ200は、スキャニング面において所定の角度で光軸を変更し、所定のスキャン範囲でレーザ光(走査光)Lを走査させ、スキャン範囲に存在する物体に向けてレーザ光を照射する。レーザレーダ200は、出射したレーザ光が前方に存在する物体に照射されて反射された反射レーザ光(反射波)を検出することにより、反射レーザ光(反射波)の光強度に基づいた反射信号を取得する。そして、レーザレーダ200は、取得した反射信号に基づいた距離計測処理を行うことにより、距離計測情報等を含む検出情報を生成し、これらの検出情報を前方物体検出装置100の検出情報取得手段20に向けて出力する。   As shown in FIGS. 2A and 2B, the laser radar 200 is installed in the front part of the host vehicle 600. Further, the laser radar 200 changes the optical axis at a predetermined angle on the scanning surface, scans the laser light (scanning light) L within a predetermined scanning range, and irradiates the laser light toward an object existing in the scanning range. . The laser radar 200 detects the reflected laser light (reflected wave) reflected by the emitted laser light applied to an object existing in front, thereby reflecting the reflected signal based on the light intensity of the reflected laser light (reflected wave). To get. Then, the laser radar 200 generates detection information including distance measurement information and the like by performing distance measurement processing based on the acquired reflection signal, and detects the detection information of the front object detection apparatus 100 as detection information acquisition means 20. Output to.

車両挙動検出装置300は、自車両600の自車位置を取得するGPS(Global Positioning System)受信センサと、シフトポジションを検出するシフトポジションセンサと、自車両左右後輪の車輪速を検出する車輪速センサと、自車両600の操舵角を検出する操舵角センサとを備える。車両挙動検出装置300は、GPS受信センサからのセンサ信号、シフトポジションセンサからのセンサ信号、車輪速センサからのセンサ信号、操舵角センサからのセンサ信号を用いて、自車位置、自車両進行方向、自車両600の向き、及び移動距離を算出する。GPS受信センサはナビゲーション装置400が備えるものを利用し、ナビゲーション装置400から受信センサ等を取得してもよい。また、車両挙動検出装置300は、ナビゲーション装置400が有する地図データベース420にアクセス可能であり、算出した自車位置(現在位置)、自車両進行方向、自車両の向き及び移動距離を、車両走行情報として前方物体検出装置100へ向けて出力する。   The vehicle behavior detection device 300 is a GPS (Global Positioning System) reception sensor that acquires the position of the host vehicle 600, a shift position sensor that detects a shift position, and a wheel speed that detects the wheel speeds of the left and right rear wheels of the host vehicle. A sensor and a steering angle sensor for detecting the steering angle of the host vehicle 600 are provided. The vehicle behavior detection device 300 uses the sensor signal from the GPS reception sensor, the sensor signal from the shift position sensor, the sensor signal from the wheel speed sensor, and the sensor signal from the steering angle sensor to detect the vehicle position and the vehicle traveling direction. Then, the direction and movement distance of the host vehicle 600 are calculated. The GPS reception sensor may be provided in the navigation device 400, and the reception sensor or the like may be acquired from the navigation device 400. In addition, the vehicle behavior detection device 300 can access a map database 420 included in the navigation device 400, and the calculated vehicle position (current position), the traveling direction of the host vehicle, the direction of the host vehicle, and the moving distance are determined based on vehicle travel information. Is output toward the front object detection apparatus 100.

ナビゲーション装置400は、GPS機能(Global Positioning System)、および自律航法を利用して、自車両の現在位置を検出するとともに目的地に至る経路を案内する一般のナビゲーション機能を有する。ナビゲーション装置400は、電子的な処理が可能な地図データベース420を有する。本実施形態の地図データベース420は、各道路の形状に関する道路形状データを含み、道路形状データは位置情報と対応づけられている。つまり、現在位置を特定する情報を検出できればその現在位置を含む走行道路の道路形状データを取得することができる。さらに、自車両の走行方向が検出できれば、現在位置を含む走行道路における自車両の走行方向(自車両の前方)の道路形状データを取得することができる。   The navigation device 400 has a general navigation function that detects the current position of the host vehicle and guides a route to the destination by using a GPS function (Global Positioning System) and autonomous navigation. The navigation device 400 includes a map database 420 that can be electronically processed. The map database 420 of the present embodiment includes road shape data relating to the shape of each road, and the road shape data is associated with position information. That is, if the information specifying the current position can be detected, the road shape data of the traveling road including the current position can be acquired. Furthermore, if the traveling direction of the host vehicle can be detected, road shape data of the traveling direction of the host vehicle (in front of the host vehicle) on the traveling road including the current position can be acquired.

出力装置500は、前方物体検出装置100により検出された前方物体に関する情報をユーザに向けて提示可能なディスプレイ装置、スピーカ装置その他の提示装置である。   The output device 500 is a display device, speaker device, or other presentation device that can present information related to the forward object detected by the forward object detection device 100 to the user.

次に、本実施形態の前方物体検出装置100の構成を具体的に説明する。
図3に前方物体検出装置100の演算装置にかかる具体的なブロック構成を示した。図3に示すように、前方物体検出装置100の演算装置は、道路形状モデル算出手段10と、検出情報取得手段20と、第1検出手段30(以下「道路構造物検出手段30」という)とを少なくとも有し、自車両の車載装置に搭載されたCPU(Central Processing Unit)、 RAM(Random Access Memory)、 ROM(Read Only Memory)、 入出力I/F等からなるマイクロコンピュータで構成されている。具体的には、少なくとも、道路形状モデルを算出するプログラム、道路構造物モデルを算出するプログラム、及び道路構造物を検出するプログラムを格納したROM(Read Only Memory)等と、このROM等に格納されたプログラムを実行することで、道路形状モデル算出手段10と、第1検出手段30として機能するCPU(Central Processing Unit)等と、アクセス可能な記憶手段として機能するRAM(Random Access Memory)等(メモリ50)とを備えている。また、本実施形態は、各手段の演算処理の過程又は演算処理の結果を記憶するメモリ50を備えているが、メモリ50は各手段又は各手段のいずれかに内蔵させてもよい。以下、各構成について説明する。
Next, the configuration of the front object detection device 100 of this embodiment will be specifically described.
FIG. 3 shows a specific block configuration according to the arithmetic unit of the front object detection apparatus 100. As shown in FIG. 3, the arithmetic unit of the forward object detection device 100 includes a road shape model calculation unit 10, a detection information acquisition unit 20, a first detection unit 30 (hereinafter referred to as “road structure detection unit 30”). And a microcomputer comprising a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an input / output I / F, etc. . Specifically, at least a program that calculates a road shape model, a program that calculates a road structure model, and a ROM (Read Only Memory) that stores a program that detects a road structure, and the like are stored in the ROM. By executing the program, the road shape model calculating means 10, the CPU (Central Processing Unit) functioning as the first detecting means 30, and the RAM (Random Access Memory) functioning as accessible storage means (memory) 50). In addition, although the present embodiment includes the memory 50 that stores the calculation process or the result of the calculation process of each unit, the memory 50 may be incorporated in each unit or each unit. Each configuration will be described below.

「道路形状モデル算出手段10」は、自車両の現在位置を取得するとともに、地図データベース420にアクセスして自車両前方の道路形状情報を取得し、取得した道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する。具体的に、道路形状モデル算出手段10は、少なくとも道路形状情報取得部11を有する。道路形状情報取得部11は、自車両の現在位置を取得し、車載装置1000側の地図データベース420にアクセスして現在位置における自車両前方の道路形状情報を取得する。取得する自車両の現在位置は、ナビゲーション装置400の現在位置検出機能410により検出された情報である。地図データベース420は、位置情報と、道路の方向(車両の進行方向)と道路形状情報とを対応づけて記憶しているため、道路形状情報取得部11は現在位置における車両前方側の道路形状を取得することができる。なお、車両の進行方向は、ナビゲーション装置400から取得してもよいし、車両挙動検出装置300から取得してもよい。道路形状モデル算出手段10は、地図データベース420から取得した道路形状情報に基づいて、自車両前方の走行道路の道路形状モデルを算出する。本例の道路形状モデル算出手段10は二次元で表現された道路形状モデルを算出する。   The “road shape model calculating means 10” acquires the current position of the host vehicle, accesses the map database 420 to acquire road shape information in front of the host vehicle, and based on the acquired road shape information, A road shape model of the traveling road is calculated. Specifically, the road shape model calculation unit 10 includes at least a road shape information acquisition unit 11. The road shape information acquisition unit 11 acquires the current position of the host vehicle, accesses the map database 420 on the in-vehicle device 1000 side, and acquires road shape information ahead of the host vehicle at the current position. The current position of the host vehicle to be acquired is information detected by the current position detection function 410 of the navigation device 400. Since the map database 420 stores the positional information, the road direction (the traveling direction of the vehicle), and the road shape information in association with each other, the road shape information acquisition unit 11 indicates the road shape on the vehicle front side at the current position. Can be acquired. The traveling direction of the vehicle may be acquired from the navigation device 400 or may be acquired from the vehicle behavior detection device 300. The road shape model calculation means 10 calculates a road shape model of the traveling road ahead of the host vehicle based on the road shape information acquired from the map database 420. The road shape model calculation means 10 of this example calculates a road shape model expressed in two dimensions.

本実施形態の道路形状モデル算出手段10は、特に限定されないが、取得範囲決定部12と、データ変換部13とを有する。取得範囲決定部12は、検出情報取得手段20により取得される検出情報の検出領域よりも広い領域を、道路形状情報を取得する範囲として決定する。検出情報に対応する検出領域の情報は予めレーザレーダ200から取得してメモリ50に記憶しておくことが好ましく、取得する所定領域は、レーザレーダ200の検出領域を基準として定義しておくことが好ましい。道路形状情報取得部11は、取得範囲決定部12の決定に従い所定領域の道路形状情報を取得する。データ変換部13は、取得したレーザレーダ200の検出領域よりも広い所定領域の道路形状情報をレーザレーダ200の検出領域内に入るようにデータ変換する。このように、検出情報が取得される領域よりも広い領域の道路形状情報を取得し、自車両センサ(レーザレーダ200、車両挙動検出装置300)の検出領域に入るようにデータ変換を行うことにより、地図データベース420から得られる道路形状モデルと、実際に検出される検出情報に基づいて算出される道路構造物モデルとのズレを小さくすることができる。実際の道路構造モデルとのズレ量が小さい道路形状モデルに基づいて、道路構造物モデルの算出、検出ポイントのグルーピングを行うことにより、道路構造物を正確かつ効率的に検出することができる。   The road shape model calculation unit 10 of the present embodiment is not particularly limited, and includes an acquisition range determination unit 12 and a data conversion unit 13. The acquisition range determination unit 12 determines an area wider than the detection area of the detection information acquired by the detection information acquisition unit 20 as a range for acquiring road shape information. Information on the detection area corresponding to the detection information is preferably acquired from the laser radar 200 in advance and stored in the memory 50. The predetermined area to be acquired may be defined with the detection area of the laser radar 200 as a reference. preferable. The road shape information acquisition unit 11 acquires road shape information of a predetermined area according to the determination of the acquisition range determination unit 12. The data conversion unit 13 converts the acquired road shape information in a predetermined area wider than the detection area of the laser radar 200 so as to fall within the detection area of the laser radar 200. In this way, by acquiring road shape information in a wider area than the area where the detection information is acquired, and performing data conversion so as to enter the detection area of the own vehicle sensor (laser radar 200, vehicle behavior detection device 300). The deviation between the road shape model obtained from the map database 420 and the road structure model calculated based on the detection information actually detected can be reduced. By calculating the road structure model and grouping the detection points based on the road shape model with a small deviation from the actual road structure model, the road structure can be detected accurately and efficiently.

「検出情報取得手段20」は、レーザレーダ200の検出情報及び/又は車両挙動検出装置300の検出情報を取得する。取得する検出情報には、自車両の前方に出射された走査波の反射波に基づいて検出された物体の検出ポイントの情報が少なくとも含まれる。   The “detection information acquisition means 20” acquires the detection information of the laser radar 200 and / or the detection information of the vehicle behavior detection device 300. The acquired detection information includes at least information on the detection point of the object detected based on the reflected wave of the scanning wave emitted in front of the host vehicle.

「道路構造物検出手段(第1検出手段)30」は、検出情報取得手段20により取得された検出情報と、道路形状モデル算出手段10により算出された道路形状モデルとに基づいて道路構造物モデルを算出し、算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、このグルーピングされた検出ポイントに対応する物体を道路構造物として検出する。本実施形態において、「道路構造物モデル」は、道路(車道、歩道、自転車道等の道路の部分を含む。以下同じ)の構造及び道路を車道、歩道、自転車道等の道路の部分に区画する縁石線、さく、中央帯、路肩、側帯又は停車帯その他これに類する工作物の構造の所在を示すモデルである。道路構造物モデルは、車両に搭乗するドライバの視認領域面において表現されることが好ましい。   The “road structure detection means (first detection means) 30” is based on the detection information acquired by the detection information acquisition means 20 and the road shape model calculated by the road shape model calculation means 10. , And the detection points having a predetermined positional relationship with the calculated road structure model are grouped, and an object corresponding to the grouped detection points is detected as a road structure. In this embodiment, the “road structure model” is a road (including road parts such as roadways, sidewalks, and bicycle roads; the same applies hereinafter) and the road is divided into road parts such as roadways, sidewalks, and bicycle roads. It is a model showing the location of the structure of curb lines, fences, center belts, shoulders, side belts, stop belts and other similar structures. It is preferable that the road structure model is expressed in a visual recognition area plane of a driver who gets on the vehicle.

GPS機能により検出された現在位置及び車両の走行情報(進行方向を含む)に基づいて地図データベース420から取得した道路形状情報は、自車前方の道路形状を示すことは確かであることから、この道路形状情報を基準として算出した道路形状モデルに基づいて道路構造物モデルを算出することにより、本実施形態では正確な道路形状の算出を行うことが可能となる。特に、道路形状モデル算出手段10がレーザレーダ200の検出領域よりも広い領域の道路形状情報を取得して、検出情報の検出領域に入るようにデータ変換を行うことにより、自車両が移動中であっても道路構造物を正確に検出することができる。   Since it is certain that the road shape information acquired from the map database 420 based on the current position detected by the GPS function and the vehicle travel information (including the traveling direction) indicates the road shape ahead of the host vehicle. By calculating the road structure model based on the road shape model calculated based on the road shape information, it is possible to accurately calculate the road shape in the present embodiment. In particular, the road shape model calculation means 10 acquires road shape information in an area wider than the detection area of the laser radar 200, and performs data conversion so that the vehicle enters the detection area of the detection information. Even if it exists, a road structure can be detected correctly.

図3に基づいて、本実施形態の道路構造物検出手段30の具体的な構成を説明する。特に限定されないが、本実施形態の道路構造物検出手段30は、検出領域設定部31と、起点抽出部32と、線分検出部33と、モデル算出部34と、判定部35と、検出結果出力部36とを有している。   Based on FIG. 3, the specific structure of the road structure detection means 30 of this embodiment is demonstrated. Although not particularly limited, the road structure detection means 30 of the present embodiment includes a detection area setting unit 31, a starting point extraction unit 32, a line segment detection unit 33, a model calculation unit 34, a determination unit 35, and a detection result. And an output unit 36.

「検出領域設定部31」は、道路形状モデル算出手段10により算出された道路形状モデルを基準とした、先のタイミングにおける道路構造物の検出位置に応じて、現タイミングにおける道路構造物の検出領域を設定する。検出領域の設定基準は任意に定義することができる。特に限定されないが、自車両が走行する道路の道路形状モデルを基準とした右側の検出領域及び左側の検出領域、又は道路形状モデルを基準とした近傍(道路形状モデルに対して所定距離未満)及び遠方(道路形状モデルに対して所定距離以上)の検出領域を設定することができる。本実施形態では、自車両が走行する道路の道路形状モデルに対して近傍右側、近傍左側、遠方右側、遠方左側の4つの検出領域を設定した。   The “detection area setting unit 31” is based on the road shape model calculated by the road shape model calculation unit 10 and is based on the detection position of the road structure at the previous timing. Set. The detection area setting criteria can be arbitrarily defined. Although not particularly limited, the detection area on the right side and the detection area on the left side based on the road shape model of the road on which the vehicle travels, or the vicinity based on the road shape model (less than a predetermined distance with respect to the road shape model) and It is possible to set a far detection area (a predetermined distance or more with respect to the road shape model). In the present embodiment, four detection areas are set for the right side, the left side, the far right side, and the far left side of the road shape model of the road on which the vehicle travels.

「起点抽出部32」は、検出領域設定部31により設定された検出領域ごとに道路構造物モデルの起点となる検出ポイントを抽出する。検出ポイントの抽出手法は、後に制御手順とともに具体的に説明する。   The “starting point extraction unit 32” extracts a detection point that is a starting point of the road structure model for each detection region set by the detection region setting unit 31. The detection point extraction method will be specifically described later along with the control procedure.

「線分検出部33」は、起点抽出部32により抽出された起点と、その起点と所定の位置関係にある検出ポイントを順次連結して1又は2以上の線分を検出する。   The “line segment detection unit 33” detects one or more line segments by sequentially connecting the start point extracted by the start point extraction unit 32 and the detection points having a predetermined positional relationship with the start point.

特に限定されないが、本実施形態の線分検出部33は、第1線分検出部331と第2線分検出部332とを有している。第1線分検出部331は、起点抽出部32により検出された起点と所定の位置関係にある検出ポイントであって、道路形状モデル算出手段10により算出された道路形状モデルに対する距離が所定値未満の検出ポイントを順次連結して1又は2以上の線分を検出する。また、第2線分検出部332は、起点抽出部32により抽出された起点と所定の位置関係にある検出ポイントであって、道路形状モデル算出手段1により算出された道路形状モデルに対する距離が所定値以上の検出ポイントを順次連結して1又は2以上の線分を検出する。つまり、本実施形態の線分検出部33は、算出された道路形状モデルに沿った線分と、道路形状モデルに沿わない(道路形状に依存しない)線分との2種類の線分を検出する。検出された線分は、後の処理において道路構造モデル算出に供されるが、走行する道路形状モデルに沿った線分と沿わない線分とを区別して検出できるため、走行中の道路の前方に分岐があるような複雑な構造を有する道路環境であっても、その構造に応じた線分を検出することができ、道路構造物の所在を正確に検出することができる。 Although not particularly limited, the line segment detection unit 33 of the present embodiment includes a first line segment detection unit 331 and a second line segment detection unit 332. The first line segment detection unit 331 is a detection point having a predetermined positional relationship with the starting point detected by the starting point extraction unit 32, and the distance to the road shape model calculated by the road shape model calculating unit 10 is less than a predetermined value. These detection points are sequentially connected to detect one or more line segments. The second line segment detection unit 332 is a detection point having a predetermined positional relationship with the starting point extracted by the starting point extraction unit 32, and has a predetermined distance to the road shape model calculated by the road shape model calculation unit 1. One or more line segments are detected by sequentially connecting detection points that are equal to or greater than the value. That is, the line segment detection unit 33 of the present embodiment detects two types of line segments: a line segment along the calculated road shape model and a line segment that does not follow the road shape model (independent of the road shape). To do. The detected line segment, but is subjected to road structures model calculated in later processing, it is possible to detect and distinguish between segment does not comply with the line segment along a road shape model traveling, the traveling road Even in a road environment having a complicated structure with a branch ahead, a line segment corresponding to the structure can be detected, and the location of the road structure can be detected accurately.

「モデル算出部34」は、線分検出部33により検出された線分に基づいて、道路構造物の形状を近似する道路構造物モデルを算出する。道路構造物モデルの算出手法は、後に制御手順とともに具体的に説明する。   The “model calculation unit 34” calculates a road structure model that approximates the shape of the road structure based on the line segment detected by the line segment detection unit 33. A method for calculating the road structure model will be specifically described later together with a control procedure.

「判定部35」は、モデル算出部34により算出された道路構造物モデルと所定の位置関係にある検出ポイントをグルーピングし、このグルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定する。   The “determination unit 35” groups detection points having a predetermined positional relationship with the road structure model calculated by the model calculation unit 34, and whether or not the object corresponding to the grouped detection points is a road structure. Determine whether.

本実施形態の判定部35は、モデル算出部34により算出された道路構造物モデルと、現在、所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体と、先のタイミングにおいてモデル算出部34により算出され道路構造物モデルとの位置関係に基づいて、現在のタイミングにおいてグルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定する。つまり、今回判定の対象となる物体(グルーピングされた検出ポイント)が、前回判定された道路構造物モデルと所定の位置関係(所定の距離以下、検出された線分の延長線上にあるなど)である場合は、判定の対象となる物体は道路構造物であると判定する。さらに、判定部35は、現在のタイミングにおいてグルーピングされた検出ポイントに対応する物体の位置と、先のタイミングにおいてモデル算出部34により算出された道路構造物モデルの位置とを対比し、その位置の変化が自車両の移動によるものであると判断できる場合、すなわち、相対的位置の変化量が自車両の走行速度と経過時間とを乗じた値に近似している場合は、現在のタイミングにおいてグルーピングされた検出ポイントに対応する物体を道路構造物であると判定する。つまり、先に行った道路構造物の判定結果を利用して、最近のタイミングにおいてグルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定することができる。もちろん、最も単純な判断手法であるが、判定部35は、モデル算出部34により算出された道路構造モデルと所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物であると判定してもよい。 The determination unit 35 of the present embodiment groups the road structure model calculated by the model calculation unit 34 and detection points that are currently in a predetermined positional relationship, an object corresponding to the grouped detection point, Based on the positional relationship with the road structure model calculated by the model calculation unit 34 at the timing, it is determined whether or not the object corresponding to the detection point grouped at the current timing is a road structure. That is, the object (grouped detection point) to be determined this time is in a predetermined positional relationship with the previously determined road structure model (below a predetermined distance, on an extension of the detected line segment, etc.). In some cases, it is determined that the object to be determined is a road structure. Furthermore, the determination unit 35 compares the position of the object corresponding to the detection point grouped at the current timing with the position of the road structure model calculated by the model calculation unit 34 at the previous timing, and If it can be determined that the change is due to the movement of the host vehicle, that is, if the amount of change in the relative position approximates the value obtained by multiplying the running speed of the host vehicle and the elapsed time, grouping is performed at the current timing. The object corresponding to the detected point is determined to be a road structure. In other words, it is possible to determine whether or not the object corresponding to the detection point grouped at the latest timing is a road structure by using the determination result of the road structure previously performed. Of course, the simplest determination method, the determination unit 35 groups the detection points in the calculated road structures model and a predetermined positional relationship by the model calculating unit 34, corresponding to the grouped detection point The object may be determined to be a road structure.

また、本実施形態の判定部35は、グルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定する判定基準となる「位置関係」を、所定の条件に応じて更新する判定基準更新部351を有する。判定基準変更部351は、道路構造物に対応する検出ポイント以外の検出ポイントが、道路形状モデルに対して右側又は左側のいずれかの側にあるかを判断し、その判断結果に応じて検出ポイントがグルーピングの対象となるか否かの判断基準となる所定の位置関係を変更する。具体的に、道路構造モデルと所定距離以内にある検出ポイントをグルーピングする場合、道路構造物以外の物体(可動物体)が所在している側の「所定距離(判断基準となる位置関係)」を小さくする。つまり、可動物体が右側にあると判断した場合、右側の判断基準を厳しくする。これにより、他車両などの可動物体が存在する側の道路構造物を、より厳密な条件の下に正確に判定することができる。 Further, the determination unit 35 of the present embodiment updates the “positional relationship” serving as a determination criterion for determining whether or not the object corresponding to the grouped detection point is a road structure according to a predetermined condition. The determination reference update unit 351 is included. The determination criterion changing unit 351 determines whether a detection point other than the detection point corresponding to the road structure is on the right side or the left side with respect to the road shape model, and detects the detection point according to the determination result. Is changed to a predetermined positional relationship that is a criterion for determining whether or not to be a grouping target. Specifically, in the case of grouping the detection point is within the road structure model and a predetermined distance, "(positional relation of criterion) predetermined distance" on the side where the object other than the road structures (movable object) is located Make it smaller. That is, when it is determined that the movable object is on the right side, the determination criterion on the right side is tightened. Thereby, the road structure on the side where a movable object such as another vehicle is present can be accurately determined under more strict conditions.

本実施形態の制御手順を図4〜図7に基づいて説明する。
図4は、本実施形態の前方物体検出装置100の制御手順を示すフローチャートである。図5〜図7は、レーザレーダ200により自車両前方に出射された走査波の反射波に基づいて検出された物体の検出位置等を示す検出ポイントを示す説明図である。
本実施形態の前方物体検出装置100は、自車両600が走行している場合において、レーザレーダ200を用いて自車両600の前方に存在する物体の距離計測処理を行う。ここでは、図5に示すように、自車両600の前方方向のスキャン範囲内に物体A〜Eが存在する場合を例にして、制御手順を説明する。
The control procedure of this embodiment is demonstrated based on FIGS.
FIG. 4 is a flowchart showing a control procedure of the front object detection apparatus 100 of the present embodiment. 5 to 7 are explanatory views showing detection points indicating the detection position of the object detected based on the reflected wave of the scanning wave emitted forward of the host vehicle by the laser radar 200. FIG.
The front object detection device 100 of the present embodiment performs distance measurement processing of an object existing in front of the host vehicle 600 using the laser radar 200 when the host vehicle 600 is traveling. Here, as shown in FIG. 5, the control procedure will be described by taking as an example the case where objects A to E exist within the scan range in the forward direction of the host vehicle 600.

自車両に搭載されたレーザレーダ200は、スキャン範囲内(図中矢印で示す範囲)にレーザ光(走査波)を走査し、各物体からの反射波に基づいて距離計測処理をすることで、自車両600からスキャン範囲に含まれる各物体までの距離情報(位置情報)を取得し、この得られた距離情報に基づいて、自車両600に対する物体の位置を示す検出ポイントを検出する。検出情報取得手段20は、レーザレーダ200により生成された距離計測情報をメモリ50に記憶する(S1)。   The laser radar 200 mounted on the host vehicle scans a laser beam (scanning wave) within a scanning range (a range indicated by an arrow in the figure), and performs a distance measurement process based on a reflected wave from each object, Distance information (position information) from the own vehicle 600 to each object included in the scan range is acquired, and a detection point indicating the position of the object with respect to the own vehicle 600 is detected based on the obtained distance information. The detection information acquisition means 20 stores the distance measurement information generated by the laser radar 200 in the memory 50 (S1).

本例では、図5に示すように、本例のレーザレーダ200(図中、LRで表記)は、自車両600の前方にある物体A〜Eの位置情報を示す検出ポイントa〜mを検出し、検出情報取得手段20は検出ポイントa〜mを含む検出情報を取得する。図5は、物体A〜Eに関する検出ポイントa〜mを、計測された距離に従いプロットした図である。   In this example, as shown in FIG. 5, the laser radar 200 (denoted by LR in the figure) of this example detects detection points a to m indicating the position information of the objects A to E in front of the host vehicle 600. Then, the detection information acquisition means 20 acquires detection information including the detection points a to m. FIG. 5 is a diagram in which the detection points a to m related to the objects A to E are plotted according to the measured distance.

自車両に搭載された車両挙動検出装置300は、自車位置、自車両進行方向、自車両600の向き、及び移動距離を算出し、検出情報取得手段20へ送出する。検出情報取得手段20は、取得した検出情報をメモリ50に記憶する(同じくS1)。   The vehicle behavior detection device 300 mounted on the host vehicle calculates the host vehicle position, the host vehicle traveling direction, the direction of the host vehicle 600, and the movement distance, and sends them to the detection information acquisition unit 20. The detection information acquisition means 20 stores the acquired detection information in the memory 50 (also S1).

道路形状モデル算出手段10の道路形状情報取得部11は、レーザレーダ200の検出領域に応じた範囲で、道路形状情報をアクセス可能な地図データベース420から取得する。本例の道路形状情報取得部11は、レーザレーダ200から取得する検出情報の検出領域よりも広い所定領域の道路形状情報を取得する(S2)。具体的に、道路形状モデル算出手段10の取得範囲決定部12は、車両搭載の現在位置検出機能410(GPS機能)から得られた自車位置に基づいて地図データベース420を参照し、レーザレーダ200の検出領域よりも広い範囲、例えば、レーザレーダ200の検出領域が前方200mであるのに対して前方300m、レーザレーダ200の検出領域が左右100mであるのに対して左右150mの道路形状を示す座標情報(道路形状情報)を取得し、少なくとも一時的にメモリ50に記憶する。検出領域の広さと道路形状情報の取得領域の広さとの関係は、特に限定されず、レーザレーダの検出精度、演算処理容量、車両の走行速度などの要因に応じて適宜設定することができる。   The road shape information acquisition unit 11 of the road shape model calculation means 10 acquires road shape information from the accessible map database 420 within a range corresponding to the detection area of the laser radar 200. The road shape information acquisition unit 11 of this example acquires road shape information of a predetermined area wider than the detection area of the detection information acquired from the laser radar 200 (S2). Specifically, the acquisition range determination unit 12 of the road shape model calculation unit 10 refers to the map database 420 based on the vehicle position obtained from the current position detection function 410 (GPS function) mounted on the vehicle, and the laser radar 200. For example, the detection area of the laser radar 200 is 200 m ahead and the detection area of the laser radar 200 is 100 m right and left, whereas the detection area of the laser radar 200 is 150 m right and left. Coordinate information (road shape information) is acquired and stored in the memory 50 at least temporarily. The relationship between the width of the detection area and the width of the road shape information acquisition area is not particularly limited, and can be set as appropriate according to factors such as the detection accuracy of the laser radar, the calculation processing capacity, and the traveling speed of the vehicle.

道路形状モデル算出手段10のデータ変換部13は、取得した広域の道路形状情報を、レーザレーダ200の検出領域内に入るようにデータを圧縮する(S3)。データ変換部13は、メモリ50から前方の道路形状を示す座標情報(道路形状情報)を取得し、Z方向、X方向の座標値を、それぞれ予め任意に設定した所定値、Z方向を例えば7(所定値)、X方向を例えば2(所定値)で除してデータ圧縮を行い、広範囲の道路形状情報がレーザレーダ200の検出領域に入るように座標変換し、変換後の道路形状情報をメモリ50に記憶する。なお、道路形状情報のデータ変換方法は、広範囲のデータが所定の狭範囲に入るような手法(例えば、内挿処理等)であれば、特に限定されない。   The data converter 13 of the road shape model calculation means 10 compresses the data so that the acquired wide area road shape information falls within the detection area of the laser radar 200 (S3). The data conversion unit 13 obtains coordinate information (road shape information) indicating the road shape ahead from the memory 50, and sets the coordinate values in the Z direction and the X direction as predetermined values and Z directions that are arbitrarily set in advance, for example, 7 (Predetermined value), the X direction is divided by 2 (predetermined value), for example, data compression is performed, coordinate conversion is performed so that a wide range of road shape information falls within the detection area of the laser radar 200, and the converted road shape information is Store in the memory 50. Note that the road shape information data conversion method is not particularly limited as long as a wide range of data falls within a predetermined narrow range (for example, interpolation processing).

道路形状モデル算出手段10は、メモリ50からデータ変換された道路形状情報を取得し、多次元の道路形状モデルを算出し、メモリ50に記憶する(S4)。このように、地図データベース420からレーザレーダ200の検出領域よりも広範囲の道路形状情報を取得し、レーザレーダ200の検出領域に入るように座標変換を行った後、前方の道路形状モデルを算出するため、地図ベータベース420を基準として算出された道路形状モデルと自車両センサ(レーザレーダ200、車両挙動検出装置300)から得られる検出情報の位置とのズレ量を小さくすることができる。その結果、地図データベース420に基づく道路形状モデルと、検出情報に基づいて算出される道路構造物モデル情報とのズレ量を小さくすることが可能となり、正確な道路形状モデルを求めることができ、道路構造物を正確に検出することができる。このように、ずれ量の小さいデータに基づいて道路構造物の検出を行うため、処理効率を向上させることができる。   The road shape model calculation means 10 acquires the road shape information converted from the memory 50, calculates a multidimensional road shape model, and stores it in the memory 50 (S4). As described above, road shape information in a wider range than the detection area of the laser radar 200 is acquired from the map database 420, coordinate conversion is performed so as to enter the detection area of the laser radar 200, and then a road shape model ahead is calculated. Therefore, the amount of deviation between the road shape model calculated on the basis of the map beta base 420 and the position of the detection information obtained from the own vehicle sensor (laser radar 200, vehicle behavior detection device 300) can be reduced. As a result, the amount of deviation between the road shape model based on the map database 420 and the road structure model information calculated based on the detection information can be reduced, and an accurate road shape model can be obtained. A structure can be detected accurately. As described above, since the road structure is detected based on the data having a small deviation amount, the processing efficiency can be improved.

ちなみに、本実施形態の検出情報及び道路形状モデルは、処理タイミングが特定できるように処理タイミングの識別子が付加された状態でメモリ50に記憶される。処理タイミングの識別子は、処理カウントであってもよいし、処理タイミングの時刻であってもよいし、自車両の現在位置情報であってもよい。第1検出手段の道路構造物検出手段30は、最近処理された(最新の)道路形状モデル又は検出情報、過去に処理された(第nタイミングに処理された)道路形状モデル又は検出情報を取得することができる。   Incidentally, the detection information and the road shape model of the present embodiment are stored in the memory 50 with a processing timing identifier added so that the processing timing can be specified. The processing timing identifier may be a processing count, a processing timing time, or current position information of the host vehicle. The road structure detection means 30 of the first detection means obtains a recently processed (latest) road shape model or detection information, a road shape model or detection information processed in the past (processed at the nth timing). can do.

同様に、道路構造物検出手段30の検出結果、及び検出結果に至るまでの中途処理結果についても、処理タイミングの識別子が付加された状態でメモリ50に記憶される。このように本実施形態では、処理履歴をメモリ50に逐次記憶することにより、現在の時点における道路構造物検出処理において過去の検出結果又は中途処理結果を参照することができる。   Similarly, the detection result of the road structure detection means 30 and the midway processing result up to the detection result are also stored in the memory 50 with the processing timing identifier added. As described above, in the present embodiment, by sequentially storing the processing history in the memory 50, it is possible to refer to past detection results or midway processing results in the road structure detection processing at the current time point.

次に、S5〜S14までに係る道路構造物検出手段30の処理を説明する。
S5において、道路構造物検出手段30の検出領域設定部31は、道路形状モデル算出手段10により算出された道路形状モデルと、先のタイミングにおける前記道路構造物の検出位置とに基づいて、現タイミングにおける自車両前方の道路構造物を検出する検出領域を設定する(S5)。具体的に、検出領域設定部31は、メモリ50から道路形状モデル情報と過去の複数道路構造物モデル情報を取得し、道路形状モデルを基準として、近傍右側領域(領域1)、近傍左側領域(領域2)、遠方右側領域(領域3、近傍右側領域の外側の領域)、遠方左側領域(領域4、近傍左側の外側の領域)の4つの検出領域を設定する。各検出領域は、固定的に設定するのではなく、先のタイミングにおける道路構造物の検出結果に応じて設定する。
Next, the process of the road structure detection means 30 concerning S5-S14 is demonstrated.
In S5, the detection area setting unit 31 of the road structure detection unit 30 determines the current timing based on the road shape model calculated by the road shape model calculation unit 10 and the detection position of the road structure at the previous timing. A detection area for detecting a road structure ahead of the host vehicle is set (S5). Specifically, the detection area setting unit 31 acquires the road shape model information and past plural road structure model information from the memory 50, and uses the road shape model as a reference, the right side area (area 1), the left side area ( Four detection areas are set: area 2), far right area (area 3, area outside the right area near), and far left area (area 4, area outside the left area near). Each detection area is not set in a fixed manner, but is set according to the detection result of the road structure at the previous timing.

ここでは、各検出領域の設定手法について例を挙げて説明する。
まず、近傍左右領域(領域1、領域2)の設定方法について説明する。近傍左右領域は、先のタイミングにおいて、道路形状モデルに対して右側(又は左側)の近傍及び右側(又は左側)の遠方に道路構造物のモデルが算出されたか否か(道路構造物が存在する可能性があったか否か)に応じて設定する。もちろん、道路形状モデルに対して右側(又は左側)の近傍及び右側(又は左側)の遠方に道路構造物が存在すると判定されたか否かに応じて近傍左右の検出領域を設定してもよい。先述したが、道路構造物のモデルが算出されたか否か、又は道路構造物として判定された物体の位置については、各処理履歴を記憶するメモリ50を参照することにより取得することができる。
Here, a method for setting each detection area will be described with an example.
First, a method for setting neighboring right and left regions (region 1 and region 2) will be described. In the neighborhood left and right areas, whether or not a road structure model is calculated in the vicinity of the right (or left) and distant to the right (or left) with respect to the road shape model at the previous timing (the road structure exists) Set whether or not there was a possibility. Of course, the right and left detection areas may be set depending on whether or not it is determined that a road structure exists in the vicinity of the right (or left) and the right (or left) of the road shape model. As described above, whether the road structure model has been calculated or the position of the object determined as the road structure can be obtained by referring to the memory 50 storing each processing history.

以下に、設定条件(1)〜(3)の3つの場合における近傍右側の検出領域の設定手法を説明する。
(1)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが非検出の場合は、道路形状モデル上から右側7mまでの領域を近傍右側領域(領域1)として設定する。この条件(1)に基づいて設定された近傍右側領域(領域1)を図6に示した。
Below, the setting method of the detection area on the right side in the three cases of the setting conditions (1) to (3) will be described.
(1) When the road structure model is not detected in the vicinity of the right side of the road shape model at the previous timing, and the road structure model is not detected at the far right side of the road shape model at the previous timing, A region from the road shape model to the right side 7 m is set as a neighboring right region (region 1). FIG. 6 shows the near right region (region 1) set based on this condition (1).

(2)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左側3mから道路形状モデル上までの領域を近傍右側領域(領域1)として設定する。   (2) When the road structure model is not detected in the vicinity of the right side of the road shape model at the previous timing, and the road structure model is detected at the far right side of the road shape model at the previous timing, A region from the left side 3 m of the detected road structure model to the road shape model is set as a neighborhood right region (region 1).

(3)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左右3mの領域を近傍右側領域(領域1)として設定する。 (3) If a road structure model is detected in the vicinity of the right side of the road shape model at the previous timing, the left and right 3m area of the detected road structure model is set as the right side area (area 1). .

以下に、設定条件(4)〜(6)の3つの場合における近傍左側の検出領域の設定手法を説明する。   Hereinafter, a method for setting the detection region on the left side in the vicinity in the three cases of the setting conditions (4) to (6) will be described.

(4)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの左側の遠方に道路構造物モデルが非検出であった場合は、道路形状モデル上から左側7mまでの領域を近傍左側領域(領域2)として設定する。   (4) When the road structure model is not detected near the left side of the road shape model at the previous timing, and the road structure model is not detected at the far left side of the road shape model at the previous timing Sets the region from the road shape model to the left 7 m as the neighborhood left region (region 2).

(5)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの左側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルの右側3mから道路形状モデル上までの領域を近傍左側領域(領域2)として設定する。 (5) When the road structure model is not detected in the vicinity of the left side of the road shape model at the previous timing, and the road structure model is detected at the far left side of the road shape model at the previous timing, A region from the right side 3 m of the detected road structure model to the road shape model is set as a neighborhood left region (region 2).

(6)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左右3mの領域を近傍左側領域(領域2)として設定する。この条件(6)に基づいて設定された近傍左側領域(領域2)を図6に示した。   (6) If a road structure model is detected in the vicinity of the left side of the road shape model at the previous timing, the left and right 3 m regions of the detected road structure model are set as the vicinity left region (region 2). . FIG. 6 shows the vicinity left region (region 2) set based on this condition (6).

次に、遠方左右領域(領域3、領域4)の設定方法について説明する。遠方左右領域は、先のタイミングにおいて、道路形状モデルに対して右側(又は左側)の近傍及び右側(左側)の遠方に道路構造物のモデルが算出されたか否か(道路構造物が存在する可能性があったか否か)に応じて設定する。もちろん、道路形状モデルに対して右(又は左)近傍及び右(又は左)遠方に道路構造物が存在すると判定されたか否かに応じて遠方左右の検出領域を設定してもよい。先述したが、道路構造物のモデルが算出されたか否か、又は道路構造物として判定された物体の位置については、各処理履歴を記憶するメモリ50を参照することにより取得することができる。   Next, a method for setting the far left and right regions (region 3, region 4) will be described. In the far left and right areas, whether or not the road structure model is calculated in the vicinity of the right (or left) and the far right (left) with respect to the road shape model at the previous timing (the road structure may exist) Set according to whether or not there was sex. Of course, the far left and right detection regions may be set depending on whether or not it is determined that a road structure exists in the right (or left) vicinity and the right (or left) far side of the road shape model. As described above, whether the road structure model has been calculated or the position of the object determined as the road structure can be obtained by referring to the memory 50 storing each processing history.

以下に、設定条件(7)〜(9)の3つの場合における遠方右側の検出領域の設定手法を説明する。
(7)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが非検出であった場合、道路形状モデルから右側に9m以上離隔している領域を遠方右側領域(領域3)として設定する。この条件(7)に基づいて設定された遠方右側領域(領域3)を図6に示した。
Hereinafter, a method for setting the far right detection region in the three cases of the setting conditions (7) to (9) will be described.
(7) When the road structure model is not detected near the right side of the road shape model at the previous timing, and the road structure model is not detected at the far right side of the road shape model at the previous timing A region that is separated from the road shape model by 9 m or more on the right side is set as the far right region (region 3). The far right region (region 3) set based on this condition (7) is shown in FIG.

だたし、後述する起点抽出部において、道路形状モデルの近傍右側の検出領域で起点が抽出された場合は、道路形状モデルから起点までの距離に3m付加した加算距離を算出し、道路形状モデルから加算距離以上離隔している領域を優先的に遠方右側領域(領域3)とする。   However, when a starting point is extracted in the detection area on the right side of the road shape model in the starting point extraction unit to be described later, an additional distance obtained by adding 3 m to the distance from the road shape model to the starting point is calculated, and the road shape model is calculated. An area that is more than the addition distance from the area is preferentially the far right area (area 3).

(8)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが検出され、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデル非検出である場合、検出された道路構造物モデルから右側に3m以上離隔している領域を遠方右側領域(領域3)として設定する。 (8) A road structure model is detected in the vicinity of the right side of the road shape model at the previous timing, and is detected when the road structure model is not detected in the far side of the road shape model at the previous timing. An area that is separated from the road structure model by 3 m or more on the right side is set as a far right area (area 3).

(9)先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左側3mから検出された道路構造物モデルの右側5mまでの領域を遠方右側領域(領域3)として設定する。   (9) At the previous timing, when a road structure model is detected far away on the right side of the road shape model, from the left side 3 m of the detected road structure model to the right side 5 m of the detected road structure model The area is set as the far right area (area 3).

以下に、設定条件(10)〜(12)の3つの場合における遠方左側の検出領域の設定手法を説明する。
(10)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが非検出であって、道路形状モデルの左側の遠方に道路構造物モデルが非検出である場合は、検出された道路形状モデルから左側に9m以上離隔している領域を遠方左側領域(領域4)として設定する。だたし、後述する起点抽出部32において、道路形状モデルの近傍の左側領域で起点が抽出された場合は、道路形状モデルから起点までの距離に3mを付加した加算距離を算出し、道路形状モデルから加算距離以上離隔している領域を優先的に遠方左側領域(領域4)とする。
Hereinafter, a method for setting the far left detection region in the three cases of the setting conditions (10) to (12) will be described.
(10) If the road structure model is not detected in the vicinity of the left side of the road shape model and the road structure model is not detected in the far left side of the road shape model at the previous timing, it is detected. A region that is separated from the road shape model by 9 m or more on the left side is set as a far left region (region 4). However, when a starting point is extracted in the left region in the vicinity of the road shape model in the starting point extraction unit 32 to be described later, an addition distance obtained by adding 3 m to the distance from the road shape model to the starting point is calculated. A region that is separated from the model by more than the addition distance is preferentially a far left region (region 4).

(11)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが検出され、道路形状モデルの左側の遠方に道路構造物モデルが非検出である場合、検出された道路構造物モデルから左側に3m以上離隔している左側の領域を遠方左側領域(領域4)として設定する。この条件(11)に基づいて設定された遠方左側領域(領域4)を図6に示した。   (11) When the road structure model is detected in the vicinity of the left side of the road shape model at the previous timing and the road structure model is not detected in the far side of the left side of the road shape model, the detected road structure model The left area separated from the left by 3 m or more to the left is set as the far left area (area 4). The far left region (region 4) set based on this condition (11) is shown in FIG.

(12)先のタイミングにおいて、道路形状モデルの左側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルから左側3mから左側5mまでの領域を遠方左側領域(領域4)として設定する。   (12) When a road structure model is detected at the far left side of the road shape model at the previous timing, an area from the left 3 m to the left 5 m from the detected road structure model is set as the far left area (area 4 ).

次にS6へ進む。道路構造物検出手段30の起点抽出部32は、検出領域設定部31により設定された検出領域ごとに道路構造物モデルの起点となる検出ポイントを抽出する(S6)。検出領域は、図6に基づいて説明した、近傍右側領域(領域1)、近傍左側領域(領域2)、遠方右側領域(領域3)、遠方左側領域(領域4)の4つの領域である。本例の起点抽出部32は、1の検出領域に起点となる1の検出ポイントを抽出する。起点抽出部32は、上記4つの各検出領域に含まれる検出ポイントのうち、Z方向の距離差が小さく(距離差が所定値以下)、かつX方向に隣接する(距離が所定値以下の)他の検出ポイントが存在しない検出ポイントであって、自車両に最も近い検出ポイントを、道路構造物モデルに対応する線分を検出する開始点(以下起点とする)として抽出し、メモリ50に記憶する。Z方向の距離差が少ない検出ポイントを起点とすることにより、自車両に近い道路構造物の存在を検出することができる。また、X方向に沿って分布する検出ポイントを起点としないことにより、進行方向に延在する道路構造物を適切に検出することができる。   Next, the process proceeds to S6. The starting point extraction unit 32 of the road structure detecting means 30 extracts a detection point that is a starting point of the road structure model for each detection region set by the detection region setting unit 31 (S6). The detection areas are the four areas described with reference to FIG. 6, the right side area (area 1), the left side area (area 2), the far right area (area 3), and the far left area (area 4). The starting point extraction unit 32 of this example extracts one detection point that is a starting point in one detection region. The starting point extraction unit 32 has a small distance difference in the Z direction (distance difference is a predetermined value or less) and is adjacent to the X direction (distance is a predetermined value or less) among the detection points included in each of the four detection regions. A detection point that does not have other detection points and is closest to the host vehicle is extracted as a starting point (hereinafter referred to as a starting point) for detecting a line segment corresponding to the road structure model, and stored in the memory 50. To do. By using a detection point with a small distance difference in the Z direction as a starting point, the presence of a road structure close to the host vehicle can be detected. Further, by not using the detection points distributed along the X direction as starting points, it is possible to appropriately detect a road structure extending in the traveling direction.

本例において抽出した起点を図7に示した。起点抽出部32は、近傍右側領域(領域1)に含まれる検出ポイントから検出ポイントdを起点1として抽出する。検出ポイントe,fは、検出ポイントdよりもレーザレーダ200に近いが、X方向に隣接する(距離が所定値以下)検出ポイントが存在するため、起点として抽出されない。起点抽出部32は、近傍左側領域(領域2)に含まれる検出ポイントから検出ポイントmを起点2として抽出する。検出ポイントg,iは、検出ポイントmよりもレーザレーダ200に近いが、X方向に隣接する(距離が所定値以下)検出ポイントが存在するため、起点として抽出されない。遠方右側領域(領域3)には検出ポイントが含まれないため、この領域において起点は抽出しない。起点抽出部32は、遠方左側領域(領域4)に含まれる検出ポイントから検出ポイントlを起点として抽出する。   The starting points extracted in this example are shown in FIG. The starting point extraction unit 32 extracts the detection point d as the starting point 1 from the detection points included in the neighboring right region (region 1). The detection points e and f are closer to the laser radar 200 than the detection point d, but are not extracted as starting points because there are detection points adjacent in the X direction (distance is equal to or less than a predetermined value). The starting point extraction unit 32 extracts the detection point m as the starting point 2 from the detection points included in the vicinity left region (region 2). The detection points g and i are closer to the laser radar 200 than the detection point m, but are not extracted as starting points because there are detection points adjacent in the X direction (distance is equal to or less than a predetermined value). Since the far right region (region 3) does not include detection points, no starting point is extracted in this region. The starting point extraction unit 32 extracts the detection point 1 as a starting point from the detection points included in the far left region (region 4).

次に、線分検出部33は、起点抽出部32により抽出された起点と、その起点と所定の位置関係にある検出ポイントとを順次連結して、1又は2以上の線分を検出する(S7,S8)。起点は各検出領域に1つづつ抽出されるため、起点から連結される線分も各検出領域に1線分づつ検出される。   Next, the line segment detection unit 33 detects one or more line segments by sequentially connecting the start point extracted by the start point extraction unit 32 and the detection point having a predetermined positional relationship with the start point ( S7, S8). Since the starting points are extracted one by one in each detection area, the line segments connected from the starting points are also detected by one line segment in each detection area.

本実施形態では、道路形状モデルに対する相対的位置に応じた2つの線分を検出する。
第1線分検出部331は、メモリ50から近傍左右領域(領域1及び2)の各起点及び道路形状モデルに対する距離のしきい値T1(所定値)を取得する。そして、線分検出部33の第1線分検出部331は、抽出された起点と所定の位置関係にある検出ポイントであって、道路形状モデルに対する距離が所定値未満の検出ポイントを、起点となる検出ポイントから順次連結した第1線分(道路構造物線分1)を検出する(S7)。
In the present embodiment, two line segments corresponding to the relative position with respect to the road shape model are detected.
The first line segment detection unit 331 acquires a threshold value T1 (predetermined value) of the distance from each starting point and road shape model of the neighboring left and right regions (regions 1 and 2) from the memory 50. The first line segment detection unit 331 of the line segment detection unit 33 is a detection point having a predetermined positional relationship with the extracted start point, and a detection point whose distance to the road shape model is less than a predetermined value is set as the start point. The first line segment (road structure line segment 1) sequentially connected from the detection point is detected (S7).

道路形状モデルに対して右側近傍領域における第1線分の検出処理を例にして説明する。自車両600から100m離れた道路形状モデル上の地点の横位置(X方向の座標値)が、自車両600に対して右側にずれている場合(道路形状モデルに対応する道路が進行方向右側に曲がっている場合)は、起点から遠方右側に存在し、道路形状モデルまでのX方向の距離(以下、X1とする)がしきい値T1未満の検出ポイント同士を比較して、道路形状モデルに沿う略直線上に位置する検出ポイントからなる線分を検出する。ここで、「検出ポイントが略直線上に位置する」とは、2点の傾きが所定範囲内である場合、少なくとも傾きが略同一である場合、求められた回帰直線から各検出ポイントまでの鉛直ずれ量が所定値以下である場合など、対象となる検出ポイントに基づいて直線が導ければよく、厳密に限定されない。   The detection process of the first line segment in the right vicinity region will be described as an example with respect to the road shape model. When the lateral position (the coordinate value in the X direction) of the point on the road shape model 100 m away from the own vehicle 600 is shifted to the right side with respect to the own vehicle 600 (the road corresponding to the road shape model is on the right side in the traveling direction) (When bent) is present on the far right side from the starting point, and the detected points whose distance in the X direction to the road shape model (hereinafter referred to as X1) is less than the threshold value T1 are compared with each other to obtain a road shape model. A line segment composed of detection points located on a substantially straight line is detected. Here, “the detection point is positioned on a substantially straight line” means that the vertical point from the obtained regression line to each detection point is when the inclination of the two points is within a predetermined range, or at least the inclination is substantially the same. In the case where the deviation amount is equal to or less than a predetermined value, a straight line may be derived based on the target detection point, and the present invention is not strictly limited.

具体的に、まず、X1がT1未満で、起点から走行方向に向かって離隔し、かつ起点に近接する(最も距離が小さい)検出ポイントを第1連結可能点として抽出する。さらに、X1がT1未満で、第1連結可能点の右側に近接する検出ポイントを第2連結ポイントとして抽出する。このように抽出した起点、第1連結ポイント、第2連結ポイントの相対的位置関係を導き、これら3点が所定の略直線上に位置するという所定の位置関係にある場合、これらの検出ポイントを起点から順次連結して1又は2以上の線分を検出する。 Specifically, first, detection points where X1 is less than T1, are separated from the starting point in the traveling direction, and are close to the starting point (the shortest distance) are extracted as first connectable points. Furthermore, a detection point that is close to the right side of the first connectable point with X1 less than T1 is extracted as a second connection point. When the relative position relationship between the starting point, the first connection point, and the second connection point extracted as described above is derived and these three points are located on a predetermined substantially straight line, these detection points are One or more line segments are detected by connecting sequentially from the starting point.

他方、3点が略直線上に位置していないと判断された場合、起点から走行方向に離隔し、X1がT1未満であって、第2連結可能点の走行方向右側に近接する検出ポイントを第3連結可能点として抽出する。そして、起点と第1、第2、第3連結可能点のうち2点が略直線上に並んでいれば、それを線分として検出する。ここでも、所定の略直線上に並ぶ検出ポイントが存在しなければ、第1〜第3連結可能点のうち、自車両に近い2点を第1、第2連結可能点として残し、起点よりも走行方向に離隔し、X1がT1未満で、さらに右側に検出された検出ポイントを新たな第3連結可能点として抽出し、再度、起点、第1、第2、第3連結可能点のうち2点が所定の略直線上に位置するか否かを判断する。このような処理を、線分を構成する可能性がある検出ポイントが存在しなくなるまで、繰り返す。   On the other hand, if it is determined that the three points are not located on a substantially straight line, a detection point that is separated from the starting point in the traveling direction, and that X1 is less than T1 and is close to the right side in the traveling direction of the second connectable point. Extracted as a third connectable point. If two points of the starting point and the first, second, and third connectable points are arranged on a substantially straight line, it is detected as a line segment. Also here, if there are no detection points lined up on a predetermined substantially straight line, of the first to third connectable points, the two points close to the host vehicle are left as the first and second connectable points, rather than the starting point. A detection point that is separated in the traveling direction, X1 is less than T1, and is detected on the right side is extracted as a new third connectable point, and again, 2 of the start points, the first, second, and third connectable points It is determined whether or not the point is located on a predetermined substantially straight line. Such processing is repeated until there is no detection point that may constitute a line segment.

起点より遠方にあり,X1がT1以下の全ての検出ポイントに対してこの処理を行い、線分を検出し、直線を構成する検出ポイント数、自車両から最も遠い検出ポイント(以下終点という)、直線の傾きをメモリ50に記憶する。ここで、所定の略直線上に位置する3つの検出ポイントが存在しなければ、起点と、起点に近接する(距離が最小の)連結可能点を結ぶ線分を検出し、直線を構成する検出点数、終点、直線の傾きをメモリ50に記憶する。   This process is performed on all detection points that are far from the starting point and X1 is equal to or less than T1, detects a line segment, the number of detection points that form a straight line, the detection point that is farthest from the host vehicle (hereinafter referred to as the end point), The inclination of the straight line is stored in the memory 50. Here, if there are no three detection points located on a predetermined substantially straight line, a line segment connecting the starting point and a connectable point close to the starting point (with the smallest distance) is detected, and a straight line is formed. The number of points, end point, and straight line inclination are stored in the memory 50.

また、自車両から道路形状モデル上の100m地点の横位置が自車両600に対して左側にずれている場合についても、起点から走行方向に離隔し、X1がT1未満で、起点の走行方向左側に存在する検出ポイントを対象として、先述した道路形状モデルが右側にずれている場合と同様の手法で、連結可能点を抽出して線分を検出する。そして、検出した直線を構成する検出ポイント数,終点、直線の傾きをメモリ50に記憶する。   Further, when the lateral position of the 100 m point on the road shape model from the own vehicle is shifted to the left side with respect to the own vehicle 600, it is separated from the starting point in the driving direction, and X1 is less than T1, and the starting point is left in the driving direction. In the same manner as in the case where the road shape model described above is shifted to the right side, the line segments are detected by extracting the connectable points. Then, the number of detected points, the end point, and the slope of the straight line that constitute the detected straight line are stored in the memory 50.

次に、第2線分検出部332は、メモリ50から遠方左右領域(領域3及び4)の各起点及び道路形状モデルに対する距離のしきい値T2(所定値)を取得する。そして、線分検出部33の第2線分検出部332は、抽出された起点と所定の位置関係にある検出ポイントであって、道路形状モデルに対する距離が所定値以上の検出ポイントを、起点となる検出ポイントから順次連結した第2線分(道路構造物線分2)を検出する(S8)。 Next, the second line segment detection unit 332 acquires the threshold value T2 (predetermined value) of the distance from each starting point of the far left and right regions (regions 3 and 4) and the road shape model from the memory 50. Then, the second line segment detection unit 332 of the line segment detection unit 33 is a detection point having a predetermined positional relationship with the extracted starting point, and a detection point whose distance to the road shape model is greater than or equal to a predetermined value is set as the starting point. A second line segment (road structure line segment 2) sequentially connected from the detection point is detected (S8).

ここでは、道路形状モデルに対して右側遠方領域(領域3)における第2線分の検出処理を例にして説明する。遠方左右領域は、道路形状に依存しないため、起点から遠方右側に存在し、X1がT2以上の検出ポイントを比較し、検分を検出する。   Here, the detection process of the second line segment in the far right region (region 3) with respect to the road shape model will be described as an example. Since the far left and right regions do not depend on the road shape, they exist on the far right side from the starting point, and detection is detected by comparing detection points with X1 equal to or greater than T2.

まず,X1がT2以上で、起点から走行方向に離隔し、走行方向右側に近接する検出ポイントを第1連結可能点として抽出する。次に、起点から走行方向に離隔し、X1がT2以上であって、第1連結可能点の右側に近接する検出ポイントを第2連結可能点として抽出する。そして、起点、第1連結可能点、第2連結可能点が所定の略直線上に位置する場合は、これを線分として検出する。   First, a detection point that is X1 is equal to or greater than T2 and is separated from the starting point in the traveling direction and close to the right side in the traveling direction is extracted as a first connectable point. Next, a detection point that is separated from the starting point in the traveling direction and has X1 of T2 or more and close to the right side of the first connectable point is extracted as a second connectable point. If the starting point, the first connectable point, and the second connectable point are located on a predetermined substantially straight line, this is detected as a line segment.

また、検出した3点が所定の略直線上に並んでいなければ、起点より走行方向に向かって離隔し、X1がT2以上であって、第2連結可能点の右側に近接する検出ポイントを第3連結可能点として抽出する。これら起点と第1,第2,第3連結可能点のうち2点が所定の略直線上に並んでいれば、これを線分として検出する。他方、所定の略直線上に位置する検出ポイントが存在しなければ、第1〜第3連結可能点のうち、自車両に近い2点を第1,第2連結可能点とし、起点から走行方向に離隔し、X1がT2以上であって、さらに右側に近接する検出ポイントを新たな第3連結可能点として抽出する。そして、再度起点と第1,第2,第3連結可能点のうち2点が所定の略直線上に位置するか否かを判断する。   Further, if the detected three points are not aligned on a predetermined substantially straight line, a detection point that is separated from the starting point in the traveling direction, X1 is T2 or more, and is close to the right side of the second connectable point. Extracted as a third connectable point. If two of these starting points and the first, second, and third connectable points are aligned on a predetermined substantially straight line, this is detected as a line segment. On the other hand, if there is no detection point located on a predetermined substantially straight line, out of the first to third connectable points, two points close to the host vehicle are set as the first and second connectable points, and the traveling direction from the starting point , And a detection point that is closer to the right side with X1 being T2 or more is extracted as a new third connectable point. Then, it is determined again whether two of the starting point and the first, second and third connectable points are located on a predetermined substantially straight line.

このような処理を、線分を構成する可能性のある検出ポイントが存在しなくなるまで繰り返す。起点より遠方にあり,X1がT2以上の全ての検出点に対して行い,線分を検出する。検出した線分について、検出ポイント数、終点、線分の傾きをメモリ50に記憶する。   Such processing is repeated until there is no detection point that may constitute a line segment. The detection is performed for all detection points that are far from the starting point and have X1 equal to or greater than T2, and line segments are detected. For the detected line segment, the number of detected points, the end point, and the slope of the line segment are stored in the memory 50.

道路形状モデルに対して左側遠方領域(領域4)における第2線分の検出処理についても、右側遠方領域と同様に行う。すなわち、起点から走行方向に向かって離隔し、起点に対して左側に存在するとともに、X1がT2以上の検出ポイント同士を比較し、起点から遠方右側に存在する場合と同様な手法で連結可能点を順次抽出し、線分を検出する。線分を構成する検出ポイントが最も多い線分を該当領域の線分として検出し、検出ポイント数、終点。線分の傾きをメモリ50に記憶する。   The detection processing of the second line segment in the left far region (region 4) with respect to the road shape model is performed in the same manner as in the right far region. In other words, it is separated from the starting point in the traveling direction, exists on the left side with respect to the starting point, and can be connected by a method similar to that in the case where X1 is compared with the detecting points having T2 or more and located on the far right side from the starting point. Are sequentially extracted to detect line segments. The line segment with the most detection points composing the line segment is detected as the line segment of the corresponding area, the number of detection points, and the end point. The inclination of the line segment is stored in the memory 50.

上記のような制御手順で検出処理を行うことにより、本例では、図7に示すように、右側近傍領域において抽出された起点1(検出ポイントd)に基づいて、検出ポイントcを第1連結可能点として、検出ポイントbを第2連結可能点として、検出ポイントaを第3連結ポイントとして抽出し、このうち略直線上に位置する3点a,b,dにより導かれた直線を第1線分10として検出する。   By performing the detection process according to the control procedure as described above, in this example, as shown in FIG. 7, the detection point c is connected to the first connection based on the starting point 1 (detection point d) extracted in the right vicinity region. As possible points, the detection point b is extracted as the second connectable point, the detection point a is extracted as the third connection point, and the straight line derived from the three points a, b, d located on the substantially straight line is the first. Detected as line segment 10.

また、左側近傍領域において抽出された起点2(検出ポイントm)に基づいて、検出ポイントjを第1連結可能点として、検出ポイントhを第2連結可能点として抽出し、これら3点h,j,mにより導かれた直線を第1線分11として検出する。第1線分10及び第1線分11は、道路形状モデルに依存する線分である。   Further, based on the starting point 2 (detection point m) extracted in the left vicinity region, the detection point j is extracted as the first connectable point and the detection point h is extracted as the second connectable point, and these three points h, j , M is detected as the first line segment 11. The first line segment 10 and the first line segment 11 are line segments that depend on the road shape model.

さらに、左側遠方領域において抽出された起点4(検出ポイントl)に基づいて、検出ポイントkを第1連結可能点として抽出し、これら2点k,lにより導かれた直線を第2線分12として検出する。第2線分12は、道路形状モデルに依存しない線分である。なお、検出ポイントe,f,g,i及びcは、線分を構成しないと判断される。   Further, based on the starting point 4 (detection point l) extracted in the left far region, the detection point k is extracted as the first connectable point, and the straight line derived from these two points k and l is the second line segment 12. Detect as. The second line segment 12 is a line segment that does not depend on the road shape model. Note that the detection points e, f, g, i, and c are determined not to form a line segment.

このように、地図データベース420から求めた道路形状モデルを基準として設定した各領域おいて起点をそれぞれ抽出し、起点から延びる線分を検出することにより、自車両600の走行道路の道路形状に沿った(道路形状に依存する)線分が検出される領域と、道路形状に依存しない線分を検出する領域を設定し、それぞれの領域に応じた線分を検出することができる。特に、前方に分岐があるような複雑な構造を有する場合であっても正確に道路構造物を検出することができる。このように検出された線分に基づいて、道路構造物モデルを算出することにより、道路構造物を正確に検出することができる。 Thus, Oite origin extracted to each area set based on the road shape model obtained from the map database 420, by detecting a line segment extending from the starting point, the road shape of the traveling road of the vehicle 600 It is possible to set a region where a line segment along (depending on the road shape) is detected and a region where a line segment independent of the road shape is detected, and detect a line segment corresponding to each region. In particular, it is possible to accurately detect a road structure even when it has a complicated structure with a branch ahead. The road structure can be accurately detected by calculating the road structure model based on the detected line segment.

続いて、モデル算出部34は、線分検出部33により検出された線分に基づいて、道路構造物の形状を近似する道路構造物モデルを算出する(S9)。具体的に、モデル算出部34は、メモリ50から検出された線分に関する情報及びしきい値T3を取得し、取得した線分情報に基づいて、自車両600の走行方向前方の道路形状を示す近似線Lを算出する。   Subsequently, the model calculation unit 34 calculates a road structure model that approximates the shape of the road structure based on the line segment detected by the line segment detection unit 33 (S9). Specifically, the model calculation unit 34 acquires information about the line segment detected from the memory 50 and the threshold value T3, and indicates the road shape ahead of the traveling direction of the host vehicle 600 based on the acquired line segment information. The approximate line L is calculated.

検出された各線分の傾きの絶対値が、しきい値T3以上である場合、道路構造物は直線状に並んでいると判断し、線分を構成する検出ポイント(線分情報に含まれる)を回帰分析し、式(1)で示す近似曲線Lを算出する。
近似曲線L: X=a1+b1*Z …(1)
また、線分の傾きの絶対値が、しきい値T3未満である場合、道路構造物は曲線状に並んでいると判断し、線分を構成する検出ポイントを重回帰分析し、式(2)で示される近似曲線Lを算出する。
近似曲線L: X=a1+b1*Z+c1*Z …(2)
算出した近似曲線Lに関する近似曲線情報をメモリ50に記憶する。
If the absolute value of the slope of each detected line segment is equal to or greater than the threshold value T3, it is determined that the road structures are arranged in a straight line, and detection points constituting the line segment (included in the line segment information) Is subjected to regression analysis to calculate an approximate curve L represented by Expression (1).
Approximate curve L: X = a1 + b1 * Z (1)
Further, when the absolute value of the slope of the line segment is less than the threshold value T3, it is determined that the road structures are arranged in a curved line, the detection points constituting the line segment are subjected to multiple regression analysis, and the equation (2) ) Is calculated.
Approximate curve L: X = a1 + b1 * Z + c1 * Z 2 (2)
The approximate curve information regarding the calculated approximate curve L is stored in the memory 50.

次に、判定部35は、この算出された近似曲線Lで表現された道路構造物モデルと検出ポイントに基づいて、道路構造物を判定する。つまり、判定部35は、道路構造物モデルと所定の位置関係にある検出ポイントをグルーピングし、このグルーピングされた検出ポイントを道路構造物として判定する。   Next, the determination unit 35 determines the road structure based on the road structure model and the detection point expressed by the calculated approximate curve L. That is, the determination unit 35 groups detection points that have a predetermined positional relationship with the road structure model, and determines the grouped detection points as road structures.

本実施形態では、道路構造物モデルであるか否かを判定するに先立って、その判定基準の変更を行う(S10)。判定基準変更部351は、メモリ50から前回の道路構造物モデル情報と、前回の道路構造物以外の物体(以下、説明の便宜のため「可動物体」と称することもある)に対応する検出ポイントに関する情報及びしきい値T4l、T4rを取得する。ここで「前回の道路構造物以外の物体に対応する検出ポイント」とは、先に判定部35により道路構造物であると判定された物体以外の物体、例えば先行車両、走行道路に駐停車中の車両などに対応する検出ポイントである。道路構造物以外の物体に対応する検出ポイントの情報は、先の道路構造物判定処理にあたって判定部35によりメモリ50に記憶された情報であってもよいし、レーザレーダ200により移動障害物として検出された検出ポイントの情報であってもよい。また、第2実施形態に詳細に説明する第2検出手段(可動物体検出手段)40の第2グルーピング部42により、先の処理において求められた第2グルーピング情報であってもよい。   In this embodiment, prior to determining whether or not a road structure model, the determination criteria are changed (S10). The determination criterion changing unit 351 detects the previous road structure model information from the memory 50 and detection points corresponding to an object other than the previous road structure (hereinafter also referred to as “movable object” for convenience of explanation). Information and threshold values T4l and T4r. Here, the “detection point corresponding to an object other than the previous road structure” refers to an object other than the object that has been previously determined to be a road structure by the determination unit 35, for example, a preceding vehicle or parked on a traveling road. It is a detection point corresponding to a vehicle or the like. The information of the detection point corresponding to the object other than the road structure may be information stored in the memory 50 by the determination unit 35 in the previous road structure determination process, or detected as a moving obstacle by the laser radar 200. The detected point information may be used. Further, the second grouping information obtained in the previous process by the second grouping unit 42 of the second detection unit (movable object detection unit) 40 described in detail in the second embodiment may be used.

判定基準変更部351は、可動物体が、算出された道路構造物モデルの右側又は左側のいずれの側に存在するかを判断し、可動物体が存在する側のしきい値(道路構造物モデルからの距離)を可動物体が存在しない側のしきい値よりも狭い範囲とする。このように、道路構造物モデルの近傍領域に車両等の可動物体が存在する場合には、可動物体が存在する側に検出された検出ポイントの判定を行うときに用いられるしきい値を厳しく設定することにより、道路構造物と車両等の可動物体が近接する場合、可動物体に対応する検出ポイントを道路構造物に対応する検出ポイントと誤って判定することを防止することができる。   The determination criterion changing unit 351 determines whether the movable object exists on the right side or the left side of the calculated road structure model, and determines the threshold value (from the road structure model) on the side where the movable object exists. Is a range narrower than the threshold on the side where no movable object exists. In this way, when a moving object such as a vehicle exists in the vicinity region of the road structure model, the threshold value used when determining the detection point detected on the side where the moving object exists is set strictly. Thus, when a road structure and a movable object such as a vehicle are close to each other, it is possible to prevent the detection point corresponding to the movable object from being erroneously determined as the detection point corresponding to the road structure.

判定部35は、モデル算出部34により算出された近似曲線L(道路モデル)から各検出ポイントまでの距離D1をそれぞれ算出する。そして、検出ポイントが道路構造物モデルの左側に存在する場合には、当該算出された距離D1としきい値T4lとを比較し、距離D1がしきい値T4l未満である検出ポイントを道路構造物データ(道路構造物を構成する検出ポイント)と判定する(S11)。また、検出ポイントが道路構造物モデルの右側に存在する場合には、当該算出された距離D1としきい値T4rとを比較し、距離D1がしきい値T4r未満である検出ポイントを道路構造物データと判定する(S11)。ここで、しきい値T4l、T4rは、近似曲線Lの次数が1次の場合には、レーザレーダ200の測定精度よりも若干大きい値に設定し、2次の場合は、1次よりも大きい値に設定することが好ましい。   The determination unit 35 calculates the distance D1 from the approximate curve L (road model) calculated by the model calculation unit 34 to each detection point. When the detection point is present on the left side of the road structure model, the calculated distance D1 is compared with the threshold value T41, and the detection point whose distance D1 is less than the threshold value T41 is determined as road structure data. It is determined that the detection point is a road structure (S11). When the detection point is present on the right side of the road structure model, the calculated distance D1 is compared with the threshold value T4r, and the detection point whose distance D1 is less than the threshold value T4r is determined as road structure data. (S11). Here, the threshold values T4l and T4r are set to values slightly larger than the measurement accuracy of the laser radar 200 when the order of the approximate curve L is first order, and larger than the first order in the second order. It is preferable to set the value.

図8に基づいて、本例の処理を説明する。判定部35は、メモリ50から検出情報(検出ポイントの距離計測情報)、道路形状モデル(近似曲線情報)、及びしきい値T4l、T4rを取得し、当該取得された情報に基づいて、以下の処理を行う。なお、図8に示すように、本実施形態では、道路構造物モデルに対して左側に可動物体(道路構造物以外の物体)が存在するため、道路構造物モデルの左側の検出ポイントが道路構造物データであるか否かを判断するしきい値(所定値T4l)は、道路構造物モデルの右側の検出ポイントが道路構造物データであるか否かを判断するしきい値(所定値T4r)よりも小さい。   Based on FIG. 8, the processing of this example will be described. The determination unit 35 acquires detection information (detection point distance measurement information), a road shape model (approximate curve information), and threshold values T4l and T4r from the memory 50, and based on the acquired information, the following information is obtained. Process. As shown in FIG. 8, in the present embodiment, since a movable object (an object other than a road structure) exists on the left side of the road structure model, the detection point on the left side of the road structure model is the road structure. A threshold value (predetermined value T4l) for determining whether or not the object data is a threshold value is a threshold value (predetermined value T4r) for determining whether or not the detection point on the right side of the road structure model is road structure data. Smaller than.

判定部35は、検出ポイントが道路構造物モデルから所定の距離範囲にあるか否かによって、検出ポイントが道路構造物データであるか否かを判断する(S12)。   The determination unit 35 determines whether or not the detection point is road structure data depending on whether or not the detection point is within a predetermined distance range from the road structure model (S12).

道路構造物データと判断された検出ポイント同士はグルーピングされ(図8のA,D,E)、グルーピングされた検出ポイントに対応する物体は道路構造物と判定される(S13)。検出結果出力部36は、判定された道路構造物に関する検出結果を外部へ向けて出力する(S14)。道路構造物の存在、位置等の検出結果は、出力装置500に向けて出力され、ディスプレイ等の提示装置によりユーザに提示される。また、これらの検出結果は、運転支援システム等に向けて出力され、さらに運転支援用のデータに加工されてもよい。   Detection points determined to be road structure data are grouped (A, D, E in FIG. 8), and an object corresponding to the grouped detection points is determined to be a road structure (S13). The detection result output unit 36 outputs the detection result related to the determined road structure to the outside (S14). Detection results such as the presence and position of the road structure are output toward the output device 500 and presented to the user by a presentation device such as a display. These detection results may be output to a driving support system or the like, and further processed into driving support data.

なお、判定部35は、道路構造物データと判定された検出ポイントを回帰分析して、近似曲線Lを再度算出してもよい。次いで、道路構造物として検出された検出ポイント及び算出された近似曲線Lに関する道路構造物情報を生成し、メモリ50に記憶する。   The determination unit 35 may recalculate the approximate curve L by performing regression analysis on the detection points determined to be road structure data. Next, road structure information related to the detected points detected as road structures and the calculated approximate curve L is generated and stored in the memory 50.

本例では、図8に示すように、近似曲線Lから各検出点a〜mまでの距離D1をそれぞれ算出し、当該算出された距離D1としきい値T4lまたはT4rと比較する。この結果、図8に示すように、検出ポイントa、b、d、h、j、m、k、lを道路構造物データと判定し、道路構造物モデル(近似曲線1)から所定の距離範囲内にある検出ポイントa、b、dはグルーピングされて、道路構造物Aとして判定される。道路構造物モデル(近似曲線2)から所定の距離範囲内にある検出ポイントh、j、mはグルーピングされて、道路構造物Dとして判定される。さらに、道路構造物モデル(近似曲線3)から所定の距離範囲内にある検出ポイントk、lはグルーピングされて、道路構造物Eとして判定される。この場合、検出結果出力部36は、図5に示す物体A,D,Eのように道路構造物形状の物体の検出結果を出力することが好ましい。   In this example, as shown in FIG. 8, distances D1 from the approximate curve L to each of the detection points a to m are calculated, and the calculated distance D1 is compared with a threshold value T4l or T4r. As a result, as shown in FIG. 8, the detection points a, b, d, h, j, m, k, and l are determined as road structure data, and a predetermined distance range from the road structure model (approximate curve 1). The detection points a, b, and d inside are grouped and determined as a road structure A. Detection points h, j, and m within a predetermined distance range from the road structure model (approximate curve 2) are grouped and determined as road structure D. Furthermore, the detection points k and l within the predetermined distance range from the road structure model (approximate curve 3) are grouped and determined as the road structure E. In this case, it is preferable that the detection result output unit 36 outputs a detection result of an object having a road structure shape such as the objects A, D, and E shown in FIG.

判定部35により道路構造物ではないと判定された検出ポイントは、道路構造物以外の物体、例えば先行車両、前方に駐停車されている車両等として判断してもよい。本実施形態では、道路構造物ではないと判断された検出ポイントをさらに詳細に観察し、その他の物体として判定する処理を行う(S15)。S15におけるその他の物体判定処理は、第2実施形態において詳細に説明する。   The detection point determined to be not a road structure by the determination unit 35 may be determined as an object other than the road structure, for example, a preceding vehicle, a vehicle parked in front, or the like. In the present embodiment, the detection point determined not to be a road structure is observed in more detail, and a process of determining as another object is performed (S15). The other object determination processing in S15 will be described in detail in the second embodiment.

本実施形態によれば、道路形状モデルと検出情報とに基づいて道路構造物モデルを算出し、算出した道路構造物モデルとの位置関係に基づいて検出ポイントが道路構造物であるか否かを判断するため、道路構造物を正確に判断することができる。特に、遠方になるにつれて精度が低下する画像を用いることなく道路構造物を判断するため、自車両から遠方までの従来よりも広い範囲において道路構造物を正確に検出することができる。   According to the present embodiment, the road structure model is calculated based on the road shape model and the detection information, and whether or not the detection point is a road structure based on the positional relationship with the calculated road structure model is determined. Since it judges, a road structure can be judged correctly. In particular, since the road structure is determined without using an image whose accuracy decreases with increasing distance, it is possible to accurately detect the road structure in a wider range than the conventional vehicle to the distance.

さらに、順次検出される検出ポイントの相対速度を参照することなく道路構造物を検出するので、検出ポイントが密集して検出された場合等のように、検出ポイント同士の時間的な対応付けができず、検出ポイントの相対速度を算出することが困難な場合であっても、道路構造物を正確に検出することができる。   Furthermore, since road structures are detected without referring to the relative speeds of the detection points that are sequentially detected, the detection points can be correlated in time as in the case where the detection points are densely detected. Even when it is difficult to calculate the relative speed of the detection point, the road structure can be accurately detected.

<第2実施形態>
次に第2実施形態について説明する。第2実施形態は、道路構造物以外の物体を検出する第2検出手段(可動物体検手段)40を備えることを特徴とする。図9に第2実施形態の前方物体検出装置900のブロック構成の概要を示した。さらに、図10に本実施形態の前方物体検出装置900のブロック構成を示した。
Second Embodiment
Next, a second embodiment will be described. The second embodiment is characterized by comprising second detection means (movable object detection means) 40 for detecting an object other than a road structure. FIG. 9 shows an outline of a block configuration of the forward object detection device 900 according to the second embodiment. Further, FIG. 10 shows a block configuration of the forward object detection device 900 of the present embodiment.

図9及び図10に示すように、本実施形態の前方物体検出装置900は、第2検出手段(可動物体検手段)40を備える以外の点は第1実施形態の前方物体検出装置100と共通する。ここでは、共通する部分の説明は避け、異なる点を中心に説明する。   As shown in FIGS. 9 and 10, the forward object detection device 900 of the present embodiment is common to the forward object detection device 100 of the first embodiment except that the second detection means (movable object detection means) 40 is provided. To do. Here, description of common parts is avoided, and different points are mainly described.

本実施形態の第2検出手段(可動物体検出手段)40は、第1検出手段(道路構造物検出手段)30により道路構造物に対応すると判断された検出ポイント以外の検出ポイントの検出情報に基づいて、道路構造物以外の物体を検出する。特に限定されないが、本実施形態の可動物体検出手段40は、道路構造物検出手段30により検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、自車両と所定の位置関係を有する検出ポイントをグルーピングし、このグルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する。所定の位置関係は、検出処理のタイミングにおける自車両と検出ポイントとの位置関係のみならず、継続的に行われる検出処理において、先の検出処理のタイミングにおける自車両と検出ポイントとの相対的位置関係の継時的変化を含む。つまり、本実施形態の可動物体検出手段40は、自車両と検出ポイントとの相対的位置関係の観点から可動物体を検出する手法、及び/又は自車両と検出ポイントとの相対的位置関係の継時的変化の観点から可動物体を検出する手法を用いることができる。   The second detection means (movable object detection means) 40 of this embodiment is based on detection information of detection points other than the detection points determined to correspond to the road structure by the first detection means (road structure detection means) 30. Then, an object other than the road structure is detected. Although not particularly limited, the movable object detection means 40 of the present embodiment is a detection point other than the detection points corresponding to the road structure detected by the road structure detection means 30, and has a predetermined positional relationship with the host vehicle. The detected detection points are grouped, and an object corresponding to the grouped detection point is detected as an object other than the road structure. The predetermined positional relationship includes not only the positional relationship between the own vehicle and the detection point at the detection processing timing but also the relative position between the own vehicle and the detection point at the previous detection processing timing in the continuously performed detection processing. Includes changes over time in relationships. In other words, the movable object detection means 40 of the present embodiment detects the movable object from the viewpoint of the relative positional relationship between the host vehicle and the detection point, and / or continues the relative positional relationship between the host vehicle and the detection point. A technique for detecting a movable object from the viewpoint of temporal change can be used.

本実施形態の可動物体検出手段40は、第1グルーピング部41及び/又は第2グルーピング部42を備え、第1検出手段(道路構造物検出手段)30により道路構造物に対応すると判断された検出ポイント以外の検出ポイントであって、自車両と第1の位置関係を有する検出ポイントをグルーピングした第1グループと、第1の位置関係とは異なる第2の位置関係を有する検出ポイントをグルーピングした第2グループとを比較し、第1グループと第2グループとが所定の位置関係にある場合、グルーピングされた第1グループ又は第2グループの検出ポイントに対応する物体を道路構造物以外の物体として検出する。具体的には、本実施形態の可動物体検出手段40は、Z方向の距離を基準として第1グループデータを生成するとともに、X方向の幅を基準として第2グループデータを生成し、今回生成された第1グループデータが、前回の第2グループデータと所定の位置関係にある場合には、今回グルーピングされた第1グループデータに対応する物体を道路構造物以外の物体として検出する。   The movable object detection means 40 of the present embodiment includes a first grouping unit 41 and / or a second grouping unit 42, and is detected by the first detection means (road structure detection means) 30 to correspond to a road structure. A first group that is a detection point other than a point and that groups detection points having a first positional relationship with the host vehicle and a detection point that has a second positional relationship different from the first positional relationship. When two groups are compared and the first group and the second group are in a predetermined positional relationship, an object corresponding to the detection point of the grouped first group or the second group is detected as an object other than a road structure. To do. Specifically, the movable object detection means 40 of the present embodiment generates the first group data based on the distance in the Z direction, and generates the second group data based on the width in the X direction. If the first group data has a predetermined positional relationship with the previous second group data, the object corresponding to the first group data grouped this time is detected as an object other than the road structure.

さらに、本実施形態の可動物体検出手段40は、自車両と検出ポイントとの相対的位置関係の継時的変化に基づいて可動物体を検出する観点から、先のタイミングにおいてグルーピングした検出ポイントのグループと、その後のタイミングにおいてグルーピングした検出ポイントのグループとの相対的位置関係に基づいて、後のタイミングにおける検出ポイントのグループに対応する物体を道路構造物以外の物体として検出する。このように、道路構造物に対応する検出ポイントのように時間的な対応づけが困難な検出ポイントを除き、残りの検出ポイントをグルーピングして、道路構造物以外の物体を検出するので、自車両前方に存在する物体を正確に検出することができる。また、道路構造物以外の物体について、物体の区別を正確に行うことができる。   Furthermore, the movable object detection means 40 of the present embodiment is a group of detection points grouped at the previous timing from the viewpoint of detecting a movable object based on the temporal change in the relative positional relationship between the host vehicle and the detection points. Based on the relative positional relationship with the group of detection points grouped at the subsequent timing, an object corresponding to the group of detection points at the later timing is detected as an object other than the road structure. In this way, the detection points other than the road structure are detected by grouping the remaining detection points except for the detection points that are difficult to correspond in time, such as the detection points corresponding to the road structure. An object existing ahead can be detected accurately. In addition, it is possible to accurately distinguish between objects other than road structures.

第1グルーピング部41は、メモリ50から距離計測情報、道路構造物情報、及びしきい値Zt1、Zt2、Zt3、Xt1、Wt1の各種情報を取得する。そして、これらの取得した情報に基づき、道路構造物に対応する検出ポイント以外の検出ポイントについて、走査開始位置から走査方向へ、互いに隣接する(所定距離以内に検出された)検出ポイント同士のZ方向(レーダの光軸に沿った方向、図11参照)の距離DZを演算し、その絶対値をしきい値Zt1とを比較する。ここで、しきい値Zt1は、レーザレーダ200の測定精度を考慮し、測定精度よりも少し大きめの値で、且つ、T4l、T4r<Zt1(近似曲線が1次の場合),Zt1<T4l、T4r(近似曲線が2次の場合)となるように設定される。   The first grouping unit 41 acquires distance measurement information, road structure information, and various types of information on threshold values Zt1, Zt2, Zt3, Xt1, and Wt1 from the memory 50. Then, based on the acquired information, with respect to detection points other than the detection points corresponding to the road structure, the Z direction between the detection points adjacent to each other (detected within a predetermined distance) from the scanning start position to the scanning direction. A distance DZ (direction along the optical axis of the radar, see FIG. 11) is calculated, and the absolute value thereof is compared with the threshold value Zt1. Here, the threshold value Zt1 is a value slightly larger than the measurement accuracy in consideration of the measurement accuracy of the laser radar 200, and T4l, T4r <Zt1 (when the approximate curve is first order), Zt1 <T4l, It is set to be T4r (when the approximate curve is quadratic).

第1グルーピング部41は、Z方向の距離DZの絶対値がしきい値Zt1未満であると判定した場合、距離DZをなす2つの検出ポイントは同一物体から反射した反射レーザ光(反射波)によるものと判定し、これらを1のグループのグルーピング対象とする。一方、第1グルーピング部41は、Z方向の距離DZの絶対値がしきい値Zt1以上である場合、又は、検出ポイント同士が離隔し、隣接する(所定距離以内に検出された)検出ポイントが存在しない孤立した検出ポイントである場合、1つの検出ポイントのみで1のグループを構成するようにグルーピング処理を行う。   When the first grouping unit 41 determines that the absolute value of the distance DZ in the Z direction is less than the threshold value Zt1, the two detection points forming the distance DZ are based on reflected laser beams (reflected waves) reflected from the same object. These are determined to be grouping targets of one group. On the other hand, in the first grouping unit 41, when the absolute value of the distance DZ in the Z direction is equal to or greater than the threshold value Zt1, detection points that are separated from each other and are adjacent (detected within a predetermined distance) are detected. In the case of an isolated detection point that does not exist, the grouping process is performed so that one group is formed by only one detection point.

第1グルーピング部41は、上述した処理を各検出ポイントについて繰り返し、1又は2以上の第1グループデータを生成する。これら第1グループデータのそれぞれについて、自車両600までのZ方向の距離を算出する。具体的には、第1グループデータに含まれる各検出ポイントと自車両600までのZ方向距離を平均し、これを第1グループデータのZ方向距離とする。また、第1グループデータのそれぞれについて、X方向(Z方向に対して水平面において直交する車両横方向)の幅を算出する。具体的に、第1グループデータのX方向における中心点を算出し、第1グループデータの右端検出ポイントと左端検出ポイントとの位置差にレーザレーダ200の単位スキャン幅を加算して第1グループデータのX方向幅(物体幅)を算出する。そして、これらの算出結果を第1グループデータの識別子に対応づけてメモリ50に記憶する。 The first grouping unit 41 repeats the above-described processing for each detection point, and generates one or more first group data. For each of the first group data, the distance in the Z direction to the host vehicle 600 is calculated. Specifically, each detection point included in the first group data and the Z direction distance to the host vehicle 600 are averaged, and this is used as the Z direction distance of the first group data. Further, for each of the first group data, the width in the X direction (the vehicle lateral direction orthogonal to the Z direction in the horizontal plane) is calculated. Specifically, the center point in the X direction of the first group data is calculated, and the unit scan width of the laser radar 200 is added to the positional difference between the right end detection point and the left end detection point of the first group data to obtain the first group data. The X direction width (object width) is calculated. These calculation results are stored in the memory 50 in association with the identifier of the first group data.

図11に基づいて、第1グルーピング部41によるグルーピング処理を詳細に説明する。図11に示す検出情報は、先に説明した図2に示す状況において検出されたものである。   Based on FIG. 11, the grouping process by the first grouping unit 41 will be described in detail. The detection information shown in FIG. 11 is detected in the situation shown in FIG. 2 described above.

第1グルーピング部41は、道路構造物検出手段30により道路構造物として検出された、検出ポイント以外のポイントについて、第1グループ処理を行う。第1グループ処理は所定間隔で行われる。各第1グループ処理の結果となる第1グループデータはメモリ50に記憶されるため、処理タイミングの異なる任意の第1グループデータをメモリ50から取得することができる。第1グルーピング部41は、検出ポイントe、fを第1グループデータR(1、t)として認識し、検出ポイントg、i、を第1グループデータR(2、t)として認識する。また、検出ポイントcをグルーピング対象とできない第1グループデータR(3、t)として認識する。 The first grouping unit 41 performs a first group process on points other than the detected points detected as road structures by the road structure detection unit 30. The first group process is performed at a predetermined interval. Since the first group data resulting from each first group process is stored in the memory 50, any first group data having a different processing timing can be acquired from the memory 50. The first grouping unit 41 recognizes the detection points e and f as first group data R (1, t), and recognizes the detection points g and i as first group data R (2, t). Further, the detection point c is recognized as the first group data R (3, t) that cannot be grouped.

また、第1グルーピング部41は、自車両600が走行している場合において、第1グルーピング処理により得た時間的に前後する第1グループデータを比較し、時間的に前後するこれらの第1グループデータが同一の第1グループデータであるか否かを確認する。そして、同一のグループデータであると判断された第1グループデータについて、さらに、自車両600に対する相対速度を測定し、自車両と検出ポイントとの相対的位置関係の継時的変化の観点からグループデータの同一性を判断する。同一でないと判断された第1グループデータは、後の処理に備えてメモリ50に記憶する。以下、相対速度を用いた相対的位置関係の観点からグループデータの同一性を判断する処理について説明する。   In addition, when the host vehicle 600 is traveling, the first grouping unit 41 compares the first group data obtained by the first grouping process that varies in time, and these first groups that vary in time. It is confirmed whether or not the data is the same first group data. And about the 1st group data judged that it is the same group data, the relative speed with respect to the own vehicle 600 is further measured, and it is a group from a viewpoint of the temporal change of the relative positional relationship between the own vehicle and the detection point Determine the identity of the data. The first group data determined not to be the same is stored in the memory 50 for later processing. Hereinafter, a process for determining the identity of the group data from the viewpoint of the relative positional relationship using the relative speed will be described.

本実施形態の第1グルーピング部41は、自車両に対する第1グループデータの相対速度に基づいて、時間的に前後するこれらの第1グループデータが同一の第1グループデータであるか否かを確認する。具体的に、第1グルーピング部は、同一の第1グループと確認された時間的に前後する第1グループデータのそれぞれの自車両600に対する相対速度を算出し、算出された相対速度、又は相対速度と測定時点(過去)の位置から予測される現在位置とを比較し、比較の結果に基づいて時間的に前後するこれらの第1グループデータが同一の第1グループデータであるか否かを確認する。   The first grouping unit 41 according to the present embodiment confirms whether or not these first group data that move back and forth in time are the same first group data based on the relative speed of the first group data with respect to the host vehicle. To do. Specifically, the first grouping unit calculates a relative speed of each of the first group data that is confirmed to be the same first group and is temporally changed with respect to the host vehicle 600, and calculates the calculated relative speed or relative speed. Is compared with the current position predicted from the position at the time of measurement (past), and based on the comparison result, it is confirmed whether or not these first group data that are temporally mixed are the same first group data To do.

特に限定されないが、第1グルーピング部41は、先のタイミングで検出された第1グループデータと、現在の処理対象である第1グループデータとが、以下に示す(a1)、(a2)の、2つの条件を満たす場合には、これらは、同一の第1グループデータ、つまり同一の物体に対応すると判定する。   Although not particularly limited, the first grouping unit 41 includes the first group data detected at the previous timing and the first group data that is the current processing target of (a1) and (a2) shown below. When two conditions are satisfied, it is determined that they correspond to the same first group data, that is, the same object.

(a1)時間的に前に検出された第1グループデータの相対速度から推定された当該第1グループデータの現在位置と、今回測定された第1グループデータの現在位置とのZ方向(光軸方向)の距離の絶対値がしきい値Zt2以下である。   (A1) Z direction (optical axis) between the current position of the first group data estimated from the relative velocity of the first group data detected before in time and the current position of the first group data measured this time Direction) distance is less than or equal to the threshold value Zt2.

(a2)時間的に前に検出された第1グループデータのX方向(自車両横方向)の中心点から、今回測定された第1グループデータのX方向の中心点までのX方向の距離の絶対値がしきい値Xt1以下である。   (A2) The distance in the X direction from the center point in the X direction (lateral direction of the host vehicle) of the first group data detected before in time to the center point in the X direction of the first group data measured this time The absolute value is not more than the threshold value Xt1.

ここで、しきい値Zt2、Xt1は、正確な相対速度を算出するために、レーザレーダ200の測定精度と同等な小さい値に設定されることが好ましい。   Here, the threshold values Zt2 and Xt1 are preferably set to small values equivalent to the measurement accuracy of the laser radar 200 in order to calculate an accurate relative velocity.

上述した条件(a1)〜(a2)を満たさない第1グループデータについては、時間的に前に検出され、相対速度が算出されていない第1グループデータと比較し、その同一性を判断する。相対速度は、時間的に前後するグループデータが同一のグループデータであると確認された場合に測定されるため、相対速度が算出されなかったグループデータもあるからである。つまり、相対速度に基づく条件(a1)〜(a2)からは同一性が判断できなかった第1グループデータについては、以下に示す条件(b1)〜(b3)に基づいてその同一性を判断する。本例では条件(b1)〜(b3)の3つの条件を満たす場合は、時間的に前後する第1グループデータが同一物体によるものであると判定する。   About the 1st group data which do not satisfy | fill conditions (a1)-(a2) mentioned above, it compares with the 1st group data which were detected before temporally and the relative speed is not calculated, and the identity is judged. This is because the relative speed is measured when it is confirmed that the group data preceding and following in time are the same group data, and therefore there is group data for which the relative speed has not been calculated. That is, for the first group data whose identity cannot be determined from the conditions (a1) to (a2) based on the relative speed, the identity is determined based on the following conditions (b1) to (b3). . In the present example, when the three conditions (b1) to (b3) are satisfied, it is determined that the first group data that changes in time are due to the same object.

第1グルーピング部41は、時間的に前に検出された第1グループデータと、今回の処理対象となる第1グループデータについて、
(b1)時間的に前に検出された第1グループデータから、実測した今回の第1グループデータまでのZ方向距離の絶対値がしきい値Zt3以下である。
The first grouping unit 41 uses the first group data detected before in time and the first group data to be processed this time.
(B1) The absolute value of the Z direction distance from the first group data detected before in time to the actually measured first group data is equal to or less than the threshold value Zt3.

(b2)時間的に前に検出された第1グループデータのX方向における中心点から、今回の第1グループデータのX方向における中心点までのX方向距離の絶対値がしきい値Xt1以下である。   (B2) The absolute value of the distance in the X direction from the center point in the X direction of the first group data detected earlier in time to the center point in the X direction of the current first group data is less than or equal to the threshold value Xt1. is there.

(b3)時間的に前に検出された第1グループデータの物体幅と、実測した今回の第1グループデータの物体幅との差の絶対値がしきい値Wt1以下である。   (B3) The absolute value of the difference between the object width of the first group data detected before in time and the actually measured object width of the first group data this time is equal to or less than the threshold value Wt1.

第1グルーピング部41は、時間的に前の第1グループデータと同一物体によるものと認識された今回の第1グループデータについて、自車両600に対する相対速度をそれぞれ算出し、第1グループデータに含めてメモリ50に記憶する。   The first grouping unit 41 calculates the relative speed with respect to the host vehicle 600 for the first group data of this time recognized as being the same object as the first group data of the previous time, and includes the first group data in the first group data. Is stored in the memory 50.

次に、第2グルーピング部42の第2グルーピング処理について説明する。
第2グルーピング部42は、上述の第1グルーピング処理後に、第2グルーピング処理を行う。第2グルーピング処理では、時間的に前に検出された第2グループデータと、今回検出され、相対速度が計算された第1グループデータとの比較を行うことにより、道路構造物以外の物体(可動物体)を検出する。
Next, the second grouping process of the second grouping unit 42 will be described.
The second grouping unit 42 performs the second grouping process after the first grouping process described above. In the second grouping process, an object other than a road structure (movable) is compared by comparing the second group data detected before in time with the first group data detected this time and the relative speed calculated. Object).

第2グルーピング部42は、直前の検索タイミングにおいて検出された第2グループデータにおけるX方向の中心位置から左右1/2車線幅(例えば1.75m)をグルーピング範囲として決定し、この範囲内に存在する複数の検出ポイントを第2グループとしてグルーピングする。   The second grouping unit 42 determines the left and right lane width (for example, 1.75 m) as the grouping range from the center position in the X direction in the second group data detected at the immediately preceding search timing, and exists within this range. A plurality of detection points to be grouped as a second group.

第2グルーピング部42は、先に検出された第2グループデータと、今回の相対速度が計算され、上述のグルーピング範囲にX方向の中心位置が存在する第1グループデータと、しきい値Zt4、Zt5、Vt1、Wt2、Vt2、Wt3をメモリ39から取得する。   The second grouping unit 42 calculates the second group data detected earlier, the current relative velocity, the first group data in which the center position in the X direction exists in the grouping range, the threshold value Zt4, Zt5, Vt1, Wt2, Vt2, and Wt3 are acquired from the memory 39.

そして、前回の第2グループデータと、今回の相対速度が計算され、上述のグルーピング範囲にX方向の中心位置が存在する第1グループデータについて、以下に示す(c1)〜(c4)の4つの判定条件を全て満たす場合に、前回の第2グループデータと今回の第1グループデータとが同一物体に対応すると判断する。さらに、同一物体に対応すると判断された第1グループデータ同士を第2グループデータとしてグルーピングする。   Then, the second group data of the previous time and the current relative velocity are calculated, and the first group data having the center position in the X direction in the grouping range described above includes the following four (c1) to (c4). When all the determination conditions are satisfied, it is determined that the previous second group data and the current first group data correspond to the same object. Further, the first group data determined to correspond to the same object are grouped as second group data.

(c1)前回の第2グループデータの相対速度から推測された当該第2グループデータの現在位置から、今回の第1グループデータまでのZ方向距離の絶対値がしきい値Zt4以下である。   (C1) The absolute value of the Z-direction distance from the current position of the second group data estimated from the previous relative speed of the second group data to the current first group data is equal to or less than the threshold value Zt4.

(c2)前回の第2グループデータの相対速度と今回の第1グループデータの相対速度比が0より大きい。ただし、前回の第2グループデータの相対速度の絶対値が所定値(例えば5m/s程度)の場合は、本条件を適用しない。   (C2) The relative speed ratio between the previous second group data and the current first group data is greater than zero. However, this condition is not applied when the absolute value of the relative speed of the previous second group data is a predetermined value (for example, about 5 m / s).

(c3)前回の第2グループデータの相対速度と、今回の第1グループデータの相対速度との差がしきい値Vt1以下である。   (C3) The difference between the previous relative speed of the second group data and the current relative speed of the first group data is equal to or less than the threshold value Vt1.

(c4)グルーピング後の第2グループデータの物体幅がしきい値Wt2以下である。   (C4) The object width of the second group data after grouping is equal to or less than the threshold value Wt2.

ここで、しきい値Zt4、Vt1、Wt2は、上述した距離差が車両1台分に収まれば、第1グループデータと第2グループデータを同一物体と判断できるという観点から、設定されることが好ましい。   Here, the threshold values Zt4, Vt1, and Wt2 can be set from the viewpoint that the first group data and the second group data can be determined as the same object if the above-described distance difference is within one vehicle. preferable.

また、条件(c2)は、前回の第2グループデータと今回の第1グループデータとが同一方向に移動しているかどうかを判断するための条件である。また、同条件の但し書き部分は、相対速度が小さいグループデータを、同一物体かどうかの判定から除外することを意味する。相対速度が小さいグループデータは、測定誤差が含まれる可能性があり、各グループデータがどちらの方向に移動しているかを正確に判断することが難しいからである。   The condition (c2) is a condition for determining whether the previous second group data and the current first group data are moving in the same direction. In addition, the proviso portion of the same condition means that group data having a small relative velocity is excluded from the determination as to whether or not they are the same object. This is because group data with a small relative speed may include a measurement error, and it is difficult to accurately determine in which direction each group data is moving.

更に、上記の判定条件を満たさず、前回の第2グループデータと今回の第1グループデータとが同一物体に対応しないと判断された場合、第1グループデータ間でグルーピングを行い、以下に示す(d1)〜(d3)に示す3つの条件を満たす場合に、新規の第2グループデータとしてグルーピングする。   Furthermore, when it is determined that the above-described determination condition is not satisfied and the previous second group data and the current first group data do not correspond to the same object, grouping is performed between the first group data, as shown below ( When the three conditions shown in d1) to (d3) are satisfied, grouping is performed as new second group data.

(d1) 今回の第1グループデータ同士のZ方向の距離差の絶対値が、Zt5以下である。   (D1) The absolute value of the distance difference in the Z direction between the current first group data is Zt5 or less.

(d2)今回の第1グループデータ同士の相対速度差の絶対値がVt2以下である。   (D2) The absolute value of the relative speed difference between the current first group data is Vt2 or less.

(d3)グルーピング後の第2グループデータの物体幅がしきい値Wt3以下である。   (D3) The object width of the second group data after grouping is equal to or less than the threshold value Wt3.

ここで、しきい値Zt5、Vt2、Wt3は、上述したZ方向距離差が車両1.5台分に収まれば、第1グループデータ同士を同一物体として判断しても良いという観点から設定されることが好ましい。即ち、本条件(d1)〜(d3)に基づく判断は、先の条件(c1)〜(c4)を満たさない第1グループデータについて、条件を緩和して再度判断するものである。   Here, the threshold values Zt5, Vt2, and Wt3 are set from the viewpoint that the first group data may be determined as the same object if the above-described Z-direction distance difference is within 1.5 vehicles. It is preferable. That is, the determination based on the conditions (d1) to (d3) is performed again with the conditions relaxed for the first group data that does not satisfy the previous conditions (c1) to (c4).

また、第2グルーピング部42は、第1グループデータが上述した条件(c1)〜(c4)、(d1)〜(d3)の何れの判定条件を満たさない場合には、当該第1グループデータのみで新規に第2グループデータとする。つまり、第2グルーピング部42は、自車両600の前方に存在する物体に含まれる検出ポイントから構成される第2グループデータを生成する。   In addition, the second grouping unit 42, when the first group data does not satisfy any of the determination conditions (c1) to (c4) and (d1) to (d3) described above, only the first group data. Thus, the second group data is newly set. That is, the second grouping unit 42 generates second group data including detection points included in an object that exists in front of the host vehicle 600.

さらに、生成された第2グループデータに含まれる第1グループデータからZ方向距離、X方向における中心点、物体の左右端点、相対速度のそれぞれについて平均値を算出し、当該算出された平均値を、当該第2グループデータのZ方向距離、X方向における中心点、物体幅、相対速度とする。さらに当該第2グループデータに対応する過去の第2グループデータが存在する場合には、その(同一物体によると判断された)第2グループデータの検出回数の値を更新する。   Furthermore, an average value is calculated for each of the Z direction distance, the center point in the X direction, the left and right end points of the object, and the relative velocity from the first group data included in the generated second group data, and the calculated average value is , The Z direction distance, the center point in the X direction, the object width, and the relative speed of the second group data. Further, when there is past second group data corresponding to the second group data, the value of the number of detection times of the second group data (determined to be the same object) is updated.

第2グルーピング部42は、生成された第2グループデータを自車両600の前方に存在する物体に対応するものであると判断し、自車両600の前方に存在する物体を検出する。図11に示した例では、第2グループデータとして判断されたR(3,t)、R(1,t)を、道路構造物以外の物体(可動物体)B、Cを検出する。   The second grouping unit 42 determines that the generated second group data corresponds to an object that exists in front of the host vehicle 600 and detects an object that exists in front of the host vehicle 600. In the example shown in FIG. 11, R (3, t) and R (1, t) determined as the second group data are detected as objects (movable objects) B and C other than the road structure.

さらに、これら第2グループデータの相対速度情報に基づいて、当該物体が移動物体であるかどうかを判定し、当該判定の結果を第2グループデータに含めるメモリ50に記憶する。   Further, based on the relative speed information of the second group data, it is determined whether or not the object is a moving object, and the result of the determination is stored in the memory 50 included in the second group data.

検出結果出力部43は、判定された道路構造物以外に物体(可動物体)に関する検出結果を外部へ向けて出力する。判定された道路構造物の存在、位置等の検出結果は、出力装置500に向けて出力され、ディスプレイ等の提示装置によりユーザに提示される。また、これらの検出結果は、運転支援システム等に向けて出力され、さらに運転支援用のデータに加工されてもよい。   The detection result output unit 43 outputs a detection result related to an object (movable object) to the outside in addition to the determined road structure. Detection results such as the presence and position of the determined road structure are output to the output device 500 and presented to the user by a presentation device such as a display. These detection results may be output to a driving support system or the like, and further processed into driving support data.

続いて、第2実施形態の前方物体検出装置900の制御手順を図12に基づいて説明する。第2実施形態の前方物体検出装置900の基本的な制御手順は、第1実施形態の前方物体検出装置100のそれと共通する。第1実施形態に関して説明した図4に示すS1〜S15までの処理は共通するので説明を省略し、ここでは、第2実施形態の特徴の一つである可動物体検出手段40の処理を中心に説明する。   Subsequently, a control procedure of the front object detection apparatus 900 according to the second embodiment will be described with reference to FIG. The basic control procedure of the front object detection apparatus 900 of the second embodiment is common to that of the front object detection apparatus 100 of the first embodiment. The processes from S1 to S15 shown in FIG. 4 described in regard to the first embodiment are common and will not be described. Here, the process of the movable object detection means 40, which is one of the features of the second embodiment, is mainly described. explain.

図12は、図4に示したS1〜S15に続く、その他の物体判定処理を示すフローチャート図である。   FIG. 12 is a flowchart showing other object determination processing subsequent to S1 to S15 shown in FIG.

ステップ15の後、ステップS21において、第1のグルーピング部37は、メモリ39から距離計測情報、道路構造物情報、及びしきい値Zt1、Zt2、Zt3、Xt1、Wt1のデータを取得する。   After step 15, in step S21, the first grouping unit 37 acquires distance measurement information, road structure information, and data of threshold values Zt1, Zt2, Zt3, Xt1, and Wt1 from the memory 39.

次いで、第1グルーピング部41は、当該情報に基づいて、図4に示したステップS12において道路構造物データと判定されなかった検出ポイントに対して、上述した第1グルーピング処理を行う(S1)。   Next, based on the information, the first grouping unit 41 performs the first grouping process described above on the detection points that are not determined as road structure data in step S12 illustrated in FIG. 4 (S1).

第1グルーピング部41は、例えば走査範囲において自車両600の走行方向右側の端部から隣接する検出ポイント間のZ方向(光軸方向)距離を演算し、演算して得たZ方向距離の絶対値がしきい値Zt1以下である場合、当該検出点ポイント同士をグルーピングして第1グループデータとする。第1グルーピング部41は、Z方向距離の絶対値がしきい値Zt1を超える領域の範囲、隣接する検出ポイントが存在しない範囲まで検出ポイントの比較をして第1グループデータを更新する。   For example, the first grouping unit 41 calculates the Z direction (optical axis direction) distance between adjacent detection points from the right end of the traveling direction of the host vehicle 600 in the scanning range, and calculates the absolute Z direction distance obtained by the calculation. When the value is equal to or less than the threshold value Zt1, the detection point points are grouped to form first group data. The first grouping unit 41 updates the first group data by comparing the detection points up to the range of the region where the absolute value of the Z-direction distance exceeds the threshold value Zt1 and the range where there is no adjacent detection point.

次いで、各第1グループデータの自車両に対する距離を算出する。具体的には、第1グループデータに含まれる各検出ポイントから自車両11までのZ方向距離を平均し、その平均値を第1グループデータのZ方向距離とする。さらに、第1グループデータのX方向の中心点を算出し、第1グループデータの右端点と左端点との位置差にレーザレーダ200による単位スキャン幅を加算して物体幅を算出する。これらの算出結果を第1グループデータに含めてメモリ50に記憶し、ステップS22に進む。   Subsequently, the distance with respect to the own vehicle of each 1st group data is calculated. Specifically, the Z direction distance from each detection point included in the first group data to the host vehicle 11 is averaged, and the average value is set as the Z direction distance of the first group data. Further, the center point in the X direction of the first group data is calculated, and the object width is calculated by adding the unit scan width by the laser radar 200 to the positional difference between the right end point and the left end point of the first group data. These calculation results are included in the first group data and stored in the memory 50, and the process proceeds to step S22.

ステップS22において、第1グルーピング部41は、上述した時間的に前後する第1グループデータの比較を行う。具体的には、第1グルーピング部41は、今回生成された第1グループデータと、前回生成された第1グループデータのうち、相対速度が計算されている第1グループデータとをメモリ50から取得する。   In step S <b> 22, the first grouping unit 41 compares the first group data that moves back and forth in time. Specifically, the first grouping unit 41 acquires from the memory 50 the first group data generated this time and the first group data for which the relative speed has been calculated among the first group data generated last time. To do.

第1グルーピング部41は、今回の第1グループデータと、前回生成された第1グループデータとを比較し、上述した判定条件(a1)〜(a2)を満たすか否かを判断し、条件を満たす場合には今回の第1グループデータと前回の第1グループデータとは同じ物体に基づくものであると判断する。第1グルーピング部41は、判定条件(a1)〜(a2)を満たす第1グループデータについては、後のステップで相対速度を計算するために、当該第1グループデータに過去2点の距離情報(Z方向距離、及びX方向中心点の情報)を追加して、ステップS24以降の処理を行う。   The first grouping unit 41 compares the first group data of this time with the first group data generated last time, determines whether or not the determination conditions (a1) to (a2) described above are satisfied, and sets the conditions. If it is satisfied, it is determined that the current first group data and the previous first group data are based on the same object. For the first group data that satisfies the determination conditions (a1) to (a2), the first grouping unit 41 includes distance information (in the past two points) on the first group data in order to calculate the relative speed in a later step. Z-direction distance and X-direction center point information) are added, and the processing after step S24 is performed.

また、第1グルーピング部41は、判定条件(a1)〜(a2)を満たさない今回の第1グループデータについては、相対速度が検出されている前々回の第1グループデータをメモリ50から取得し、当該前々回の第1グループデータとの関係において判定条件(a1)〜(a2)を満たすか否かを判定する。今回の第1グループデータが前々回の第1のグループデータとの間で判定条件(a1)〜(a2)を満たさない場合には、前々回の第1グループデータを削除する。一方、判定条件(a1)〜(a2)を満たす場合には、今回の第1グループデータと、前々回の第1グループデータとを同一物体と判断し、今回の第1グループデータについては、過去2点の距離情報を追加して、ステップS24以降の処理を行う。   Further, the first grouping unit 41 acquires the first group data of the previous time when the relative speed is detected from the memory 50 for the current first group data that does not satisfy the determination conditions (a1) to (a2), It is determined whether or not the determination conditions (a1) to (a2) are satisfied in relation to the first group data of the previous time. If the current first group data does not satisfy the determination conditions (a1) to (a2) with the previous first group data, the previous first group data is deleted. On the other hand, when the determination conditions (a1) to (a2) are satisfied, the first group data of this time and the first group data of the previous time are determined as the same object. The point distance information is added, and the processing after step S24 is performed.

第1グルーピング部41は、相対速度が検出されている前回、前々回の第1グループデータとの間で判定条件(a1)〜(a2)を満たさない今回の第1グループデータについては、相対速度が計算されていない前回の第1グループデータをメモリ39から取得し、当該前回の第1グループデータと判定条件(f1)〜(f3)を満たすか否かを判定する。   The first grouping unit 41 determines the relative speed of the first group data of this time that does not satisfy the determination conditions (a1) to (a2) with the first group data of the previous time and the previous time when the relative speed is detected. The previous first group data that has not been calculated is acquired from the memory 39, and it is determined whether or not the previous first group data and the determination conditions (f1) to (f3) are satisfied.

この結果、判定条件(b1)〜(b3)を満たさない今回の第1グループデータについては、ステップS27以降の処理を行う。一方、判定条件(b1)〜(b3)を満たす場合には、今回の第1グループデータと、前回の第1グループデータとを同一物体とし、当該第1グループデータについては、過去2点の距離情報を追加して、ステップS23以降の処理を行う。   As a result, for the current first group data that does not satisfy the determination conditions (b1) to (b3), the processing from step S27 is performed. On the other hand, when the determination conditions (b1) to (b3) are satisfied, the first group data of this time and the first group data of the previous time are set as the same object, and the distance between the past two points for the first group data. Information is added, and the processing after step S23 is performed.

ステップS27において、第1グルーピング部41は、ステップS22において、過去の第1グループデータと同一物体ではないと判定された今回の第1グループデータのZ方向距離、X方向における中心点、物体幅をメモリ50に記憶して、ステップS1に戻る。なお、この場合記憶した各種情報は、次回以降のステップS22の時系列判断で使用する。   In step S27, the first grouping unit 41 determines the Z direction distance, the center point in the X direction, and the object width of the first group data of this time determined to be not the same object as the past first group data in step S22. Store in memory 50 and return to step S1. In this case, the stored various information is used in the time series determination in step S22 after the next time.

ステップS23において、第1グルーピング部41は、過去の第1グループデータとの間で時系列判断をするための判定条件を満たした第1グループデータについて、今回、前回及び前々回の距離情報を用いて相対速度を計算する。次いで、計算した相対速度情報を今回の第1グループデータに追加して、メモリ50に記憶する。   In step S23, the first grouping unit 41 uses the current, previous and previous distance information for the first group data that satisfies the determination condition for time-series determination with the first group data in the past. Calculate the relative speed. Next, the calculated relative speed information is added to the current first group data and stored in the memory 50.

第1グルーピング部41は、上述のステップS22〜ステップS23までの処理を、ステップS21にて検出した全ての第1グループデータについて行い、ステップS24以降の処理に移行する。   The first grouping unit 41 performs the processing from step S22 to step S23 described above for all the first group data detected in step S21, and proceeds to the processing after step S24.

ステップS24において、第2グルーピング部42は、メモリ50から、ステップS22で相対速度が計算された第1グループデータと、過去の第2グループデータと、しきい値Zt4、Zt5、Vt1、Wt2、Vt2、Wt3のデータを取得する。   In step S24, the second grouping unit 42, from the memory 50, the first group data for which the relative speed is calculated in step S22, the past second group data, the threshold values Zt4, Zt5, Vt1, Wt2, Vt2 , Wt3 data is acquired.

次いで、当該情報等に基づいて、当該第1グループデータと第2グループデータとを比較して、同一物体と判定するための判定条件(c1)〜(c4)を満たす第1グループデータが存在するか否かを判定する。判定条件(c1)〜(c4)を満たすと判定された第1グループデータについては、ステップS25以降の処理を行い、満たさないと判定された第1グループデータについては、ステップS28以降の処理を行う。ステップS28にて、第2グルーピング部42は、ステップS24にて過去の第2グループデータとの間で判定条件を満たない第1グループデータどうしを比較し、同一物体か否かを判断するための判定条件(d1)〜(d3)を満たす場合にはグルーピングを行い、新規に第2グループデータを生成する。一方、判定条件(d1)〜(d3)を満たさない場合には1つの第1グループデータで新規に第2グループデータを生成してメモリ50に記憶し、ステップS26に処理を進める。   Next, there is first group data that satisfies the determination conditions (c1) to (c4) for determining the same object by comparing the first group data and the second group data based on the information or the like. It is determined whether or not. For the first group data determined to satisfy the determination conditions (c1) to (c4), the process after step S25 is performed, and for the first group data determined not to be satisfied, the process after step S28 is performed. . In step S28, the second grouping unit 42 compares the first group data that does not satisfy the determination condition with the past second group data in step S24, and determines whether or not they are the same object. When the determination conditions (d1) to (d3) are satisfied, grouping is performed, and new second group data is generated. On the other hand, when the determination conditions (d1) to (d3) are not satisfied, the second group data is newly generated with one first group data and stored in the memory 50, and the process proceeds to step S26.

ステップS25において、第2グルーピング部42は、第2グループデータに含まれる第1グループデータからZ方向距離、X方向における中心点、物体の左右端点、相対速度のそれぞれについて平均値を算出する。算出された平均値を、当該第2グループデータのZ方向距離、X方向における中心点、物体幅、相対速度として当該第2グループデータに含め、メモリ50に記憶する。   In step S25, the second grouping unit 42 calculates an average value for each of the Z direction distance, the center point in the X direction, the left and right end points of the object, and the relative velocity from the first group data included in the second group data. The calculated average value is included in the second group data as the Z direction distance, the center point in the X direction, the object width, and the relative speed of the second group data, and stored in the memory 50.

次いで、当該第2グループデータに対応する過去の第2グループデータが存在する場合には、当該第2グループデータの検出回数の値を更新する。当該第2グループデータを、自車両600の前方に存在する物体によるものと判断することで、自車両600の前方に存在する物体を検出する。さらに、第2グループデータに含まれる相対速度情報に基づいて、当該物体が移動物体であるかどうかを判定し、当該判定の結果を第2グループデータに含める。   Next, when there is past second group data corresponding to the second group data, the value of the number of detection times of the second group data is updated. By determining that the second group data is based on an object existing in front of the host vehicle 600, an object existing in front of the host vehicle 600 is detected. Further, based on the relative velocity information included in the second group data, it is determined whether or not the object is a moving object, and the result of the determination is included in the second group data.

このようなステップS24〜ステップS26、28までの処理を、ステップS23で相対速度が計算された全ての第1グループデータに対して行い、ステップS26の処理に移行する。   Such processes from step S24 to steps S26 and 28 are performed on all the first group data whose relative speeds are calculated in step S23, and the process proceeds to step S26.

ステップS26において、検出結果出力部43は、ステップS24〜ステップS25の処理で得た第2グループデータを、自車両600の乗員等が認識できるような形態にして出力装置500の提示装置により提示する。   In step S <b> 26, the detection result output unit 43 presents the second group data obtained by the processing in steps S <b> 24 to S <b> 25 by the presentation device of the output device 500 in a form that can be recognized by the passengers of the host vehicle 600. .

このように、可動物体検出手段40は、道路構造物として検出されなかった検出点のうち、互いに隣接する検出ポイントを所定の条件でグルーピングして第1グループデータを生成し、この第1グループデータを他の観点から検証することにより、自車両600の前方にある物体を検出する。これにより、道路構造物以外の物体を正確に検出することができる。移動しない道路構造物と、例えば他車両等の可動物体等とは、その挙動が異なるため、得られる検出情報の特性が異なる。本実施形態では、道路構造物とそれ以外の物体とを分けて検出することにより、道路構造物とそれ以外の物体とを誤認することなく正確に検出することができる。   As described above, the movable object detection means 40 groups the detection points adjacent to each other among the detection points that are not detected as road structures, and generates first group data. The first group data Is detected from another viewpoint, an object ahead of the host vehicle 600 is detected. Thereby, objects other than road structures can be detected accurately. Since the behavior of a road structure that does not move is different from that of a movable object such as another vehicle, the characteristics of the obtained detection information are different. In the present embodiment, the road structure and the other objects are separately detected, so that the road structure and the other objects can be detected accurately without being misidentified.

また、Z方向の距離を基準として第1グループデータを生成するとともに、X方向の幅を基準として第2グループデータを生成して、レーザレーダ200によって検出される検出ポイントの位置について異なる観点からその共通性を求めることにより、道路構造物以外の物体を正確に検出することができる。   In addition, the first group data is generated based on the distance in the Z direction, and the second group data is generated based on the width in the X direction. The position of the detection point detected by the laser radar 200 is different from that point of view. By obtaining the commonality, it is possible to accurately detect objects other than road structures.

さらに、今回生成された第1グループデータが、前回の第2グループデータと所定の共通関係にある場合、今回生成された第1グループデータを第2グループデータと定義し、この第2グループデータに基づいて自車両前方の物体を検出して、異なるタイミングにおいて検出された検出ポイントの継時的変化の観点からその共通性を求めることにより、道路構造物以外の物体を正確に検出することができる。特に、先行車両等の動く物体については、継時的な変化の観点を加えることにより、物体を正確に検出することができる。   Further, when the first group data generated this time is in a predetermined common relationship with the previous second group data, the first group data generated this time is defined as second group data, and the second group data It is possible to accurately detect an object other than a road structure by detecting an object in front of the host vehicle and obtaining commonality from the viewpoint of the temporal change of detection points detected at different timings. . In particular, for a moving object such as a preceding vehicle, the object can be accurately detected by adding a viewpoint of change over time.

本実施形態では、前方物体検出装置100及び900について説明したが、前方物体検出方法を使用した場合も、同様に作用し、同様の効果を奏する。   In the present embodiment, the front object detection devices 100 and 900 have been described. However, when the front object detection method is used, the front object detection devices 100 and 900 operate in the same manner and have the same effects.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

第1実施形態の前方物体検出装置のブロック構成概要を示す図である。It is a figure which shows the block structure outline | summary of the front object detection apparatus of 1st Embodiment. (A)(B)は、レーザレーダの配置を説明する図である。(A) (B) is a figure explaining arrangement | positioning of a laser radar. 第1実施形態の前方物体検出装置のブロック構成図である。It is a block block diagram of the front object detection apparatus of 1st Embodiment. 第1実施形態に係る前方物体検出装置の制御手順を示すフローチャート図である。It is a flowchart figure which shows the control procedure of the front object detection apparatus which concerns on 1st Embodiment. レーザレーダにより検出ポイントを説明するための図である。It is a figure for demonstrating a detection point with a laser radar. 検出領域設定処理を説明するための図である。It is a figure for demonstrating a detection area setting process. 線分検出処理を説明するための図である。It is a figure for demonstrating a line segment detection process. モデル算出処を説明するための図である。It is a figure for demonstrating a model calculation process. 第2実施形態の前方物体検出装置のブロック構成概要を示す図である。It is a figure which shows the block structure outline | summary of the front object detection apparatus of 2nd Embodiment. 第2実施形態の前方物体検出装置のブロック構成図である。It is a block block diagram of the front object detection apparatus of 2nd Embodiment. 可動物体の検出処理を説明するための図である。It is a figure for demonstrating the detection process of a movable object. 第2実施形態に係る前方物体検出装置の制御手順を示すフローチャート図である。It is a flowchart figure which shows the control procedure of the front object detection apparatus which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

100,900…前方物体検出装置
10…道路形状モデル算出手段
11…道路形状情報取得部
12…取得範囲決定部
13…データ変換部
20…検出情報取得手段
30…第1検出手段,道路構造物検出手段
31…検出領域設定部
32…起点抽出部
33…線分検出部
34…モデル算出部
35…判定部
36…検出結果出力部
40…第2検出手段,可動物体検出手段
41…第1グルーピング部
42…第2グルーピング部
43…検出結果出力部

DESCRIPTION OF SYMBOLS 100,900 ... Front object detection apparatus 10 ... Road shape model calculation means 11 ... Road shape information acquisition part 12 ... Acquisition range determination part 13 ... Data conversion part 20 ... Detection information acquisition means 30 ... 1st detection means, road structure detection Means 31 ... Detection area setting unit 32 ... Origin extraction unit 33 ... Line segment detection unit 34 ... Model calculation unit 35 ... Determination unit 36 ... Detection result output unit 40 ... Second detection unit, movable object detection unit 41 ... First grouping unit 42 ... 2nd grouping part 43 ... Detection result output part

Claims (16)

自車両に搭載され、自車両前方に存在する物体を検出する前方物体検出装置であって、
前記自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントの情報を含む検出情報を取得する検出情報取得手段と、
前記自車両の現在位置を取得するとともに、地図データベースにアクセスして前記自車両前方の道路形状情報を取得し、当該道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する道路形状モデル算出手段と、
前記検出情報取得手段により取得された検出情報と前記道路形状モデル算出手段により算出された道路形状モデルとに基づいて道路構造物モデルを算出し、当該算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として検出する道路構造物検出手段と、を有し、
前記道路構造物検出手段は、
先のタイミングにおける前記道路構造物の検出位置と前記道路形状モデルとに基づいて、前記道路形状モデルに対して所定距離未満の検出領域と前記道路形状モデルに対して所定距離以上の検出領域とを設定する検出領域設定部と、
前記検出領域設定部により設定された検出領域ごとに前記道路構造物モデルの起点となる検出ポイントを抽出する起点抽出部と、
前記起点抽出部により抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデルに対する距離が所定値未満の検出ポイントを順次連結して1又は2以上の線分を検出する線分検出部と、
前記線分検出部により検出された線分に基づいて、前記設定された検出領域ごとに現タイミングにおける道路構造物モデルを算出するモデル算出部と、
前記モデル算出部により算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を現タイミングにおける自車両前方の道路構造物として判定する判定部と、を有することを特徴とする前方物体検出装置。
A forward object detection device that detects an object that is mounted on the host vehicle and exists in front of the host vehicle,
Detection information acquisition means for acquiring detection information including information on a detection point of the object detected based on a reflected wave of a scanning wave emitted forward of the host vehicle;
A road that obtains the current position of the host vehicle, obtains road shape information ahead of the host vehicle by accessing a map database, and calculates a road shape model of a traveling road ahead of the host vehicle based on the road shape information A shape model calculating means;
A road structure model is calculated based on the detection information acquired by the detection information acquisition means and the road shape model calculated by the road shape model calculation means, and the calculated road structure model and a predetermined positional relationship A road structure detection means for grouping detection points having the following, and detecting an object corresponding to the grouped detection point as a road structure,
The road structure detecting means is
Based on the detection position of the road structure at the previous timing and the road shape model, a detection region that is less than a predetermined distance with respect to the road shape model and a detection region that is more than a predetermined distance with respect to the road shape model A detection area setting section to be set;
A starting point extraction unit that extracts a detection point that is a starting point of the road structure model for each detection region set by the detection region setting unit;
One or two or more detection points are sequentially connected to a starting point extracted by the starting point extraction unit and detection points having a predetermined positional relationship with the starting point and having a distance to the road shape model less than a predetermined value . A line segment detector for detecting line segments;
Based on the line segment detected by the line segment detection unit, a model calculation unit that calculates a road structure model at the current timing for each of the set detection areas;
Determination of grouping detection points having a predetermined positional relationship with the road structure model calculated by the model calculation unit, and determining an object corresponding to the grouped detection point as a road structure ahead of the host vehicle at the current timing And a front object detection device.
前記道路形状モデル算出手段は、地図データベースにアクセスして、前記検出情報取得手段により取得される検出情報の検出領域よりも広い所定領域の前記道路形状情報を取得し、取得した道路形状情報を前記検出情報の検出領域内に入るようにデータ変換し、当該変換後の道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する請求項1に記載の前方物体検出装置。   The road shape model calculation means accesses the map database, acquires the road shape information in a predetermined area wider than the detection area of the detection information acquired by the detection information acquisition means, and acquires the acquired road shape information The forward object detection device according to claim 1, wherein data is converted so as to fall within a detection area of detection information, and a road shape model of a traveling road ahead of the host vehicle is calculated based on the road shape information after the conversion. 前記線分検出部は、
前記起点抽出部により検出領域ごとに抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデル算出手段により現のタイミングにおいて算出された道路形状モデルに対する距離が所定値未満の検出ポイントを、順次連結して1又は2以上の線分を検出する第1線分検出部と、
前記起点抽出部により検出領域ごとに抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデル算出手段により現のタイミングにおいて算出された道路形状モデルに対する距離が所定値以上の検出ポイントを、順次連結して1又は2以上の線分を検出する第2線分検出部とを有する請求項1又は2に記載の前方物体検出装置。
The line segment detector
The starting point extracted for each detection region by the starting point extracting unit, and the distance to the road shape model that is a detection point having a predetermined positional relationship with the starting point and calculated at the current timing by the road shape model calculating means A first line segment detector that detects one or more line segments by sequentially connecting detection points that are less than a predetermined value;
The starting point extracted for each detection region by the starting point extracting unit, and the distance to the road shape model that is a detection point having a predetermined positional relationship with the starting point and calculated at the current timing by the road shape model calculating means The forward object detection device according to claim 1 , further comprising: a second line segment detection unit configured to sequentially detect detection points having a predetermined value or more and detect one or more line segments.
前記判定部は、前記道路構造物に対応する検出ポイント以外の検出ポイントが前記道路形状モデルに対して左側又は右側のいずれの側にあるかを判断し、その判断結果に応じて当該検出ポイントが前記グルーピングの対象となるか否かの判断基準となる所定の位置関係を変更する判定基準変更部を有する請求項1〜3の何れか一項に記載の前方物体検出装置。 The determination unit determines whether a detection point other than the detection point corresponding to the road structure is on the left side or the right side with respect to the road shape model, and the detection point is determined according to the determination result. The front object detection device according to any one of claims 1 to 3, further comprising a determination reference changing unit that changes a predetermined positional relationship that is a determination reference for determining whether or not to be the grouping target. 前記道路構造物検出手段により検出された道路構造物に対応する検出ポイント以外の検出ポイントの検出情報に基づいて、道路構造物以外の物体を検出する可動物体検出手段をさらに有する請求項1〜4のいずれかに記載の前方物体検出装置。 Based on the detection information of the detection point other than the detection point corresponding to the road structures detected by the road structure detection means, according to claim 1 to 4, further comprising a movable object detecting means for detecting an object other than the road structures The front object detection apparatus in any one of. 前記可動物体検出手段は、前記道路構造物検出手段により検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項5に記載の前方物体検出装置。 The movable object detection means is a detection point other than the detection points corresponding to the road structure detected by the road structure detection means, and groups detection points having a predetermined positional relationship with the host vehicle, The forward object detection device according to claim 5 , wherein an object corresponding to the grouped detection point is detected as an object other than a road structure. 前記可動物体検出手段は、前記道路構造物検出手段により検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と第1の位置関係を有する検出ポイントをグルーピングした第1グループと、第2の位置関係を有する検出ポイントをグルーピングした第2グループとを比較し、第1グループと第2グループとが所定の位置関係にある場合に、前記第1グループ又は前記第2グループとしてグルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項5に記載の前方物体検出装置。 The movable object detection means is a detection point other than the detection points corresponding to the road structure detected by the road structure detection means, and groups detection points having a first positional relationship with the host vehicle. When one group is compared with a second group in which detection points having a second positional relationship are grouped, and the first group and the second group are in a predetermined positional relationship, the first group or the second group The front object detection device according to claim 5 , wherein an object corresponding to a detection point grouped as a group is detected as an object other than a road structure. 前記可動物体検出手段は、先のタイミングにおいてグルーピングした検出ポイントのグループと、その後のタイミングにおいてグルーピングした検出ポイントのグループとの位置関係に基づいて、前記後のタイミングにおける検出ポイントグループに対応する物体を道路構造物以外の物体として検出する請求項5〜7の何れか一項に記載の前方物体検出装置。 The movable object detecting means detects an object corresponding to the detection point group at the later timing based on a positional relationship between the group of detection points grouped at the previous timing and the group of detection points grouped at the subsequent timing. The forward object detection device according to any one of claims 5 to 7, wherein the forward object detection device detects an object other than a road structure. 自車両に搭載され、自車両前方に存在する物体を検出する前方物体検出方法であって、
前記自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントの情報を含む検出情報を取得するステップと、
前記自車両の現在位置を取得するとともに、地図データベースにアクセスして前記自車両前方の道路形状情報を取得し、当該道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出するステップと、
前記取得された検出情報と前記算出された道路形状モデルとに基づいて道路構造物モデルを算出し、当該算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として検出するステップとを有し、
道路構造物を検出するステップは、
先のタイミングにおける前記道路構造物の検出位置と前記道路形状モデルとに基づいて、前記道路形状モデルに対して所定距離未満の検出領域と前記道路形状モデルに対して所定距離以上の検出領域とを設定するステップと、
前記設定された検出領域ごとに前記道路構造物モデルの起点となる検出ポイントを抽出するステップと、
前記抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデルに対する距離が所定値未満の検出ポイントとを順次連結して1又は2以上の線分を検出するステップと、
前記検出された線分に基づいて、前記設定された検出領域ごとに現タイミングにおける道路構造物モデルを算出するステップと、
前記算出された道路構造物モデルと所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を現タイミングにおける自車両前方の道路構造物として判定するステップと、を有することを特徴とする前方物体検出方法。
A forward object detection method for detecting an object mounted on a host vehicle and existing in front of the host vehicle,
Obtaining detection information including information on a detection point of the object detected based on a reflected wave of a scanning wave emitted forward of the host vehicle;
Obtaining a current position of the host vehicle, accessing a map database to acquire road shape information ahead of the host vehicle, and calculating a road shape model of a traveling road ahead of the host vehicle based on the road shape information When,
A road structure model is calculated based on the acquired detection information and the calculated road shape model, and detection points having a predetermined positional relationship with the calculated road structure model are grouped, and the grouped Detecting an object corresponding to the detected point as a road structure,
The step of detecting road structures is
Based on the detection position of the road structure at the previous timing and the road shape model, a detection region that is less than a predetermined distance with respect to the road shape model and a detection region that is more than a predetermined distance with respect to the road shape model Steps to set,
Extracting a detection point that is a starting point of the road structure model for each of the set detection areas;
One or two or more line segments are obtained by sequentially connecting the extracted starting point and a detecting point having a predetermined positional relationship with the starting point and having a distance to the road shape model less than a predetermined value. Detecting step;
Calculating a road structure model at the current timing for each of the set detection areas based on the detected line segments;
Grouping detection points having a predetermined positional relationship with the calculated road structure model, and determining an object corresponding to the grouped detection points as a road structure ahead of the host vehicle at the current timing. A forward object detection method characterized by the above.
前記走行道路形状モデルを算出するステップは、地図データベースにアクセスして、前記取得される検出情報の検出領域よりも広い所定領域の前記道路形状情報を取得し、取得した道路形状情報を前記検出情報の検出領域内に入るようにデータ変換し、当該変換後の道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する請求項9に記載の前方物体検出方法。 The step of calculating the traveling road shape model includes accessing a map database, acquiring the road shape information in a predetermined area wider than the detection area of the acquired detection information, and acquiring the acquired road shape information as the detection information. The forward object detection method according to claim 9 , wherein data is converted so as to fall within a detection area of the vehicle, and a road shape model of a traveling road ahead of the host vehicle is calculated based on the road shape information after the conversion. 前記線分を検出するステップは、
前記起点を抽出するステップにより検出領域ごとに抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ現のタイミングにおいて算出された前記道路形状モデルに対する距離が所定値未満の検出ポイントを、順次連結して1又は2以上の第1線分を検出するステップと、
前記検出領域ごとに抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ現のタイミングにおいて算出された前記道路形状モデルに対する距離が所定値以上の検出ポイントを、順次連結して1又は2以上の第2線分を検出するステップとを有する請求項9又は10に記載の前方物体検出方法。
Detecting the line segment comprises:
The starting point extracted for each detection area by the step of extracting the starting point, and a detection point that is in a predetermined positional relationship with the starting point, and the distance to the road shape model calculated at the current timing is less than a predetermined value Detecting one or more first line segments by sequentially connecting the detection points;
A starting point extracted for each of the detection areas, and a detection point that is in a predetermined positional relationship with the starting point, and that has a distance to the road shape model calculated at the current timing are sequentially greater than or equal to a predetermined value. The method for detecting a front object according to claim 9 or 10 , further comprising a step of detecting one or more second line segments by connecting them.
前記判定するステップは、前記道路構造物に対応する検出ポイント以外の検出ポイントが前記道路形状モデルに対して左側又は右側のいずれの側にあるかを判断し、その判断結果に応じて当該検出ポイントが前記グルーピングの対象となるか否かの判断基準となる所定の位置関係を変更するステップを有する請求項9〜11の何れか一項に記載の前方物体検出方法。 The determining step determines whether a detection point other than the detection point corresponding to the road structure is on the left side or the right side with respect to the road shape model, and the detection point according to the determination result The method of detecting a front object according to any one of claims 9 to 11, further comprising a step of changing a predetermined positional relationship that is a criterion for determining whether or not a target of grouping. 前記道路構造物を検出するステップにより検出された道路構造物に対応する検出ポイント以外の検出ポイントの検出情報に基づいて、道路構造物以外の物体を検出するステップをさらに有する請求項9〜12のいずれかに記載の前方物体検出方法。 The method according to claim 9 , further comprising: detecting an object other than the road structure based on detection information of a detection point other than the detection point corresponding to the road structure detected by the step of detecting the road structure. The front object detection method according to any one of the above. 前記道路構造物以外の物体を検出するステップは、前記検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項13に記載の前方物体検出方法。 The step of detecting an object other than the road structure is a detection point other than a detection point corresponding to the detected road structure, and groups detection points having a predetermined positional relationship with the host vehicle, The forward object detection method according to claim 13 , wherein an object corresponding to the grouped detection point is detected as an object other than a road structure. 前記道路構造物以外の物体を検出するステップは、前記検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と第1の位置関係を有する検出ポイントをグルーピングした第1グループと、第2の位置関係を有する検出ポイントをグルーピングした第2グループとを比較し、第1グループと第2グループとが所定の位置関係にある場合に、前記第1グループ又は前記第2グループとしてグルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項13に記載の前方物体検出方法。 The step of detecting an object other than the road structure is a detection point other than the detection point corresponding to the detected road structure, wherein the detection points having the first positional relationship with the host vehicle are grouped. When one group is compared with a second group in which detection points having a second positional relationship are grouped, and the first group and the second group are in a predetermined positional relationship, the first group or the second group The front object detection method according to claim 13 , wherein an object corresponding to a detection point grouped as a group is detected as an object other than a road structure. 前記道路構造物以外の物体を検出するステップは、先のタイミングにおいてグルーピングした検出ポイントのグループと、その後のタイミングにおいてグルーピングした検出ポイントのグループとの関係に基づいて、前記後のタイミングにおける検出ポイントグループに対応する物体を道路構造物以外の物体として検出する請求項13〜15の何れか一項に記載の前方物体検出方法。 The step of detecting an object other than the road structure includes the detection point group at the subsequent timing based on the relationship between the group of detection points grouped at the previous timing and the group of detection points grouped at the subsequent timing. The forward object detection method according to any one of claims 13 to 15, wherein an object corresponding to is detected as an object other than a road structure.
JP2004308168A 2004-10-22 2004-10-22 Front object detection apparatus and front object detection method Expired - Fee Related JP5055691B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004308168A JP5055691B2 (en) 2004-10-22 2004-10-22 Front object detection apparatus and front object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004308168A JP5055691B2 (en) 2004-10-22 2004-10-22 Front object detection apparatus and front object detection method

Publications (2)

Publication Number Publication Date
JP2006119026A JP2006119026A (en) 2006-05-11
JP5055691B2 true JP5055691B2 (en) 2012-10-24

Family

ID=36537045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004308168A Expired - Fee Related JP5055691B2 (en) 2004-10-22 2004-10-22 Front object detection apparatus and front object detection method

Country Status (1)

Country Link
JP (1) JP5055691B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4849013B2 (en) * 2007-06-14 2011-12-28 トヨタ自動車株式会社 Vehicle periphery monitoring device
JP5067203B2 (en) * 2008-03-04 2012-11-07 トヨタ自動車株式会社 Vehicle background image collection device
JP5433289B2 (en) * 2009-04-20 2014-03-05 三菱重工業株式会社 Automatic traveling vehicle and road shape recognition device
DE112010005977B4 (en) * 2010-11-04 2015-08-06 Toyota Jidosha Kabushiki Kaisha Road shape estimation apparatus
JP5321640B2 (en) * 2011-05-17 2013-10-23 株式会社デンソー Vehicular road shape recognition method and apparatus, and recording medium
KR101734234B1 (en) * 2015-12-11 2017-05-11 현대자동차 주식회사 Apparatus and method for recognizing position and traffic lane of vehicle using radar and map
KR101808413B1 (en) * 2016-04-04 2017-12-14 경희대학교 산학협력단 System and method for probiding roadway type information using road characteristic information
JP7198687B2 (en) * 2018-03-01 2023-01-04 日産自動車株式会社 Ambient environment information generation method and ambient environment information generation device
JP7257158B2 (en) * 2019-02-04 2023-04-13 日産自動車株式会社 Ambient environment information generation method and ambient environment information generation device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0216484A (en) * 1988-07-04 1990-01-19 Nissan Motor Co Ltd On-vehicle radar equipment
JP2778342B2 (en) * 1992-03-17 1998-07-23 日産自動車株式会社 Radar equipment for vehicles
JP3341186B2 (en) * 1994-03-31 2002-11-05 オムロン株式会社 Object discriminating apparatus and method, and vehicle equipped with object discriminating apparatus
JP3848431B2 (en) * 1997-04-28 2006-11-22 本田技研工業株式会社 VEHICLE POSITION ESTIMATION APPARATUS, VEHICLE POSITION ESTIMATION METHOD, TRAVEL lane maintenance apparatus, and TR
JP2000030198A (en) * 1998-07-14 2000-01-28 Mitsubishi Motors Corp Device for recognizing road shape for vehicle
JP3690366B2 (en) * 2001-12-27 2005-08-31 日産自動車株式会社 Front object detection device
JP2003296899A (en) * 2002-03-29 2003-10-17 Toyota Central Res & Dev Lab Inc Preceding vehicle determining device
JP4506162B2 (en) * 2003-02-20 2010-07-21 日産自動車株式会社 Front object detection apparatus and front object detection method

Also Published As

Publication number Publication date
JP2006119026A (en) 2006-05-11

Similar Documents

Publication Publication Date Title
JP5441549B2 (en) Road shape recognition device
JP7059888B2 (en) Assistance control system
US11124163B2 (en) Method for controlling travel of vehicle, and device for controlling travel of vehicle
EP3306429B1 (en) Position estimation device and position estimation method
CN104793202B (en) The object emerging system of more radar imagery sensors
JP2023073257A (en) Output device, control method, program, and storage medium
US20190212440A1 (en) Driving lane detection device and driving lane detection method
JP6399100B2 (en) Travel route calculation device
JP2004531424A (en) Sensing device for cars
WO2020145053A1 (en) Travel lane estimation device, travel lane estimation method, control program, and computer-readable non-transitory recording medium
KR102614157B1 (en) Method and system for recognizing position of self-driving car
JP5055691B2 (en) Front object detection apparatus and front object detection method
JP2018048949A (en) Object recognition device
US11420632B2 (en) Output device, control method, program and storage medium
US20180208197A1 (en) Lane keeping assistance system
JP6263453B2 (en) Momentum estimation device and program
JP6232883B2 (en) Own vehicle position recognition device
JP4506163B2 (en) Front object detection apparatus and front object detection method
JP2012113431A (en) Front obstacle detecting device for vehicle
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
JP2005173917A (en) Device and method for detecting branching path
JP6923750B2 (en) Self-position estimation device, self-position estimation method, program and storage medium
JP7414603B2 (en) Track boundary determination device and track boundary determination method
JP2021170029A (en) Measurement device, measurement method, and program
JP2022065044A (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110120

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5055691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees