JP2012225806A - Road gradient estimation device and program - Google Patents

Road gradient estimation device and program Download PDF

Info

Publication number
JP2012225806A
JP2012225806A JP2011094256A JP2011094256A JP2012225806A JP 2012225806 A JP2012225806 A JP 2012225806A JP 2011094256 A JP2011094256 A JP 2011094256A JP 2011094256 A JP2011094256 A JP 2011094256A JP 2012225806 A JP2012225806 A JP 2012225806A
Authority
JP
Japan
Prior art keywords
road surface
point
dimensional position
object candidate
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011094256A
Other languages
Japanese (ja)
Inventor
Kiyosumi Shirodono
清澄 城殿
Akihiro Watanabe
章弘 渡邉
Takashi Naito
貴志 内藤
Tatsuya Shiraishi
達也 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2011094256A priority Critical patent/JP2012225806A/en
Publication of JP2012225806A publication Critical patent/JP2012225806A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To accurately estimate gradient of a front road even when a specific object such as a preceding vehicle or a lane line does not exist.SOLUTION: A road surface reflection point extraction part 22 extracts a road surface reflection point from observation data of a laser radar 12, and a first solid object candidate extraction part 24 extracts a first solid object candidate from the remaining point groups. In addition, a second solid object candidate extraction part 26 extracts a second solid object candidate by detection or pattern recognition of a vertical edge from a picked-up image, a road surface grounding point calculation part 28 detects a road surface grounding point from the second solid object candidate on the picked-up image, and calculates a three-dimensional position of the road surface grounding point by using distance information of the first solid object candidate corresponding to the second solid object candidate. A road gradient estimation part 30 plots the three-dimensional position of the road surface grounding point calculated by the road surface grounding point calculation part 28, and a three-dimensional position of the road surface reflection point extracted by the road surface reflection point extraction part 22 to a three-dimensional coordinate space centering around a self-vehicle, and performs fitting of a road surface model to estimate the road shape.

Description

本発明は、道路勾配推定装置及びプログラムに関する。   The present invention relates to a road gradient estimation apparatus and program.

従来、走査制御手段により、先行車の反射光の受光位置に追従して自車の測距用のレーザレーダのレーザの高さ方向の走査位置を可変し、車間距離演算手段により、レーザの照射と反射光の受光との時間差から自車と先行車との車間距離を計測し、起点検出手段により、高さ方向の走査位置が設定値以上変化した地点より計測車間距離前方の勾配起点を検出し、自車が勾配起点に到達したときに、勾配演算手段により、自車の走行距離と走査変化量検出手段が検出した高さ方向の走査位置の変化量の検出値とから、前方の路面の相対的な勾配を算出して推定する路面勾配推定装置が提案されている(例えば、特許文献1参照)。   Conventionally, the scanning control means varies the scanning position in the laser height direction of the laser radar for ranging of the own vehicle following the light receiving position of the reflected light of the preceding vehicle, and the laser irradiation is performed by the inter-vehicle distance calculation means. The distance between the vehicle and the preceding vehicle is measured from the time difference between the received light and the reflected light, and the starting point detection means detects the gradient starting point ahead of the measured inter-vehicle distance from the point where the scanning position in the height direction has changed by more than the set value. When the vehicle reaches the starting point of the gradient, the gradient calculation means calculates the road surface ahead from the distance traveled by the vehicle and the detected value of the change in the scanning position in the height direction detected by the scanning change amount detection means. There has been proposed a road surface gradient estimation device that calculates and estimates the relative gradient of (see, for example, Patent Document 1).

また、映像カメラから前方の路面映像を受信し、路面映像から車線境界線を抽出し、抽出された車線境界線に基づいてレーダーの照射角度を調節し、調節された照射角度で照射されたレーダービームの反射波を利用して前方車両との距離を計算することにより、道路に屈曲のある場合でも前方車両との距離を検出する車間距離測定装置が提案されている(例えば、特許文献2参照)。   Also, it receives the road surface image from the video camera, extracts the lane boundary line from the road surface image, adjusts the irradiation angle of the radar based on the extracted lane boundary line, and the radar irradiated at the adjusted irradiation angle There has been proposed an inter-vehicle distance measuring device that detects a distance from a preceding vehicle even when the road is bent by calculating a distance from the preceding vehicle using a reflected wave of a beam (see, for example, Patent Document 2). ).

また、ジャイロセンサを用いて、車両の走行中のピッチ角を検出し、車両の前後方向に位置を異ならせた複数箇所で、車両の車体と路面との距離を検出することによって、車両傾き角を検出し、ピッチ角と車両傾き角との偏差に基づいて、走行中の道路の道路勾配を検出する道路勾配計測装置が提案されている(例えば、特許文献3参照)。特許文献3の道路勾配計測装置において、ピッチ角は、車両傾き角および道路勾配のみによって決定されるため、ジャイロセンサを用いて精度良くピッチ角を検出し、車両の前後で路面との距離を検出して車両傾き角を求めることで、ピッチ角と車両傾き角との偏差から、道路勾配を算出している。   In addition, the vehicle tilt angle is detected by detecting the pitch angle during traveling of the vehicle using a gyro sensor, and detecting the distance between the vehicle body and the road surface at a plurality of positions that are different in the front-rear direction of the vehicle. And a road gradient measuring device that detects the road gradient of the road on the basis of the deviation between the pitch angle and the vehicle inclination angle has been proposed (see, for example, Patent Document 3). In the road gradient measuring device of Patent Document 3, since the pitch angle is determined only by the vehicle inclination angle and the road gradient, the pitch angle is accurately detected using a gyro sensor, and the distance from the road surface is detected before and after the vehicle. By calculating the vehicle inclination angle, the road gradient is calculated from the deviation between the pitch angle and the vehicle inclination angle.

特開2004−317323号公報JP 2004-317323 A 特開2004−151080号公報JP 2004-151080 A 特開2009−276109号公報JP 2009-276109 A

しかしながら、特許文献1の技術では、先行車のリフレクタが検知されるスキャンラインの変化を利用するため、先行車が存在しない状況では、道路勾配を推定することができない、という問題がある。また、路面の凹凸などによって自車両にピッチ変動が生じた場合に、勾配起点の検出が困難になる場合もある、という問題がある。   However, since the technique of Patent Document 1 uses a change in the scan line in which the reflector of the preceding vehicle is detected, there is a problem that the road gradient cannot be estimated in a situation where there is no preceding vehicle. In addition, there is a problem that it is sometimes difficult to detect the gradient starting point when the pitch of the host vehicle changes due to unevenness on the road surface.

また、特許文献2の技術では、車線境界線が整備されていない道路や、汚れや磨耗により車線境界線の検出が安定して行えない場合には、道路勾配を推定することが困難である、という問題がある。   Further, in the technique of Patent Document 2, it is difficult to estimate the road gradient when the road where the lane boundary is not maintained, or when the detection of the lane boundary cannot be stably performed due to dirt or wear, There is a problem.

また、特許文献3の技術では、車両直下の路面が計測対象となっており、車両が通過した道路の勾配を高精度に推定することはできるが、これから走行する前方道路の勾配を推定することはできない、という問題がある。   Further, in the technique of Patent Document 3, the road surface directly under the vehicle is a measurement target, and the gradient of the road through which the vehicle has passed can be estimated with high accuracy, but the gradient of the road ahead is estimated to be estimated. There is a problem that it is not possible.

本発明は、上記の問題点を解決するためになされたもので、先行車や車線境界線等の特定物体が存在しない場合でも、前方道路の勾配を精度良く推定することができる道路勾配推定装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and a road gradient estimation device capable of accurately estimating the gradient of a road ahead even when a specific object such as a preceding vehicle or a lane boundary line does not exist. And to provide a program.

上記目的を達成するために、本発明の道路勾配推定装置は、移動体周辺の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体周辺を該移動体に搭載された撮像手段により撮像した画像を取得する取得手段と、前記取得手段により取得された前記複数の点各々の3次元位置に基づいて、立体物を示す点を第1の立体物候補として抽出する第1の抽出手段と、前記取得手段により取得された画像の垂直エッジ情報及び予め定めた形状とのマッチング情報の少なくとも一方に基づいて、第2の立体物候補を抽出する第2の抽出手段と、前記第2の立体物候補に対応する前記第1の立体物候補の3次元位置に基づいて、該第2の立体物候補の路面との接地点の3次元位置を算出する算出手段と、前記算出手段により算出された接地点の3次元位置に基づいて、前記移動体周辺の道路勾配を推定する勾配推定手段と、を含んで構成されている。   In order to achieve the above object, a road gradient estimation apparatus according to the present invention includes a three-dimensional position based on the moving body at each of a plurality of points around the moving body, and the moving body is mounted on the moving body. A first unit that extracts a point indicating a three-dimensional object as a first three-dimensional object candidate based on a three-dimensional position of each of the plurality of points acquired by the acquiring unit and an acquisition unit that acquires an image captured by the imaging unit The second extraction means for extracting a second solid object candidate based on at least one of the vertical edge information of the image acquired by the acquisition means and the matching information with a predetermined shape; Calculating means for calculating a three-dimensional position of a contact point with the road surface of the second three-dimensional object candidate based on a three-dimensional position of the first three-dimensional object candidate corresponding to the second three-dimensional object candidate; Grounding point calculated by means Based on the three-dimensional position, is configured to include a, a gradient estimation means for estimating the road gradient around the movable body.

本発明の道路勾配推定装置によれば、取得手段が、移動体周辺の複数の点各々の移動体を基準とする3次元位置、及び移動体周辺を該移動体に搭載された撮像手段により撮像した画像を取得する。そして、第1の抽出手段が、取得手段により取得された複数の点各々の3次元位置に基づいて、立体物を示す点を第1の立体物候補として抽出する。第1の抽出手段は、各点の3次元位置に基づいて立体物候補を抽出するため、移動体と立体物候補との距離について、精度の高い距離情報を有することができる。   According to the road gradient estimation apparatus of the present invention, the acquisition unit captures the three-dimensional position with respect to the moving body around each of the plurality of points around the moving body and the imaging unit mounted on the moving body. Acquired image. And the 1st extraction means extracts the point which shows a solid object as a 1st solid object candidate based on the three-dimensional position of each of several points acquired by the acquisition means. Since the first extraction unit extracts the three-dimensional object candidate based on the three-dimensional position of each point, it can have highly accurate distance information regarding the distance between the moving object and the three-dimensional object candidate.

また、第2の抽出手段が、取得手段により取得された画像の垂直エッジ情報及び予め定めた形状とのマッチング情報の少なくとも一方に基づいて、第2の立体物候補を抽出する。第2の抽出手段は、撮像手段により撮像された画像から立体物候補を抽出するため、画像上で立体物候補と路面との接地点を精度良く検出することができる。   Further, the second extraction unit extracts the second solid object candidate based on at least one of the vertical edge information of the image acquired by the acquisition unit and the matching information with a predetermined shape. Since the second extraction unit extracts the three-dimensional object candidate from the image captured by the imaging unit, it is possible to accurately detect the contact point between the three-dimensional object candidate and the road surface on the image.

そして、算出手段が、第2の立体物候補に対応する第1の立体物候補の3次元位置に基づいて、該第2の立体物候補の路面との接地点の3次元位置を算出し、勾配推定手段が、算出手段により算出された接地点の3次元位置に基づいて、移動体周辺の道路勾配を推定する。   Then, based on the three-dimensional position of the first three-dimensional object candidate corresponding to the second three-dimensional object candidate, the calculating means calculates the three-dimensional position of the contact point with the road surface of the second three-dimensional object candidate, A gradient estimation unit estimates a road gradient around the moving body based on the three-dimensional position of the ground contact point calculated by the calculation unit.

このように、撮像手段により撮像された画像から検出した立体物候補と路面との接地点と、立体物候補までの精度の高い距離情報とに基づいて、接地点の3次元位置を算出するため、この接地点の3次元位置を用いて、先行車や車線境界線等の特定物体が存在しない場合でも、前方道路の勾配を精度良く推定することができる。   As described above, in order to calculate the three-dimensional position of the ground contact point based on the ground contact point between the solid object candidate and the road surface detected from the image captured by the imaging unit and the highly accurate distance information to the solid object candidate. By using the three-dimensional position of this contact point, the gradient of the road ahead can be accurately estimated even when there is no specific object such as a preceding vehicle or a lane boundary line.

また、前記算出手段は、前記第2の立体物候補から求まる3次元座標空間の原点から前記接地点へ向かう方向、及び前記対応する第1の立体物候補の3次元位置に基づいて、前記接地点の3次元位置を算出することができる。   Further, the calculating means is configured to perform the connection based on the direction from the origin of the three-dimensional coordinate space obtained from the second three-dimensional object candidate to the grounding point and the three-dimensional position of the corresponding first three-dimensional object candidate. The three-dimensional position of the point can be calculated.

また、本発明の道路勾配推定装置は、所定期間の前記移動体の運動量に基づいて、過去に算出された前記接地点の3次元位置を現在の座標系に変換する変換手段を含んで構成することができ、前記勾配推定手段は、前記変換手段により変換された接地点の3次元位置も加えた分布に基づいて、前記道路勾配を推定することができる。これにより、道路勾配の推定に用いる観測点を増加させることができるため、推定精度を向上させることができる。   In addition, the road gradient estimation apparatus of the present invention is configured to include conversion means for converting the three-dimensional position of the grounding point calculated in the past to the current coordinate system based on the momentum of the moving body during a predetermined period. The gradient estimation means can estimate the road gradient based on a distribution including the three-dimensional position of the ground contact point converted by the conversion means. Thereby, since the observation point used for estimation of a road gradient can be increased, estimation accuracy can be improved.

また、前記算出手段は、現在算出された接地点の3次元位置と過去に算出された接地点の3次元位置との照合結果に基づく信頼度を付与して、該現在算出された接地点の3次元位置を所定の記憶領域に記憶し、前記勾配推定手段は、前記所定の記憶領域に記憶された接地点の3次元位置のうち、前記信頼度が所定値以上の接地点の3次元位置を前記変換手段により変換した3次元位置を加えるか、または、前記所定の記憶領域に記憶された接地点の3次元位置を前記変換手段により変換して、前記信頼度に応じた重み付けをして加えることができる。このように、信頼度の高い過去の接地点の3次元位置を用いるため、または信頼度に応じた重み付けで過去の接地点の3次元位置を用いるため、より推定精度を向上させることができる。   In addition, the calculation unit assigns a reliability based on a comparison result between the three-dimensional position of the currently calculated grounding point and the three-dimensional position of the grounding point calculated in the past, so that the currently calculated grounding point is calculated. A three-dimensional position is stored in a predetermined storage area, and the gradient estimation unit is configured to determine a three-dimensional position of a grounding point having a reliability equal to or higher than a predetermined value among the three-dimensional positions of the grounding point stored in the predetermined storage area. The three-dimensional position converted by the conversion means is added, or the three-dimensional position of the grounding point stored in the predetermined storage area is converted by the conversion means, and weighted according to the reliability. Can be added. In this way, since the three-dimensional position of the past grounding point with high reliability is used, or the three-dimensional position of the past grounding point is used with weighting according to the reliability, the estimation accuracy can be further improved.

また、前記第1の抽出手段は、前記複数の点各々から路面点を抽出し、該路面点以外の点を前記第1の立体物候補として抽出し、前記勾配推定手段は、前記路面点の3次元位置も加えた3次元位置の分布に基づいて、前記道路勾配を推定することができる。路面点は3次元位置を有しており、路面点を抽出すれば、そのまま道路勾配の推定に用いることができ、推定に用いる観測点を増加させることができるため、推定精度を向上させることができる。   Further, the first extraction means extracts road surface points from each of the plurality of points, extracts points other than the road surface points as the first three-dimensional object candidates, and the gradient estimation means includes the road surface points. The road gradient can be estimated based on the distribution of the three-dimensional position including the three-dimensional position. The road surface point has a three-dimensional position. If the road surface point is extracted, it can be used as it is for estimating the road gradient, and the number of observation points used for the estimation can be increased, so that the estimation accuracy can be improved. it can.

また、前記変換手段は、所定期間の前記移動体の運動量に基づいて、過去に抽出された前記路面点の3次元位置を現在の座標系に変換し、前記勾配推定手段は、前記変換手段により変換された路面点の3次元位置も加えた分布に基づいて、前記道路勾配を推定することができる。接地点と同様、路面点についても過去の情報も用いることで、観測点を増加させることができるため、推定精度を向上させることができる。   Further, the conversion means converts a three-dimensional position of the road surface point extracted in the past into a current coordinate system based on the momentum of the moving body for a predetermined period, and the gradient estimation means is converted by the conversion means. The road gradient can be estimated based on the distribution including the converted three-dimensional position of the road surface point. As with the ground contact point, the past point information is also used for the road surface point, so that the number of observation points can be increased, so that the estimation accuracy can be improved.

また、前記第2の抽出手段は、前記画像から垂直エッジを抽出し、電柱、ポール、樹木、及び建築物の少なくとも1つを示す垂直エッジを、前記第2の立体物候補として抽出し、前記算出手段は、前記垂直エッジの最下端を前記接地点として検出することができる。   The second extraction means extracts a vertical edge from the image, extracts a vertical edge indicating at least one of a power pole, a pole, a tree, and a building as the second solid object candidate, The calculating means can detect the lowest end of the vertical edge as the grounding point.

また、前記第2の抽出手段は、パターンマッチングにより、前記画像から円柱状の物体を前記第2の立体物候補として抽出し、前記算出手段は、前記円柱状の物体と路面とが交差する点を前記接地点として検出することができる。   Further, the second extraction means extracts a cylindrical object from the image as the second solid object candidate by pattern matching, and the calculation means includes a point where the cylindrical object and the road surface intersect. Can be detected as the grounding point.

また、前記複数の点各々の3次元位置を、複数の走査ラインを有するレーザレーダであって、該走査ラインの少なくとも1つが路面に照射されるように構成されたレーザレーダにより計測することができる。これにより、路面点が確実に計測されるため、道路勾配を推定するための観測点を確保することができる。   Further, the three-dimensional position of each of the plurality of points can be measured by a laser radar having a plurality of scanning lines and configured so that at least one of the scanning lines is irradiated on the road surface. . Thereby, since a road surface point is measured reliably, the observation point for estimating a road gradient is securable.

また、本発明の道路勾配推定プログラムは、コンピュータを、移動体周辺の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体周辺を該移動体に搭載された撮像手段により撮像した画像を取得する取得手段、前記取得手段により取得された前記複数の点各々の3次元位置に基づいて、立体物を示す点を第1の立体物候補として抽出する第1の抽出手段、前記取得手段により取得された画像の垂直エッジ情報及び予め定めた形状とのマッチング情報の少なくとも一方に基づいて、第2の立体物候補を抽出する第2の抽出手段と、前記第2の立体物候補に対応する前記第1の立体物候補の3次元位置に基づいて、該第2の立体物候補の路面との接地点の3次元位置を算出する算出手段、及び前記算出手段により算出された接地点の3次元位置に基づいて、前記移動体周辺の道路勾配を推定する勾配推定手段として機能させるためのプログラムである。   In addition, the road gradient estimation program of the present invention includes a computer, a three-dimensional position of each of a plurality of points around a moving body based on the moving body, and an imaging unit mounted on the moving body around the moving body. Acquisition means for acquiring a captured image; first extraction means for extracting a point indicating a three-dimensional object as a first three-dimensional object candidate based on a three-dimensional position of each of the plurality of points acquired by the acquisition means; Second extraction means for extracting a second solid object candidate based on at least one of vertical edge information of the image acquired by the acquisition means and matching information with a predetermined shape; and the second solid object Based on the three-dimensional position of the first three-dimensional object candidate corresponding to the candidate, the calculation means for calculating the three-dimensional position of the ground contact point with the road surface of the second three-dimensional object candidate, and the calculation means Grounding point Based on the three-dimensional position, a program for functioning as the gradient estimation means for estimating the road slope near the movable body.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明の道路勾配推定装置及びプログラムによれば、撮像手段により撮像された画像から検出した立体物候補と路面との接地点、及び立体物候補までの精度の高い距離情報に基づいて、接地点の3次元位置が算出でき、この接地点の3次元位置を用いるため、先行車や車線境界線等の特定物体が存在しない場合でも、前方道路の勾配を精度良く推定することができる、という効果が得られる。   As described above, according to the road gradient estimation device and program of the present invention, the ground point between the solid object candidate and the road surface detected from the image captured by the imaging unit, and the distance information with high accuracy to the solid object candidate 3D position of the ground contact point can be calculated based on the above, and since the 3D position of the ground contact point is used, the gradient of the road ahead can be accurately estimated even when there is no specific object such as a preceding vehicle or lane boundary line. The effect that it can be obtained.

第1の実施の形態に係る道路勾配推定装置を示すブロック図である。It is a block diagram which shows the road gradient estimation apparatus which concerns on 1st Embodiment. レーザレーダの複数の走査ラインの一例を示す図である。It is a figure which shows an example of the some scanning line of a laser radar. レーザレーダによる観測例の一例を示す図である。It is a figure which shows an example of the example of an observation by a laser radar. レーザレーダで観測された観測データを画像化した一例を示すイメージ図である。It is an image figure which shows an example which imaged the observation data observed with the laser radar. 第2の立体物候補の抽出に用いる凹状パターンを示す図である。It is a figure which shows the concave pattern used for extraction of a 2nd solid object candidate. (a)第2の立体物候補の抽出例と、(b)対応する第1の立体物候補の抽出例を示す図である。It is a figure which shows the example of extraction of the (a) 2nd solid object candidate, and the extraction example of the (b) corresponding 1st solid object candidate. 路面接地点の3次元位置の算出を説明するための図である。It is a figure for demonstrating calculation of the three-dimensional position of a road surface grounding point. 路面勾配の推定を説明するための図である。It is a figure for demonstrating estimation of a road surface gradient. 第1の実施の形態に係る道路勾配推定装置における道路勾配推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the road gradient estimation process routine in the road gradient estimation apparatus which concerns on 1st Embodiment. 第2の実施の形態に係る道路勾配推定装置を示すブロック図である。It is a block diagram which shows the road gradient estimation apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る道路勾配推定装置における道路勾配推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the road gradient estimation process routine in the road gradient estimation apparatus which concerns on 2nd Embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、車両に搭載され、車両がこれから走行する前方道路の勾配を推定する道路勾配推定装置に、本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case will be described as an example where the present invention is applied to a road gradient estimation device that is mounted on a vehicle and estimates the gradient of a forward road on which the vehicle will travel.

図1に示すように、第1の実施の形態に係る道路勾配推定装置10は、自車両の前方に対して複数の走査ラインのレーザを水平方向に走査しながら照射し、レーザの反射によりレーザが照射された物体上の点の3次元位置を検出するレーザレーダ12と、CCDカメラ等で構成され、車両周辺を撮像して取得された画像の画像データを出力する撮像装置14と、前方道路の勾配を推定する処理を実行するコンピュータ20と、を備えている。   As shown in FIG. 1, the road gradient estimation apparatus 10 according to the first embodiment irradiates the front of the host vehicle with a plurality of scanning line lasers while scanning in the horizontal direction, and the laser is reflected by the laser reflection. A laser radar 12 that detects a three-dimensional position of a point on an object irradiated with light, a CCD camera, and the like, an image pickup device 14 that picks up an image of the periphery of the vehicle and outputs image data, and a road ahead And a computer 20 that executes a process for estimating the gradient of.

レーザレーダ12は、車両前方に設置され、車両の車体前後方向を中心とした視野角で周辺環境を観測し、装置を基準とする車両前方に存在する物体の方位及び距離を検出する装置である。レーザレーダ12は、例えば、図2に示すように、出力する複数の走査ラインのレーザを水平方向に走査して、自車両前方に存在する複数の物体表面上の複数の点で反射されたレーザ光を受光する。レーザ光を照射してから受光するまでの時間により、レーザ光の反射点までの距離を算出する。また、レーザ光を照射した方向も既知であるため、レーザ光の反射点の3次元位置を観測することができる。また、図3に示すように、複数の走査ラインのうち少なくとも1ラインは、路面を観測することができるように俯角が設計されている。   The laser radar 12 is a device that is installed in front of the vehicle, observes the surrounding environment at a viewing angle centered on the longitudinal direction of the vehicle body, and detects the azimuth and distance of an object existing in front of the vehicle with respect to the device. . For example, as shown in FIG. 2, the laser radar 12 scans lasers of a plurality of scanning lines to be output in the horizontal direction and is reflected at a plurality of points on a plurality of object surfaces existing in front of the host vehicle. Receives light. The distance to the reflection point of the laser beam is calculated based on the time from when the laser beam is irradiated until it is received. Further, since the direction in which the laser beam is irradiated is known, the three-dimensional position of the reflection point of the laser beam can be observed. As shown in FIG. 3, the depression angle is designed so that at least one of the plurality of scanning lines can observe the road surface.

レーザレーダ12により観測される観測データは、自車両前方でのレーザ光の反射点の位置を表す3次元座標の集合である。レーザレーダ12による観測処理は一定サイクルで実行され、レーザレーダ12は、各時点での複数の自車両前方におけるレーザ光の反射点の3次元位置を示す観測データをコンピュータ20に出力する。出力される観測データが示す各点の3次元位置は、レーザレーダ12から各反射点までの距離及び方位で表される極座標であってもよいし、レーザレーダ12を中心とする直交座標系上での3次元位置座標であってもよい。   The observation data observed by the laser radar 12 is a set of three-dimensional coordinates representing the position of the laser light reflection point in front of the host vehicle. The observation processing by the laser radar 12 is executed in a fixed cycle, and the laser radar 12 outputs observation data indicating the three-dimensional positions of the reflection points of the laser light in front of a plurality of own vehicles at each time point to the computer 20. The three-dimensional position of each point indicated by the output observation data may be polar coordinates represented by the distance and orientation from the laser radar 12 to each reflection point, or on an orthogonal coordinate system centered on the laser radar 12. It may be a three-dimensional position coordinate.

撮像装置14は、車両前方に設置され、車両の車体前後方向を中心とした視野角で、レーザレーダ12と共通の観測領域を撮像して、画像データをコンピュータ20に出力する。撮像装置14が出力する画像データは、カラー画像であってもよいし、モノクロ画像であってもよい。   The imaging device 14 is installed in front of the vehicle, images an observation region common to the laser radar 12 at a viewing angle centered on the longitudinal direction of the vehicle body, and outputs image data to the computer 20. The image data output from the imaging device 14 may be a color image or a monochrome image.

なお、レーザレーダ12と撮像装置14とは、道路勾配を推定したい範囲の視野角を有すればよく、センサの数や視野角は特に制限されない。さらに、レーザレーダ12及び撮像装置14の設置位置や角度は既知であるため、レーザレーダ12で観測された物体の位置と、撮像装置14で撮像された撮像画像内での物体の位置とは対応付けが可能である。   Note that the laser radar 12 and the imaging device 14 may have a viewing angle in a range in which a road gradient is desired to be estimated, and the number of sensors and the viewing angle are not particularly limited. Furthermore, since the installation positions and angles of the laser radar 12 and the imaging device 14 are known, the position of the object observed by the laser radar 12 corresponds to the position of the object in the captured image captured by the imaging device 14. Can be attached.

コンピュータ20は、CPU、後述する道路勾配推定処理ルーチンを実行するためのプログラム等各種プログラム及び各種データを記憶したROM、データ等を一時的に記憶するRAM、各種情報が記憶されたメモリ、及びこれらを接続するバスを含んで構成されている。   The computer 20 includes a CPU, a ROM for storing various programs such as a program for executing a road gradient estimation processing routine, which will be described later, and a ROM for storing various data, a RAM for temporarily storing data, a memory for storing various information, and these It is comprised including the bus which connects.

このコンピュータ20をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、レーザレーダ12の観測データの中から、レーザ光が路面で反射した路面反射点を抽出する路面反射点抽出部22と、路面反射点として抽出されなかった点群から第1の立体物候補を抽出する第1の立体物候補抽出部24と、撮像装置14により撮像された撮像画像から第2の立体物候補を抽出する第2の立体物候補抽出部26と、第1の立体物候補と第2の立体物候補とを照合して立体物と路面との接地点の3次元位置を算出する路面接地点算出部28と、算出された接地点の3次元位置の分布に基づいて、道路勾配を推定する道路勾配推定部30と、を含んだ構成で表すことができる。   When the computer 20 is described in terms of functional blocks divided for each function realization means determined based on hardware and software, as shown in FIG. 1, laser light is reflected on the road surface from the observation data of the laser radar 12. A road surface reflection point extraction unit 22 that extracts a road surface reflection point, a first solid object candidate extraction unit 24 that extracts a first solid object candidate from a point group that has not been extracted as a road surface reflection point, and an imaging device 14. The second three-dimensional object candidate extraction unit 26 that extracts the second three-dimensional object candidate from the captured image that has been picked up, and the first three-dimensional object candidate and the second three-dimensional object candidate are collated to determine the three-dimensional object and the road surface. The road surface contact point calculation unit 28 that calculates the three-dimensional position of the contact point and the road gradient estimation unit 30 that estimates the road gradient based on the calculated distribution of the three-dimensional position of the contact point are used. be able to.

なお、路面反射点抽出部22及び第1の立体物候補抽出部24が、本発明の第1の抽出手段の一例である。   The road surface reflection point extraction unit 22 and the first three-dimensional object candidate extraction unit 24 are examples of the first extraction unit of the present invention.

路面反射点抽出部22は、レーザレーダ12の観測結果に基づいて、観測データが示す各反射点の中からレーザ光が路面で反射した路面反射点を抽出する。具体的には、レーザ光のパルス形状や、受光したレーザ光の信号強度に基づいて、各反射点が路面反射点か否かを判定する。また、各反射点の3次元位置から高さ情報を用いて路面反射点か否かを判定してもよい。また、各反射点の並び(連続性)により、路面反射点か否かを判定するようにしてもよい。例えば、図4(a)のような周辺環境(撮像装置14で撮像された画像)において、レーザレーダ12で観測された観測データを画像化した一例を、同図(b)に示す。一般的に路面は平面であるため、同一の走査ラインで観測される路面反射点は、同図(b)に示すように円弧状となる。従って、隣接する反射点間で3次元位置の高さ方向の変化量が小さく、かつ反射点を連結した場合に車両前方の進行方向を横切るような円弧を描く反射点を、路面反射点として抽出することができる。   Based on the observation result of the laser radar 12, the road surface reflection point extraction unit 22 extracts a road surface reflection point where the laser beam is reflected on the road surface from the reflection points indicated by the observation data. Specifically, it is determined whether or not each reflection point is a road surface reflection point based on the pulse shape of the laser beam and the signal intensity of the received laser beam. Moreover, you may determine whether it is a road surface reflection point using height information from the three-dimensional position of each reflection point. Further, it may be determined whether or not it is a road surface reflection point based on the arrangement (continuity) of each reflection point. For example, FIG. 4B shows an example of imaging observation data observed by the laser radar 12 in the surrounding environment (an image taken by the imaging device 14) as shown in FIG. Since the road surface is generally a flat surface, the road surface reflection points observed on the same scanning line are arcuate as shown in FIG. Therefore, a reflection point that draws an arc that traverses the traveling direction ahead of the vehicle when the reflection point is connected and the change in the height direction of the three-dimensional position between adjacent reflection points is small is extracted as a road surface reflection point. can do.

第1の立体物候補抽出部24は、レーザレーダ12の観測データが示す各反射点のうち、路面反射点抽出部22で路面反射点として抽出されなかった反射点について、反射点間距離が所定距離より小さい反射点同士をグループ化し、近接する反射点群を1つの立体物とみなし、第1の立体物候補として抽出する。また、第1の立体物候補を構成する各反射点の3次元位置に基づいて、第1の立体物候補の位置を検出する。例えば、第1の立体物候補を構成する反射点群のうち高さ方向の位置が最小となる反射点の3次元位置を、その第1の立体物候補の3次元位置として検出することができる。   The first three-dimensional object candidate extraction unit 24 has a predetermined distance between reflection points of reflection points that are not extracted as road surface reflection points by the road surface reflection point extraction unit 22 among the reflection points indicated by the observation data of the laser radar 12. The reflection points smaller than the distance are grouped together, and the adjacent reflection point group is regarded as one solid object and extracted as a first solid object candidate. In addition, the position of the first three-dimensional object candidate is detected based on the three-dimensional position of each reflection point constituting the first three-dimensional object candidate. For example, it is possible to detect the three-dimensional position of the reflection point whose position in the height direction is the smallest in the reflection point group constituting the first three-dimensional object candidate as the three-dimensional position of the first three-dimensional object candidate. .

第2の立体物候補抽出部26は、撮像装置14で撮像された撮像画像から、垂直エッジの検出またはパターン認識により、電柱やポール等に相当する第2の立体物候補を抽出する。   The second three-dimensional object candidate extraction unit 26 extracts a second three-dimensional object candidate corresponding to a utility pole, pole, or the like from the captured image captured by the imaging device 14 by detecting a vertical edge or pattern recognition.

まず、垂直エッジによる第2の立体物候補の抽出について説明する。第2の立体物候補は、電柱、ガードレールや標識の支柱等のポール、樹木などの円柱状の物体であり、さらに建物等の構造物の稜線等も含んでよい。このような立体物は垂直エッジを含む場合が多いため、撮像画像全体から垂直エッジを抽出する。抽出された垂直エッジを、エッジの長さ、傾き、エッジ勾配等に基づいてグループ化し、グループ化された垂直エッジ群を1つの立体物とみなし、第2の立体物候補として抽出する。   First, extraction of a second three-dimensional object candidate using a vertical edge will be described. The second three-dimensional object candidate is a pole-like object such as a utility pole, guardrail or sign post, or a cylindrical object such as a tree, and may further include a ridge line of a structure such as a building. Since such a three-dimensional object often includes a vertical edge, the vertical edge is extracted from the entire captured image. The extracted vertical edges are grouped based on the edge length, inclination, edge gradient, etc., and the grouped vertical edges are regarded as one solid object and extracted as a second solid object candidate.

次に、パターン認識による第2の立体物候補の抽出について説明する。図5に示すように、電柱やポールなどの円柱状の立体物が路面と接地する箇所は、凹状のパターンとなる。そこで、パターン認識により、この凹状パターンに相当する部分を撮像画像から検出し、凹状パターンを含む物体を第2の立体物候補として抽出する。   Next, extraction of the second three-dimensional object candidate by pattern recognition will be described. As shown in FIG. 5, a portion where a cylindrical solid object such as a utility pole or pole contacts the road surface is a concave pattern. Therefore, by pattern recognition, a portion corresponding to the concave pattern is detected from the captured image, and an object including the concave pattern is extracted as a second solid object candidate.

第2の立体物候補抽出部26では、上記の垂直エッジの検出及びパターン認識の少なくとも一方を実行する。   The second three-dimensional object candidate extraction unit 26 executes at least one of the above-described vertical edge detection and pattern recognition.

路面接地点算出部28は、レーザレーダ12及び撮像装置14の姿勢に基づいて、第1の立体物候補と第2の立体物候補との対応を取る。具体的には、車両を中心とする3次元座標空間に、抽出された第1の立体物候補及び第2の立体物候補を投影し、第2の立体物候補の水平方向の位置を手掛かりに奥行き方向に探索して対応する第1の立体物候補を検出することにより、第1の立体物候補と第2の立体物候補との対応を取る。図6(a)に第2の立体物候補の抽出例、同図(b)に第1の立体物候補の抽出例を示す。ここでは、説明のため、同図(b)は、高さ方向の情報を削除した鳥瞰表示で表している。各図において1〜5の番号が付された立体物候補が各々対応している。なお、同図(b)において、矩形枠で囲まれた反射点群が、グループ化された第1の立体物候補を表している。   The road surface contact point calculation unit 28 takes correspondence between the first three-dimensional object candidate and the second three-dimensional object candidate based on the attitudes of the laser radar 12 and the imaging device 14. Specifically, the extracted first three-dimensional object candidate and the second three-dimensional object candidate are projected onto a three-dimensional coordinate space centered on the vehicle, and the horizontal position of the second three-dimensional object candidate is used as a clue. By searching in the depth direction and detecting a corresponding first three-dimensional object candidate, the first three-dimensional object candidate and the second three-dimensional object candidate are matched. FIG. 6A shows an example of extracting the second three-dimensional object candidate, and FIG. 6B shows an example of extracting the first three-dimensional object candidate. Here, for the sake of explanation, FIG. 5B shows a bird's eye view in which information in the height direction is deleted. The three-dimensional object candidates numbered 1 to 5 in each figure correspond to each other. In FIG. 5B, a reflection point group surrounded by a rectangular frame represents a grouped first three-dimensional object candidate.

また、路面接地点算出部28は、立体物と路面との接地点(以下、「路面接地点」という)を、撮像画像上から検出する。具体的には、第2の立体物候補を垂直エッジの検出により抽出した場合には、垂直エッジの最下端を路面接地点として検出し、パターン認識により抽出した場合には、第2の立体物候補と路面とが交差する点、すなわち凹状パターンの一部を路面接地点として検出する。   The road surface contact point calculation unit 28 detects a contact point between the three-dimensional object and the road surface (hereinafter referred to as “road surface contact point”) from the captured image. Specifically, when the second three-dimensional object candidate is extracted by detecting the vertical edge, the lowermost end of the vertical edge is detected as a road contact point, and when extracted by pattern recognition, the second three-dimensional object is detected. A point where the candidate and the road surface intersect, that is, a part of the concave pattern is detected as a road surface contact point.

また、路面接地点算出部28は、第2の立体物候補求まる3次元座標空間の原点から路面接地点へ向かう方向、及び路面接地点を検出した第2の立体物候補に対応する第1の立体物候補と自車両との距離に基づいて、路面接地点の3次元位置を算出する。なお、第2の立体物候補からは、接地点への方向ベクトルが算出可能である。レーザレーダ12は、距離の測定精度は高いが、特に遠方の計測点における解像度が低下するため、撮像画像上で検出された路面接地点の情報と照合することにより、精度良く路面接地点の3次元位置を算出することができる。   The road surface contact point calculation unit 28 also includes a direction from the origin of the three-dimensional coordinate space in which the second solid object candidate is obtained to the road surface contact point, and the first solid object candidate corresponding to the second solid object candidate that has detected the road surface contact point. Based on the distance between the three-dimensional object candidate and the host vehicle, the three-dimensional position of the road contact point is calculated. Note that the direction vector to the ground point can be calculated from the second solid object candidate. The laser radar 12 has a high distance measurement accuracy, but the resolution at a distant measurement point is particularly low. Therefore, by comparing with the information on the road surface contact point detected on the captured image, it is possible to accurately detect the road surface contact point 3. The dimension position can be calculated.

図7に示すように、例えば、車両を中心とする3次元座標空間の奥行き方向の軸を撮像装置14の光軸、原点を撮像装置14の撮像面とした場合には、車両を中心とする3次元座標空間の奥行き方向の軸(光軸)と、3次元座標空間の原点(撮像装置14)と路面接地点とを結ぶ線分とのなす角は、水平方向の角度θ、及び鉛直方向の角度θとして求めることができる。水平方向の角度θは、撮像装置14の光軸を含む鉛直面と、撮像装置14と路面接地点とを結ぶ線分を含む鉛直面とのなす角であり、鉛直方向の角度θは、鉛直面に直交し、かつ撮像装置14の光軸を含む平面と、鉛直面に直交し、かつ撮像装置14と路面接地点とを結ぶ線分を含む平面とのなす角である。また、第1の立体物候補と自車両との距離は、第1の立体物候補抽出部24で検出された第1の立体物候補の3次元位置に基づいて算出することができる。 As shown in FIG. 7, for example, when the axis in the depth direction of the three-dimensional coordinate space centered on the vehicle is the optical axis of the imaging device 14 and the origin is the imaging surface of the imaging device 14, the vehicle is the center. The angle formed by the axis (optical axis) in the depth direction of the three-dimensional coordinate space, and the line segment connecting the origin (imaging device 14) of the three-dimensional coordinate space and the road surface ground point is the horizontal angle θ H and the vertical it can be determined as the direction of the angle theta V. The horizontal angle θ H is an angle formed by a vertical plane including the optical axis of the imaging device 14 and a vertical plane including a line segment connecting the imaging device 14 and the road surface ground point, and the vertical angle θ V is The angle between a plane perpendicular to the vertical plane and including the optical axis of the imaging device 14 and a plane including a line segment perpendicular to the vertical plane and connecting the imaging device 14 and the road surface ground point. Further, the distance between the first three-dimensional object candidate and the host vehicle can be calculated based on the three-dimensional position of the first three-dimensional object candidate detected by the first three-dimensional object candidate extraction unit 24.

道路勾配推定部30は、路面接地点算出部28で算出された路面接地点の3次元位置、及び路面反射点抽出部22で抽出された路面反射点の3次元位置に基づいて、路面接地点及び路面反射点を、車両を中心とした座標系にプロットし、最小二乗法などの既知の技術により路面モデルをフィッティングして、道路形状を推定する。説明の簡略化のため、道路平面の勾配を推定する場合について具体的に説明する。図8に示すように、車両前後方向(z軸)、及び高さ方向(y軸)の2軸で構成される平面に、路面接地点及び路面反射点を投影する。この点群に、下記(1)式で表されるクロソイド曲線を路面モデルとしてフィッティングする。   The road gradient estimator 30 is based on the three-dimensional position of the road surface contact point calculated by the road surface contact point calculator 28 and the three-dimensional position of the road surface reflection point extracted by the road surface reflection point extraction unit 22. The road surface reflection point is plotted on a coordinate system centered on the vehicle, and the road shape is estimated by fitting the road surface model using a known technique such as the least square method. For simplification of description, a case where the gradient of the road plane is estimated will be specifically described. As shown in FIG. 8, a road surface contact point and a road surface reflection point are projected on a plane constituted by two axes of the vehicle longitudinal direction (z axis) and the height direction (y axis). To this point group, a clothoid curve represented by the following equation (1) is fitted as a road surface model.

ただし、Cは曲率、Cは曲率の変化率、Cはy軸方向のオフセット、θはz=0におけるyz平面内での路面角度である。そして、投影された全ての点を用いて最小二乗法で4つのパラメータを最適推定する。推定した道路勾配は、他の運転支援システムや車両制御システムへ出力する。 Where C 0 is the curvature, C 1 is the rate of change of curvature, C 2 is the offset in the y-axis direction, and θ p is the road surface angle in the yz plane at z = 0. Then, the four parameters are optimally estimated by the least square method using all the projected points. The estimated road gradient is output to other driving support systems and vehicle control systems.

なお、観測点が多い場合には、ランダムサンプリングによる観測点の選択、及び選択した観測点に基づくパラメータ推定を数回繰り返すようにしてもよい。これにより、計算量を抑えながら安定した推定結果を得られる。また、路面モデルは、クロソイド曲線に限定されない。また、連続関数である必要はなく、不連続な折れ線モデルでフィッティングするようにしてもよい。   If there are many observation points, selection of observation points by random sampling and parameter estimation based on the selected observation points may be repeated several times. Thereby, a stable estimation result can be obtained while reducing the amount of calculation. Further, the road surface model is not limited to a clothoid curve. Moreover, it is not necessary to be a continuous function, and fitting may be performed using a discontinuous broken line model.

次に、第1の実施の形態に係る道路勾配推定装置10の作用について説明する。   Next, the operation of the road gradient estimation apparatus 10 according to the first embodiment will be described.

まず、レーザレーダ12によって、複数の走査ラインのレーザが自車両の前方を水平方向に走査されて、車両周辺の各反射点の3次元位置を特定する観測データが観測される。レーザレーダ12によって観測される観測データは、レーザを走査する毎に得られる。また、レーザレーダの観測タイミングに同期して、撮像装置14により車両周辺が撮像される。そして、コンピュータ20によって、図9に示す道路勾配推定処理ルーチンが実行される。   First, the laser radar 12 scans the laser of a plurality of scanning lines in the horizontal direction in front of the host vehicle, and observes observation data specifying the three-dimensional position of each reflection point around the vehicle. Observation data observed by the laser radar 12 is obtained every time the laser is scanned. Further, the vehicle periphery is imaged by the imaging device 14 in synchronization with the observation timing of the laser radar. Then, the computer 20 executes a road gradient estimation processing routine shown in FIG.

ステップ100で、レーザレーダ12で観測された観測データ、及び撮像装置14で撮像された撮像画像を取得する。   In step 100, observation data observed by the laser radar 12 and a captured image captured by the imaging device 14 are acquired.

次に、ステップ102で、レーザ光のパルス形状や、受光したレーザ光の信号強度に基づいて、各反射点が路面反射点か否かを判定したり、各反射点の3次元位置から高さ情報を用いて路面反射点か否かを判定したり、各反射点の並び(連続性)により、路面反射点か否かを判定したりすることにより、上記ステップ100で取得した観測データが示す各反射点の中からレーザ光が路面で反射した路面反射点を抽出する。   Next, in step 102, it is determined whether or not each reflection point is a road surface reflection point based on the pulse shape of the laser beam and the signal intensity of the received laser beam, or the height from the three-dimensional position of each reflection point. The observation data acquired in the above step 100 shows whether it is a road surface reflection point by using information to determine whether it is a road surface reflection point or by determining whether it is a road surface reflection point by the arrangement (continuity) of each reflection point. A road surface reflection point where the laser beam is reflected on the road surface is extracted from each reflection point.

次に、ステップ104で、上記ステップ100で取得した観測データが示す各反射点のうち、上記ステップ102で、路面反射点として抽出されなかった反射点について、反射点間距離が所定距離より小さい反射点同士をグループ化し、近接する反射点群を1つの立体物とみなし、第1の立体物候補として抽出する。また、第1の立体物候補に含まれる各反射点の3次元位置に基づいて、第1の立体物候補の位置を検出する。   Next, in step 104, among the reflection points indicated by the observation data acquired in step 100, the reflection points that are not extracted as road surface reflection points in step 102 are reflected with a distance less than a predetermined distance. The points are grouped, and the adjacent reflection point group is regarded as one solid object and extracted as a first solid object candidate. Further, the position of the first three-dimensional object candidate is detected based on the three-dimensional position of each reflection point included in the first three-dimensional object candidate.

次に、ステップ106で、上記ステップ100で取得した撮像画像から、垂直エッジの検出またはパターン認識により、電柱やポール等に相当する第2の立体物候補を抽出する。   Next, in Step 106, second solid object candidates corresponding to utility poles, poles, and the like are extracted from the captured image acquired in Step 100 by detection of vertical edges or pattern recognition.

次に、ステップ108で、車両を中心とする3次元座標空間に、上記ステップ104で抽出されたた第1の立体物候補、及び上記ステップ106で抽出された第2の立体物候補を投影し、第2の立体物候補の水平方向の位置を手掛かりに奥行き方向に探索して対応する第1の立体物候補を検出することにより、第1の立体物候補と第2の立体物候補との対応を取る。   Next, in step 108, the first three-dimensional object candidate extracted in step 104 and the second three-dimensional object candidate extracted in step 106 are projected onto a three-dimensional coordinate space centered on the vehicle. The first three-dimensional object candidate and the second three-dimensional object candidate are detected by searching in the depth direction using the horizontal position of the second three-dimensional object candidate as a clue and detecting the corresponding first three-dimensional object candidate. Take action.

次に、ステップ110で、第2の立体物候補を垂直エッジの検出により抽出した場合には、撮像画像上の垂直エッジの最下端を、第2の立体物候補をパターン認識により抽出した場合には、第2の立体物候補と路面とが交差する点を、路面接地点として検出する。そして、車両を中心とする3次元座標空間の奥行き方向の軸と、3次元座標空間の原点と路面接地点とを結ぶ線分とのなす角、及び路面接地点を検出した第2の立体物候補に対応する第1の立体物候補と自車両との距離に基づいて、路面接地点の3次元位置を算出する。   Next, when the second three-dimensional object candidate is extracted by detecting the vertical edge in step 110, the lowest end of the vertical edge on the captured image is extracted, and the second three-dimensional object candidate is extracted by pattern recognition. Detects a point where the second three-dimensional object candidate and the road surface intersect as a road surface contact point. Then, a second solid object in which the angle between the axis in the depth direction of the three-dimensional coordinate space centered on the vehicle, the line connecting the origin of the three-dimensional coordinate space and the road surface contact point, and the road surface contact point is detected. Based on the distance between the first three-dimensional object candidate corresponding to the candidate and the host vehicle, the three-dimensional position of the road contact point is calculated.

次に、ステップ112で、上記ステップ110で算出された路面接地点の3次元位置、及び上記ステップ102で抽出された路面反射点の3次元位置に基づいて、路面接地点及び路面反射点を、車両を中心とした座標系にプロットし、最小二乗法などの既知の技術により道路平面をフィッティングして、道路形状を推定する。そして、推定結果を他の運転支援システムや車両制御システムへ出力して、処理を終了する。   Next, in step 112, based on the three-dimensional position of the road surface contact point calculated in step 110 and the three-dimensional position of the road surface reflection point extracted in step 102, the road surface contact point and the road surface reflection point are Plot in a coordinate system centered on the vehicle, and fit the road plane by a known technique such as the least squares method to estimate the road shape. Then, the estimation result is output to another driving support system or vehicle control system, and the process is terminated.

以上説明したように、第1の実施の形態の道路勾配推定装置によれば、撮像画像から検出された路面接地点について、レーザレーダの距離情報を用いて3次元位置を算出し、この路面接地点の3次元位置を用いて道路平面を推定するため、先行車や車線境界線等の特定物体が存在しない場合でも、前方道路の勾配を精度良く推定することができる。   As described above, according to the road gradient estimation apparatus of the first embodiment, the road surface contact point detected from the captured image is calculated using the distance information of the laser radar, and this road surface contact point is calculated. Since the road plane is estimated using the three-dimensional position of the point, the gradient of the road ahead can be accurately estimated even when there is no specific object such as a preceding vehicle or a lane boundary line.

また、レーザレーダの観測データのうち、路面反射点の3次元位置もあわせて用いるため、観測点の情報を増加させることができ、推定精度を向上させることができる。   Further, since the three-dimensional position of the road surface reflection point is also used in the observation data of the laser radar, the information on the observation point can be increased, and the estimation accuracy can be improved.

次に、第2の実施の形態について説明する。なお、第2の実施の形態の道路勾配推定装置について、第1の実施の形態の道路勾配推定装置10と同様の構成については、同一の符号を付して、詳細な説明は省略する。   Next, a second embodiment will be described. In addition, about the road gradient estimation apparatus of 2nd Embodiment, about the structure similar to the road gradient estimation apparatus 10 of 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図10に示すように、第2の実施の形態に係る道路勾配推定装置210は、レーザレーダ12と、撮像装置14と、車速センサ及びジャイロセンサ等を含んで構成された車両状態センサ16と、コンピュータ220と、を備えている。このコンピュータ220をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、路面反射点抽出部222と、第1の立体物候補抽出部と、第2の立体物候補抽出部26と、路面接地点算出部228と、道路勾配推定部30と、路面接地点及び路面反射点の3次元位置情報等を記憶する情報蓄積部32と、車両状態センサ16の検出値、現在及び過去のレーザレーダ12の観測値に基づいて、自車両の運動を推定する自車運動推定部34と、情報蓄積部32に蓄積された過去の路面接地点及び路面反射点の3次元位置(以下、「蓄積データ」ともいう)を、推定された自車両の運動に基づいて、現在の座標系に変換する蓄積データ座標変換部36と、を含んだ構成で表すことができる。   As shown in FIG. 10, a road gradient estimation device 210 according to the second embodiment includes a laser radar 12, an imaging device 14, a vehicle state sensor 16 configured to include a vehicle speed sensor, a gyro sensor, and the like. And a computer 220. The computer 220 will be described in terms of functional blocks divided for each function realizing means determined based on hardware and software. A road surface reflection point extracting unit 222, a first three-dimensional object candidate extracting unit, and a second three-dimensional object Candidate extraction unit 26, road surface contact point calculation unit 228, road gradient estimation unit 30, information storage unit 32 that stores three-dimensional position information of the road surface contact point and road surface reflection point, and the detection value of vehicle state sensor 16 Based on the observation values of the current and past laser radars 12, the own vehicle motion estimation unit 34 that estimates the motion of the host vehicle, and the three-dimensional past ground contact points and road surface reflection points stored in the information storage unit 32 The position (hereinafter also referred to as “accumulated data”) can be expressed by a configuration including an accumulated data coordinate conversion unit 36 that converts the position into the current coordinate system based on the estimated movement of the host vehicle.

なお、路面反射点抽出部222及び第1の立体物候補抽出部224が、本発明の第1の抽出手段の一例であり、自車運動推定部34及び蓄積データ座標変換部36が、本発明の変換手段の一例である。   The road surface reflection point extraction unit 222 and the first three-dimensional object candidate extraction unit 224 are examples of the first extraction unit of the present invention, and the own vehicle motion estimation unit 34 and the accumulated data coordinate conversion unit 36 are the present invention. It is an example of the conversion means.

自車運動推定部34は、情報蓄積部32に蓄積された過去の観測データが示す点群と、現在観測された観測データが示す点群とを照合して、観測間の自車両の運動量を推定する。点群の照合による運動量の推定には、ICP(Iterative Closet Point)アルゴリズムを用いたり、点群から複数のプロファイル特徴を抽出し、それらの位置が全体的に最も一致するように推定したりすることができる。過去の点群と現在の点群との照合には、車両状態センサ16の検出値である自車両の車速や姿勢角等を自車運動の初期値として利用することができる。これにより、照合の計算量を削減することができる。   The own vehicle motion estimation unit 34 collates the point cloud indicated by the past observation data accumulated in the information accumulation unit 32 with the point cloud indicated by the currently observed observation data, and calculates the momentum of the own vehicle between observations. presume. To estimate momentum by matching point clouds, use the ICP (Iterative Closet Point) algorithm, or extract multiple profile features from the point cloud and estimate them so that their positions are the best overall. Can do. For comparison between the past point cloud and the current point cloud, the vehicle speed, the attitude angle, and the like of the host vehicle, which are detection values of the vehicle state sensor 16, can be used as initial values of the host vehicle motion. Thereby, the calculation amount of collation can be reduced.

また、自車運動推定部34は、過去の点群と現在の点群とを照合する際に、一致する点群は静止物、一致しない点群は移動物または路面点と判定することができる。この判定結果を路面反射点の抽出や第1の立体物候補の抽出に利用するために、路面反射点抽出部222及び第1の立体物候補抽出部224へ出力する。   In addition, when the own vehicle motion estimation unit 34 collates the past point cloud with the current point cloud, the matching point cloud can be determined as a stationary object, and the non-matching point cloud can be determined as a moving object or a road surface point. . In order to use the determination result for the extraction of the road surface reflection point and the extraction of the first solid object candidate, the determination result is output to the road surface reflection point extraction unit 222 and the first solid object candidate extraction unit 224.

路面反射点抽出部222は、第1の実施の形態の路面反射点抽出部22と同様に、レーザレーダ12の観測結果に基づいて、観測データが示す各反射点の中からレーザ光が路面で反射した路面反射点を抽出する。その際、自車運動推定部34から出力された判定結果も利用して、移動物または路面点と判定された反射点群(過去の点群と現在の点群が一致しなかった点群)から路面反射点を抽出する。また、抽出した路面反射点の3次元位置を情報蓄積部32に保存する。   As with the road surface reflection point extraction unit 22 of the first embodiment, the road surface reflection point extraction unit 222 is configured to transmit laser light from the reflection points indicated by the observation data on the road surface based on the observation results of the laser radar 12. The reflected road surface reflection point is extracted. At that time, using the determination result output from the own vehicle motion estimation unit 34, the reflection point group determined as a moving object or a road surface point (a point group in which the past point cloud and the current point cloud did not match) To extract road surface reflection points. Further, the extracted three-dimensional position of the road surface reflection point is stored in the information storage unit 32.

第1の立体物候補抽出部224は、第1の実施の形態の第1の立体物候補抽出部24と同様に、レーザレーダ12の観測データが示す各反射点のうち、路面反射点抽出部222で路面反射点として抽出されなかった反射点について、反射点間距離が所定距離より小さい反射点同士をグループ化し、近接する反射点群を1つの立体物とみなし、第1の立体物候補として抽出する。その際、自車運動推定部34から出力された判定結果も利用して、静止物と判定された反射点群(過去の点群と現在の点群が一致した点群)の情報に基づいて、第1の立体物候補を構成する反射点とするか否かを再抽出したり、反射点群のグループ化をしたりする。また、第1の立体物候補を構成する各反射点の3次元位置に基づいて、第1の立体物候補の位置を検出する。   Similar to the first three-dimensional object candidate extraction unit 24 of the first embodiment, the first three-dimensional object candidate extraction unit 224 includes a road surface reflection point extraction unit among the reflection points indicated by the observation data of the laser radar 12. For the reflection points that are not extracted as the road surface reflection points in 222, the reflection points whose reflection point distance is smaller than the predetermined distance are grouped together, the adjacent reflection point group is regarded as one solid object, and the first solid object candidate is obtained. Extract. At that time, the determination result output from the own vehicle motion estimation unit 34 is also used, based on the information of the reflection point group determined as a stationary object (a point group in which the past point cloud and the current point cloud coincide). , Reextracting whether or not to use the reflection point constituting the first three-dimensional object candidate, or grouping the reflection point group. In addition, the position of the first three-dimensional object candidate is detected based on the three-dimensional position of each reflection point constituting the first three-dimensional object candidate.

路面接地点算出部228は、第1の実施の形態の路面接地点算出部28と同様に、第1の立体物候補と第2の立体物候補との対応を取り、路面接地点を検出して、路面接地点の3次元位置を算出する。また、算出した路面接地点の3次元位置を情報蓄積部32に保存する。この際、既に情報蓄積部32に保存されている蓄積データと現在の路面接地点の3次元位置とを照合し、照合が取れた路面接地点のデータに、照合回数が多いほど大きくなる信頼度を付与する。例えば、後述の蓄積データ座標変換部36の処理により、情報蓄積部32に保存された蓄積データの座標系を現在の座標系に変換し、その座標系を細かい格子状のセルに区画する。そして、既に蓄積データが観測されているセルに、現在の路面接地点の3次元位置が検出された場合には、そのセルに対応する信頼度をカウントアップする。なお、セルの大きさは、同一のセルに異なる路面点を示す点がプロットされないように、レーザレーダ12の解像度を考慮して、十分細かくする。これにより、信頼性の高いデータと信頼性の低いデータとを判別することができる。なお、路面反射点抽出部222において、抽出された路面反射点を情報蓄積部32に保存する際にも、同様に、信頼度を付与するようにしてもよい。   The road surface contact point calculation unit 228 detects the road surface contact point by taking the correspondence between the first solid object candidate and the second solid object candidate in the same manner as the road surface contact point calculation unit 28 of the first embodiment. Then, the three-dimensional position of the road surface contact point is calculated. Further, the calculated three-dimensional position of the road contact point is stored in the information storage unit 32. At this time, the accumulated data already stored in the information storage unit 32 is collated with the current three-dimensional position of the road surface contact point, and the reliability of the road surface contact point data that has been verified increases as the number of verifications increases. Is granted. For example, the coordinate system of the accumulation data stored in the information accumulation unit 32 is converted into the current coordinate system by the processing of the accumulation data coordinate conversion unit 36, which will be described later, and the coordinate system is partitioned into fine grid cells. If the current three-dimensional position of the road contact point is detected in a cell in which accumulated data has already been observed, the reliability corresponding to that cell is counted up. Note that the cell size is made sufficiently fine in consideration of the resolution of the laser radar 12 so that points indicating different road surface points are not plotted in the same cell. Thereby, it is possible to discriminate between highly reliable data and unreliable data. In addition, when the road surface reflection point extraction unit 222 stores the extracted road surface reflection points in the information storage unit 32, similarly, reliability may be given.

蓄積データ座標変換部36は、推定された自車両の運動に基づいて、情報蓄積部32に蓄積された蓄積データを現在の座標系に変換する。例えば、現在の時刻tの一時刻前(t−1)の蓄積データのうち、信頼度が所定値以上の蓄積データを情報蓄積部32から読み出して、時刻(t−1)における車両を中心とする3次元座標空間にプロットする。そして、自車運動推定部34で推定された時刻(t−1)〜時刻t間の自車両の運動量を取得して、時刻(t−1)における3次元座標空間を、時刻tにおける3次元空間座標に変換する。   The accumulated data coordinate conversion unit 36 converts the accumulated data accumulated in the information accumulation unit 32 to the current coordinate system based on the estimated movement of the host vehicle. For example, among the accumulated data one time before the current time t (t−1), the accumulated data having a reliability greater than or equal to a predetermined value is read from the information accumulation unit 32, and the vehicle at the time (t−1) is centered. Plot in a three-dimensional coordinate space. Then, the amount of movement of the host vehicle between time (t−1) and time t estimated by the host vehicle motion estimation unit 34 is acquired, and the three-dimensional coordinate space at time (t−1) is converted into the three-dimensional at time t. Convert to spatial coordinates.

道路勾配推定部230は、第1の実施の形態の道路勾配推定部30と同様に、路面接地点算出部228で算出された現在の路面接地点、及び路面反射点抽出部222で抽出された現在の路面反射点(以下、「現在のデータ」ともいう)を、車両を中心とした座標系にプロットすると共に、蓄積データ座標変換部36により座標変換された蓄積データも、同じ座標系にプロットして、現在のデータと蓄積データとを照合して、一致するとみなせる点を統合する。例えば、上述のように、データをプロットする座標系を、細かい格子状のセルに区画し、同一のセルにプロットされた現在のデータ及び蓄積データについて、いずれかのデータを削除するか、両データの平均をとるなどして、1つのデータに統合する。セルにプロットされデータが1つの場合には、そのデータをそのまま採用する。   The road gradient estimation unit 230 is extracted by the current road surface contact point calculated by the road surface contact point calculation unit 228 and the road surface reflection point extraction unit 222 in the same manner as the road gradient estimation unit 30 of the first embodiment. The current road surface reflection point (hereinafter also referred to as “current data”) is plotted in a coordinate system centered on the vehicle, and the accumulated data converted by the accumulated data coordinate conversion unit 36 is also plotted in the same coordinate system. Then, the current data and the accumulated data are collated, and the points that can be regarded as matching are integrated. For example, as described above, the coordinate system for plotting data is divided into fine grid cells, and either data is deleted from the current data or accumulated data plotted in the same cell, or both data For example, taking the average of the data, it is integrated into one data. When there is only one data plotted in the cell, the data is used as it is.

また、道路勾配推定部230は、上記のように、現在のデータ及び蓄積データを、車両を中心とした座標系にプロットして統合した後に、第1の実施の形態と同様に、最小二乗法などの既知の技術により道路平面をフィッティングして、道路形状を推定する。   Further, as described above, the road gradient estimation unit 230 plots and integrates the current data and accumulated data in the coordinate system centered on the vehicle, and then, as in the first embodiment, the least square method. The road shape is estimated by fitting the road plane by a known technique such as.

次に、第2の実施の形態に係る道路勾配推定装置210の作用について説明する。   Next, the operation of the road gradient estimation apparatus 210 according to the second embodiment will be described.

まず、レーザレーダ12によって、複数の走査ラインのレーザが自車両の前方を水平方向に走査されて、車両周辺の各反射点の3次元位置を特定する観測データが観測される。レーザレーダ12によって観測される観測データは、レーザを走査する毎に得られる。また、レーザレーダの観測タイミングに応じて、撮像装置14により車両周辺が撮像される。そして、コンピュータ20によって、図11に示す道路勾配推定処理ルーチンが実行される。なお、第1の実施の形態の道路勾配推定処理と同一の処理については、同一の符号を付して詳細な説明は省略する。   First, the laser radar 12 scans the laser of a plurality of scanning lines in the horizontal direction in front of the host vehicle, and observes observation data specifying the three-dimensional position of each reflection point around the vehicle. Observation data observed by the laser radar 12 is obtained every time the laser is scanned. Further, the vehicle periphery is imaged by the imaging device 14 in accordance with the observation timing of the laser radar. Then, a road gradient estimation processing routine shown in FIG. In addition, about the process same as the road gradient estimation process of 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ200で、レーザレーダ12で観測された観測データ、撮像装置14で撮像された撮像画像、及び車両状態センサ16の検出値を取得する。   In step 200, observation data observed by the laser radar 12, a captured image captured by the imaging device 14, and a detection value of the vehicle state sensor 16 are acquired.

次に、ステップ202で、情報蓄積部32に蓄積された過去の観測データが示す点群と、上記ステップ200で取得された観測データが示す点群とを照合して、観測間の自車両の運動量を推定する。ここでは、時刻(t−1)〜時刻t間の自車両の運動量を推定するものとする。過去の点群と現在の点群との照合には、上記ステップ200で取得した車両状態センサ16の検出値である自車両の車速や姿勢角等を自車運動の初期値として利用する。そして、過去の点群と現在の点群とを照合する際に、一致する点群は静止物、一致しない点群は移動物または路面点と判定する。   Next, in step 202, the point cloud indicated by the past observation data stored in the information storage unit 32 is collated with the point cloud indicated by the observation data acquired in step 200, and the vehicle between the observations is checked. Estimate momentum. Here, it is assumed that the momentum of the host vehicle between time (t−1) and time t is estimated. For collation between the past point cloud and the current point cloud, the vehicle speed, posture angle, and the like of the host vehicle, which are detection values of the vehicle state sensor 16 acquired in step 200, are used as initial values of the host vehicle motion. When the past point cloud and the current point cloud are collated, the matching point cloud is determined as a stationary object, and the non-matching point cloud is determined as a moving object or a road surface point.

次に、ステップ204で、上記ステップ202で移動物または路面点と判定された反射点の中から、受光パルスの形状や信号強度、高さ情報、反射点の連続性等に基づいて、レーザ光が路面で反射した路面反射点を抽出する。   Next, in step 204, the laser beam is selected from the reflection points determined as moving objects or road surface points in step 202 based on the shape, signal intensity, height information, continuity of reflection points, etc. of the received light pulse. The road surface reflection point reflected by the road surface is extracted.

次に、ステップ206で、上記ステップ204で抽出された路面反射点の3次元位置と、情報蓄積部32に保存された蓄積データとを照合して、照合結果に応じて信頼度を更新した上で、路面反射点の3次元位置を情報蓄積部32に保存する。   Next, in step 206, the three-dimensional position of the road surface reflection point extracted in step 204 above is collated with the accumulated data stored in the information accumulation unit 32, and the reliability is updated according to the collation result. Thus, the three-dimensional position of the road surface reflection point is stored in the information storage unit 32.

次に、ステップ208で、上記ステップ200で取得した観測データが示す各反射点のうち、上記ステップ204で、路面反射点として抽出されなかった反射点であって、上記ステップ202で静止物と判定された反射点について、反射点間距離が所定距離より小さい反射点同士をグループ化して、第1の立体物候補として抽出する。また、第1の立体物候補に含まれる各反射点の3次元位置に基づいて、第1の立体物候補の位置を検出する。   Next, in step 208, out of the reflection points indicated by the observation data acquired in step 200, the reflection points that have not been extracted as road surface reflection points in step 204 are determined as stationary objects in step 202. With respect to the reflected points, the reflection points having a distance between the reflection points smaller than the predetermined distance are grouped and extracted as the first three-dimensional object candidate. Further, the position of the first three-dimensional object candidate is detected based on the three-dimensional position of each reflection point included in the first three-dimensional object candidate.

次に、ステップ106で、上記ステップ200で取得した撮像画像から、第2の立体物候補を抽出し、次に、ステップ108で、第1の立体物候補と第2の立体物候補との対応を取り、次に、ステップ110で、路面接地点の3次元位置を算出する。   Next, in step 106, a second solid object candidate is extracted from the captured image acquired in step 200. Next, in step 108, the correspondence between the first solid object candidate and the second solid object candidate. Next, in step 110, the three-dimensional position of the road contact point is calculated.

次に、ステップ209で、上記ステップ110で算出された路面接地点の3次元位置と、情報蓄積部32に保存された蓄積データとを照合して、照合結果に応じて信頼度を更新した上で、路面接地点の3次元位置を情報蓄積部32に保存する。   Next, in step 209, the three-dimensional position of the road surface contact point calculated in step 110 and the accumulated data stored in the information accumulating unit 32 are collated, and the reliability is updated according to the collation result. Thus, the three-dimensional position of the road surface contact point is stored in the information storage unit 32.

次に、ステップ212で、現在の時刻tの一時刻前(t−1)の蓄積データのうち、信頼度が所定値以上の蓄積データを情報蓄積部32から読み出して、時刻(t−1)における車両を中心とする3次元座標空間にプロットする。そして、上記ステップ202で推定された時刻(t−1)〜時刻t間の自車両の運動量に基づいて、時刻(t−1)における3次元座標空間を、時刻tにおける3次元空間座標に変換する。   Next, in step 212, among the accumulated data one time before the current time t (t-1), the accumulated data having a reliability of a predetermined value or more is read from the information accumulation unit 32, and the time (t-1) Is plotted in a three-dimensional coordinate space centered on the vehicle. Then, based on the momentum of the host vehicle between time (t-1) and time t estimated in step 202, the three-dimensional coordinate space at time (t-1) is converted into the three-dimensional space coordinates at time t. To do.

次に、ステップ214で、上記ステップ110で算出された路面接地点の3次元位置、上記ステップ204で抽出された路面反射点の3次元位置、及び上記ステップ212で座標変換された蓄積データに基づいて、路面接地点、路面反射点、及び蓄積データを、車両を中心とした座標系にプロットし、最小二乗法などの既知の技術により道路平面をフィッティングして、道路形状を推定する。そして、推定結果を他の運転支援システムや車両制御システムへ出力して、処理を終了する。   Next, in step 214, based on the three-dimensional position of the road contact point calculated in step 110, the three-dimensional position of the road surface reflection point extracted in step 204, and the accumulated data coordinate-converted in step 212. Then, the road surface contact point, the road surface reflection point, and the accumulated data are plotted in a coordinate system centered on the vehicle, and the road shape is estimated by fitting the road plane by a known technique such as the least square method. Then, the estimation result is output to another driving support system or vehicle control system, and the process is terminated.

以上説明したように、第2の実施の形態の道路勾配推定装置によれば、過去に算出された路面接地点の3次元位置、及び過去に抽出された路面反射点の3次元位置も用いて、道路平面を推定するため、観測点の情報を増加させることができ、より推定精度を向上させることができる。   As described above, according to the road gradient estimation apparatus of the second embodiment, the three-dimensional position of the road contact point calculated in the past and the three-dimensional position of the road reflection point extracted in the past are also used. Since the road plane is estimated, information on observation points can be increased, and the estimation accuracy can be further improved.

また、過去のデータを用いる際に、現在のデータとの照合回数に応じた信頼度が所定値以上のデータを用いることで、観測の度に出現したり消滅したりする観測ノイズの影響を低減して、より推定精度を向上させることができる。   In addition, when using past data, using data with a certain degree of reliability corresponding to the number of matches with the current data reduces the influence of observation noise that appears or disappears at each observation. Thus, the estimation accuracy can be further improved.

なお、第2の実施の形態では、レーザレーダによる現在及び過去の観測データの照合により、観測間の自車両の運動量を推定する場合について説明したが、自車両の運動量を、車両状態センサの検出値に基づいて推定してもよいし、撮像画像から推定してもよい。   In the second embodiment, a case has been described in which the momentum of the host vehicle between observations is estimated by collating current and past observation data with a laser radar. However, the momentum of the host vehicle is detected by a vehicle state sensor. It may be estimated based on a value, or may be estimated from a captured image.

また、第2の実施の形態では、現在のデータに加えて、信頼度が所定値以上の蓄積データを用いる場合について説明したが、最小二乗法等で路面モデルをフィッティングする際に、誤差に掛ける重みとして、この信頼度を利用するようにしてもよい。   In the second embodiment, the case where accumulated data having a reliability level equal to or higher than a predetermined value is used in addition to the current data has been described. However, an error is applied when the road surface model is fitted by the least square method or the like. You may make it utilize this reliability as a weight.

また、上記実施の形態では、レーザレーダにより車両周辺から複数の反射点の位置を特定する情報を観測する場合について説明したが、これに限定されるものではなく、ミリ波などの電磁波を用いてもよい。また、例えば、ステレオカメラによって撮像された画像を用いて、後処理により車両周辺の複数の点の位置を特定する情報を演算するようにしてもよい。   Further, in the above-described embodiment, a case has been described in which information for identifying the positions of a plurality of reflection points is observed from the periphery of a vehicle using a laser radar, but the present invention is not limited to this, and electromagnetic waves such as millimeter waves are used. Also good. Further, for example, information specifying the positions of a plurality of points around the vehicle may be calculated by post-processing using an image captured by a stereo camera.

10、210 道路勾配推定装置
12 レーザレーダ
14 撮像装置
16 車両状態センサ
20、220 コンピュータ
22、222 路面反射点抽出部
24、224 第1の立体物候補抽出部
26 第2の立体物候補抽出部
28、228 路面接地点算出部
30、230 道路勾配推定部
32 情報蓄積部
34 自車運動推定部
36 蓄積データ座標変換部
DESCRIPTION OF SYMBOLS 10,210 Road gradient estimation apparatus 12 Laser radar 14 Imaging apparatus 16 Vehicle state sensor 20, 220 Computer 22, 222 Road surface reflection point extraction part 24, 224 1st solid object candidate extraction part 26 2nd solid object candidate extraction part 28 228 Road surface contact point calculation unit 30, 230 Road gradient estimation unit 32 Information storage unit 34 Own vehicle motion estimation unit 36 Stored data coordinate conversion unit

Claims (12)

移動体周辺の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体周辺を該移動体に搭載された撮像手段により撮像した画像を取得する取得手段と、
前記取得手段により取得された前記複数の点各々の3次元位置に基づいて、立体物を示す点を第1の立体物候補として抽出する第1の抽出手段と、
前記取得手段により取得された画像の垂直エッジ情報及び予め定めた形状とのマッチング情報の少なくとも一方に基づいて、第2の立体物候補を抽出する第2の抽出手段と、
前記第2の立体物候補に対応する前記第1の立体物候補の3次元位置に基づいて、該第2の立体物候補の路面との接地点の3次元位置を算出する算出手段と、
前記算出手段により算出された接地点の3次元位置に基づいて、前記移動体周辺の道路勾配を推定する勾配推定手段と、
を含む道路勾配推定装置。
Acquisition means for acquiring a three-dimensional position of each of a plurality of points around the moving body based on the moving body, and an image obtained by imaging the periphery of the moving body by an imaging means mounted on the moving body;
First extraction means for extracting a point indicating a three-dimensional object as a first three-dimensional object candidate based on a three-dimensional position of each of the plurality of points acquired by the acquisition means;
Second extraction means for extracting a second solid object candidate based on at least one of vertical edge information of the image acquired by the acquisition means and matching information with a predetermined shape;
Calculating means for calculating a three-dimensional position of a contact point with the road surface of the second three-dimensional object candidate based on the three-dimensional position of the first three-dimensional object candidate corresponding to the second three-dimensional object candidate;
Gradient estimating means for estimating a road gradient around the moving body based on the three-dimensional position of the ground contact point calculated by the calculating means;
Including a road gradient estimation device.
前記算出手段は、前記第2の立体物候補から求まる3次元座標空間の原点から前記接地点へ向かう方向、及び前記対応する第1の立体物候補の3次元位置に基づいて、前記接地点の3次元位置を算出する請求項1記載の道路勾配推定装置。   The calculation means is configured to determine the position of the ground point based on the direction from the origin of the three-dimensional coordinate space obtained from the second solid object candidate to the ground point and the three-dimensional position of the corresponding first solid object candidate. The road gradient estimation apparatus according to claim 1, which calculates a three-dimensional position. 所定期間の前記移動体の運動量に基づいて、過去に算出された前記接地点の3次元位置を現在の座標系に変換する変換手段を含み、
前記勾配推定手段は、前記変換手段により変換された接地点の3次元位置も加えた分布に基づいて、前記道路勾配を推定する
請求項1または請求項2記載の道路勾配推定装置。
Conversion means for converting a three-dimensional position of the grounding point calculated in the past into a current coordinate system based on the momentum of the moving body in a predetermined period;
The road gradient estimation device according to claim 1, wherein the gradient estimation unit estimates the road gradient based on a distribution including a three-dimensional position of a contact point converted by the conversion unit.
前記算出手段は、現在算出された接地点の3次元位置と過去に算出された接地点の3次元位置との照合結果に基づく信頼度を付与して、該現在算出された接地点の3次元位置を所定の記憶領域に記憶し、
前記勾配推定手段は、前記所定の記憶領域に記憶された接地点の3次元位置のうち、前記信頼度が所定値以上の接地点の3次元位置を前記変換手段により変換した3次元位置を加えるか、または、前記所定の記憶領域に記憶された接地点の3次元位置を前記変換手段により変換して、前記信頼度に応じた重み付けをして加える
請求項3記載の道路勾配推定装置。
The calculation means gives a reliability based on a comparison result between the three-dimensional position of the currently calculated grounding point and the three-dimensional position of the grounding point calculated in the past, and the three-dimensional of the currently calculated grounding point. Store the position in a predetermined storage area,
The gradient estimation unit adds a three-dimensional position obtained by converting the three-dimensional position of the grounding point having the reliability equal to or higher than a predetermined value among the three-dimensional positions of the grounding point stored in the predetermined storage area by the converting unit. The road gradient estimation apparatus according to claim 3, wherein the three-dimensional position of the contact point stored in the predetermined storage area is converted by the conversion means and weighted according to the reliability.
前記第1の抽出手段は、前記複数の点各々から路面点を抽出し、該路面点以外の点を前記第1の立体物候補として抽出し、
前記勾配推定手段は、前記路面点の3次元位置も加えた3次元位置の分布に基づいて、前記道路勾配を推定する
請求項1または請求項2記載の道路勾配推定装置。
The first extraction means extracts a road surface point from each of the plurality of points, extracts a point other than the road surface point as the first three-dimensional object candidate,
The road gradient estimation device according to claim 1, wherein the gradient estimation unit estimates the road gradient based on a distribution of a three-dimensional position including a three-dimensional position of the road surface point.
前記第1の抽出手段は、前記複数の点各々から路面点を抽出し、該路面点以外の点を前記第1の立体物候補として抽出し、
前記勾配推定手段は、前記路面点の3次元位置も加えた3次元位置の分布に基づいて、前記道路勾配を推定する
請求項3または請求項4記載の道路勾配推定装置。
The first extraction means extracts a road surface point from each of the plurality of points, extracts a point other than the road surface point as the first three-dimensional object candidate,
The road gradient estimation apparatus according to claim 3 or 4, wherein the gradient estimation means estimates the road gradient based on a distribution of a three-dimensional position including a three-dimensional position of the road surface point.
前記変換手段は、所定期間の前記移動体の運動量に基づいて、過去に抽出された前記路面点の3次元位置を現在の座標系に変換し、
前記勾配推定手段は、前記変換手段により変換された路面点の3次元位置も加えた分布に基づいて、前記道路勾配を推定する
請求項6記載の道路勾配推定装置。
The converting means converts a three-dimensional position of the road surface point extracted in the past into a current coordinate system based on the momentum of the moving body for a predetermined period,
The road gradient estimation device according to claim 6, wherein the gradient estimation unit estimates the road gradient based on a distribution including a three-dimensional position of the road surface point converted by the conversion unit.
前記第2の抽出手段は、前記画像から垂直エッジを抽出し、電柱、ポール、樹木、及び建築物の少なくとも1つを示す垂直エッジを、前記第2の立体物候補として抽出し、
前記算出手段は、前記垂直エッジの最下端を前記接地点として検出する
請求項1〜請求項7のいずれか1項記載の道路勾配推定装置。
The second extraction means extracts a vertical edge from the image, extracts a vertical edge indicating at least one of a power pole, a pole, a tree, and a building as the second solid object candidate,
The road gradient estimation apparatus according to any one of claims 1 to 7, wherein the calculation unit detects a lowermost end of the vertical edge as the ground contact point.
前記第2の抽出手段は、パターンマッチングにより、前記画像から円柱状の物体を前記第2の立体物候補として抽出し、
前記算出手段は、前記円柱状の物体と路面とが交差する点を前記接地点として検出する
請求項1〜請求項8のいずれか1項記載の道路勾配推定装置。
The second extraction means extracts a cylindrical object from the image as the second solid object candidate by pattern matching,
The road gradient estimation apparatus according to any one of claims 1 to 8, wherein the calculation means detects a point where the cylindrical object and a road surface intersect as the contact point.
前記複数の点各々の3次元位置を、複数の走査ラインを有するレーザレーダであって、該走査ラインの少なくとも1つが路面に照射されるように構成されたレーザレーダにより計測する請求項1〜請求項9のいずれか1項記載の道路勾配推定装置。   The three-dimensional position of each of the plurality of points is measured by a laser radar having a plurality of scanning lines and configured so that at least one of the scanning lines is irradiated onto a road surface. Item 10. The road gradient estimation device according to any one of Items 9. コンピュータを、
移動体周辺の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体周辺を該移動体に搭載された撮像手段により撮像した画像を取得する取得手段、
前記取得手段により取得された前記複数の点各々の3次元位置に基づいて、立体物を示す点を第1の立体物候補として抽出する第1の抽出手段、
前記取得手段により取得された画像の垂直エッジ情報及び予め定めた形状とのマッチング情報の少なくとも一方に基づいて、第2の立体物候補を抽出する第2の抽出手段と、
前記第2の立体物候補に対応する前記第1の立体物候補の3次元位置に基づいて、該第2の立体物候補の路面との接地点の3次元位置を算出する算出手段、及び
前記算出手段により算出された接地点の3次元位置に基づいて、前記移動体周辺の道路勾配を推定する勾配推定手段
として機能させるための道路勾配推定プログラム。
Computer
An acquisition means for acquiring a three-dimensional position of each of a plurality of points around the moving body based on the moving body, and an image obtained by imaging the periphery of the moving body by an imaging means mounted on the moving body;
First extraction means for extracting a point indicating a three-dimensional object as a first three-dimensional object candidate based on the three-dimensional position of each of the plurality of points acquired by the acquisition means;
Second extraction means for extracting a second solid object candidate based on at least one of vertical edge information of the image acquired by the acquisition means and matching information with a predetermined shape;
Calculating means for calculating a three-dimensional position of a contact point with the road surface of the second three-dimensional object candidate based on a three-dimensional position of the first three-dimensional object candidate corresponding to the second three-dimensional object candidate; and A road gradient estimation program for functioning as a gradient estimation unit for estimating a road gradient around the moving body based on a three-dimensional position of a ground contact point calculated by a calculation unit.
コンピュータを、請求項1〜請求項10のいずれか1項記載の道路勾配推定装置を構成する各手段として機能
させるための道路勾配推定プログラム。
The road gradient estimation program for functioning a computer as each means which comprises the road gradient estimation apparatus of any one of Claims 1-10.
JP2011094256A 2011-04-20 2011-04-20 Road gradient estimation device and program Withdrawn JP2012225806A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011094256A JP2012225806A (en) 2011-04-20 2011-04-20 Road gradient estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011094256A JP2012225806A (en) 2011-04-20 2011-04-20 Road gradient estimation device and program

Publications (1)

Publication Number Publication Date
JP2012225806A true JP2012225806A (en) 2012-11-15

Family

ID=47276132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011094256A Withdrawn JP2012225806A (en) 2011-04-20 2011-04-20 Road gradient estimation device and program

Country Status (1)

Country Link
JP (1) JP2012225806A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143979A (en) * 2013-12-27 2015-08-06 株式会社リコー Image processor, image processing method, program, and image processing system
CN104898128A (en) * 2014-03-07 2015-09-09 欧姆龙汽车电子株式会社 Laser radar device and object detecting method
JP2015205546A (en) * 2014-04-18 2015-11-19 アルパイン株式会社 Road gradient detection device, drive support device and computer program
JP2016206025A (en) * 2015-04-23 2016-12-08 株式会社デンソー Posture estimation device
KR20170028603A (en) * 2015-09-04 2017-03-14 현대모비스 주식회사 Device for recognizing of obstacle around the vehicle and method thereof
KR101816034B1 (en) * 2015-12-11 2018-02-21 현대오트론 주식회사 Apparatus and method for detecting road boundary line using camera and radar
CN107727656A (en) * 2017-11-27 2018-02-23 江苏昆太工业装备有限公司 A kind of laser detection platform intelligent checking system
JP2018096709A (en) * 2016-12-08 2018-06-21 富士通株式会社 Distance measurement device and distance measurement method
KR101886566B1 (en) * 2017-03-21 2018-08-07 연세대학교 산학협력단 Method and apparatus for providing image of road configuration using radar
CN108955584A (en) * 2017-05-23 2018-12-07 上海汽车集团股份有限公司 A kind of road surface detection method and device
CN109934169A (en) * 2019-03-13 2019-06-25 东软睿驰汽车技术(沈阳)有限公司 A kind of Lane detection method and device
CN110088802A (en) * 2016-12-19 2019-08-02 日立汽车系统株式会社 Article detection device
WO2019188222A1 (en) * 2018-03-30 2019-10-03 株式会社小松製作所 Control device of working machine, control device of excavating machine, and control method of working machine
WO2019186641A1 (en) * 2018-03-26 2019-10-03 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
WO2019198789A1 (en) * 2018-04-12 2019-10-17 株式会社小糸製作所 Object identification system, automobile, vehicle lamp fitting, and object clustering method
CN110770597A (en) * 2018-11-21 2020-02-07 深圳市大疆创新科技有限公司 Terrain prediction method, device and system of rotary microwave radar and unmanned aerial vehicle
GB2576265A (en) * 2016-04-05 2020-02-12 Jaguar Land Rover Ltd Improvements in vehicle speed control
JP2020098188A (en) * 2018-09-27 2020-06-25 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Obstacle detection method, obstacle detection device, electronic apparatus, vehicle and storage medium
CN113093218A (en) * 2021-05-14 2021-07-09 汤恩智能科技(苏州)有限公司 Slope detection method, drive device, and storage medium
JP2021117178A (en) * 2020-01-29 2021-08-10 本田技研工業株式会社 Recognition device, recognition system, method, and program
JP2021127075A (en) * 2020-02-17 2021-09-02 株式会社デンソー Road gradient estimation device, road gradient estimation system, and road gradient estimation method
CN113433939A (en) * 2021-03-11 2021-09-24 上海擎朗智能科技有限公司 Control method and device for mobile robot, mobile robot and storage medium
WO2021250876A1 (en) * 2020-06-12 2021-12-16 三菱電機株式会社 Road shape estimation device, road shape estimation method, and road shape estimation program
JP2022503671A (en) * 2018-09-11 2022-01-12 ルノー エス.ア.エス. Road detection methods for automatic vehicles equipped with rider sensors
JP2022515355A (en) * 2018-12-10 2022-02-18 北京図森智途科技有限公司 Trailer angle measurement method, equipment and vehicle
CN115035138A (en) * 2022-08-10 2022-09-09 武汉御驾科技有限公司 Road surface gradient extraction method based on crowdsourcing data
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143979A (en) * 2013-12-27 2015-08-06 株式会社リコー Image processor, image processing method, program, and image processing system
EP2889641B1 (en) * 2013-12-27 2021-06-02 Ricoh Company, Ltd. Image processing apparatus, image processing method, program and image processing system
CN104898128A (en) * 2014-03-07 2015-09-09 欧姆龙汽车电子株式会社 Laser radar device and object detecting method
JP2015205546A (en) * 2014-04-18 2015-11-19 アルパイン株式会社 Road gradient detection device, drive support device and computer program
JP2016206025A (en) * 2015-04-23 2016-12-08 株式会社デンソー Posture estimation device
KR20170028603A (en) * 2015-09-04 2017-03-14 현대모비스 주식회사 Device for recognizing of obstacle around the vehicle and method thereof
KR102490602B1 (en) 2015-09-04 2023-01-19 현대모비스 주식회사 Device for recognizing of obstacle around the vehicle and method thereof
KR101816034B1 (en) * 2015-12-11 2018-02-21 현대오트론 주식회사 Apparatus and method for detecting road boundary line using camera and radar
GB2576265B (en) * 2016-04-05 2020-08-19 Jaguar Land Rover Ltd Improvements in vehicle speed control
GB2576265A (en) * 2016-04-05 2020-02-12 Jaguar Land Rover Ltd Improvements in vehicle speed control
JP2018096709A (en) * 2016-12-08 2018-06-21 富士通株式会社 Distance measurement device and distance measurement method
CN110088802A (en) * 2016-12-19 2019-08-02 日立汽车系统株式会社 Article detection device
KR101886566B1 (en) * 2017-03-21 2018-08-07 연세대학교 산학협력단 Method and apparatus for providing image of road configuration using radar
CN108955584A (en) * 2017-05-23 2018-12-07 上海汽车集团股份有限公司 A kind of road surface detection method and device
CN108955584B (en) * 2017-05-23 2021-02-05 上海汽车集团股份有限公司 Pavement detection method and device
CN107727656A (en) * 2017-11-27 2018-02-23 江苏昆太工业装备有限公司 A kind of laser detection platform intelligent checking system
WO2019186641A1 (en) * 2018-03-26 2019-10-03 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
CN111868562A (en) * 2018-03-26 2020-10-30 三菱电机株式会社 Object detection device, vehicle, object detection method, and object detection program
JPWO2019186641A1 (en) * 2018-03-26 2020-05-28 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
WO2019188222A1 (en) * 2018-03-30 2019-10-03 株式会社小松製作所 Control device of working machine, control device of excavating machine, and control method of working machine
EP3744909A4 (en) * 2018-03-30 2021-11-10 Komatsu Ltd. Control device of working machine, control device of excavating machine, and control method of working machine
JP7154026B2 (en) 2018-03-30 2022-10-17 株式会社小松製作所 Working machine control device, excavating machine control device, and working machine control method
JP2019178599A (en) * 2018-03-30 2019-10-17 株式会社小松製作所 Control apparatus for machinery, control apparatus for excavation machine, and control method for machinery
US11959255B2 (en) 2018-03-30 2024-04-16 Komatsu Ltd. Work machine control device, excavating machine control device, and work machine control method
WO2019198789A1 (en) * 2018-04-12 2019-10-17 株式会社小糸製作所 Object identification system, automobile, vehicle lamp fitting, and object clustering method
JPWO2019198789A1 (en) * 2018-04-12 2021-05-13 株式会社小糸製作所 Object identification system, automobile, vehicle lighting, object clustering method
JP7227227B2 (en) 2018-04-12 2023-02-21 株式会社小糸製作所 Object identification system, automobile, vehicle lighting
JP7410932B2 (en) 2018-09-11 2024-01-10 ルノー エス.ア.エス. Method of road detection for automatic vehicles fitted with lidar sensors
JP2022503671A (en) * 2018-09-11 2022-01-12 ルノー エス.ア.エス. Road detection methods for automatic vehicles equipped with rider sensors
JP2020098188A (en) * 2018-09-27 2020-06-25 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Obstacle detection method, obstacle detection device, electronic apparatus, vehicle and storage medium
JP7395301B2 (en) 2018-09-27 2023-12-11 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド Obstacle detection method, obstacle detection device, electronic equipment, vehicle and storage medium
US11393219B2 (en) 2018-09-27 2022-07-19 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for detecting obstacle, electronic device, vehicle and storage medium
CN110770597A (en) * 2018-11-21 2020-02-07 深圳市大疆创新科技有限公司 Terrain prediction method, device and system of rotary microwave radar and unmanned aerial vehicle
JP2022515355A (en) * 2018-12-10 2022-02-18 北京図森智途科技有限公司 Trailer angle measurement method, equipment and vehicle
JP7330276B2 (en) 2018-12-10 2023-08-21 北京図森智途科技有限公司 METHOD, DEVICE AND VEHICLE FOR MEASURING TRAILER INCLUSION
CN109934169A (en) * 2019-03-13 2019-06-25 东软睿驰汽车技术(沈阳)有限公司 A kind of Lane detection method and device
JP7419085B2 (en) 2020-01-29 2024-01-22 本田技研工業株式会社 Recognition device, recognition system, method, and program
JP2021117178A (en) * 2020-01-29 2021-08-10 本田技研工業株式会社 Recognition device, recognition system, method, and program
JP2021127075A (en) * 2020-02-17 2021-09-02 株式会社デンソー Road gradient estimation device, road gradient estimation system, and road gradient estimation method
JP7452069B2 (en) 2020-02-17 2024-03-19 株式会社デンソー Road gradient estimation device, road gradient estimation system, and road gradient estimation method
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
WO2021250876A1 (en) * 2020-06-12 2021-12-16 三菱電機株式会社 Road shape estimation device, road shape estimation method, and road shape estimation program
CN113433939A (en) * 2021-03-11 2021-09-24 上海擎朗智能科技有限公司 Control method and device for mobile robot, mobile robot and storage medium
CN113433939B (en) * 2021-03-11 2024-04-12 上海擎朗智能科技有限公司 Control method and device for mobile robot, mobile robot and storage medium
CN113093218A (en) * 2021-05-14 2021-07-09 汤恩智能科技(苏州)有限公司 Slope detection method, drive device, and storage medium
CN115035138B (en) * 2022-08-10 2022-11-22 武汉御驾科技有限公司 Road surface gradient extraction method based on crowdsourcing data
CN115035138A (en) * 2022-08-10 2022-09-09 武汉御驾科技有限公司 Road surface gradient extraction method based on crowdsourcing data

Similar Documents

Publication Publication Date Title
JP2012225806A (en) Road gradient estimation device and program
JP5820774B2 (en) Road boundary estimation apparatus and program
JP5822255B2 (en) Object identification device and program
CN110068836B (en) Laser radar road edge sensing system of intelligent driving electric sweeper
JP6225889B2 (en) Vehicle position estimation apparatus and program
JP5407898B2 (en) Object detection apparatus and program
CN110472553B (en) Target tracking method, computing device and medium for fusion of image and laser point cloud
JP5145986B2 (en) Object detection apparatus and distance measuring method
JP6721784B2 (en) Information processing device, server device, control method, program, and storage medium
KR102078254B1 (en) Method, system and computer program for topographical change detection using LiDAR data
CN110674705A (en) Small-sized obstacle detection method and device based on multi-line laser radar
CN109946703B (en) Sensor attitude adjusting method and device
CN112464812B (en) Vehicle-based concave obstacle detection method
JP6524529B2 (en) Building limit judging device
JP5834933B2 (en) Vehicle position calculation device
JP2013140515A (en) Solid object detection device and program
CN112781599A (en) Method for determining the position of a vehicle
CN113432533A (en) Robot positioning method and device, robot and storage medium
JP6263453B2 (en) Momentum estimation device and program
US11933884B2 (en) Radar image processing device, radar image processing method, and storage medium
JP2007011994A (en) Road recognition device
CN115151954A (en) Method and device for detecting a drivable region
CN114119729A (en) Obstacle identification method and device
CN111553342B (en) Visual positioning method, visual positioning device, computer equipment and storage medium
JP2015059808A (en) Object monitoring device and object monitoring system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701