JP2018055222A - Runway detection method and runway detection device - Google Patents

Runway detection method and runway detection device Download PDF

Info

Publication number
JP2018055222A
JP2018055222A JP2016187926A JP2016187926A JP2018055222A JP 2018055222 A JP2018055222 A JP 2018055222A JP 2016187926 A JP2016187926 A JP 2016187926A JP 2016187926 A JP2016187926 A JP 2016187926A JP 2018055222 A JP2018055222 A JP 2018055222A
Authority
JP
Japan
Prior art keywords
runway
road
detection
vehicle
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016187926A
Other languages
Japanese (ja)
Other versions
JP7024176B2 (en
Inventor
泰仁 佐野
Yasuhito Sano
泰仁 佐野
千加夫 土谷
Chikao Tsuchiya
千加夫 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016187926A priority Critical patent/JP7024176B2/en
Publication of JP2018055222A publication Critical patent/JP2018055222A/en
Application granted granted Critical
Publication of JP7024176B2 publication Critical patent/JP7024176B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly detect a runway boundary even when curvature of a white line on a road becomes larger in a case where a road on which a vehicle is traveling is curved, etc.SOLUTION: A runway detection method is performed by storing multiple runway feature points detected by using sensors mounted on a vehicle on the basis of a vehicle moving amount, setting a runway detection section on the basis of a runway shape estimated from the stored multiple runway feature points, and detecting a runway boundary by determining continuity between runway feature points for each runway detection section.SELECTED DRAWING: Figure 4

Description

本発明は、車両に搭載されたセンサを用いて検出された複数の走路特徴点を、車両の移動量に基づいて蓄積し、蓄積された複数の走路特徴点から走路境界を検出する走路検出方法及び走路検出装置に関する。   The present invention accumulates a plurality of runway feature points detected using a sensor mounted on a vehicle based on the amount of movement of the vehicle, and detects a runway boundary from the accumulated runway feature points. And a runway detection device.

従来では、路面の画像から走行レーンを検出する装置として特許文献1が開示されている。特許文献1では、先ず、路面座標に逆投影された複数のエッジ点に対して、水平方向のエッジヒストグラムを作成する。そして、エッジヒストグラムのピーク位置を求め、ピーク位置に寄与するエッジ群を1つのグループとして抽出することで、レーンマーカーを検出していた。   Conventionally, Patent Document 1 is disclosed as an apparatus for detecting a travel lane from an image of a road surface. In Patent Document 1, first, a horizontal edge histogram is created for a plurality of edge points back-projected on road surface coordinates. Then, the lane marker is detected by obtaining the peak position of the edge histogram and extracting the edge group contributing to the peak position as one group.

特開2005−100000号公報Japanese Patent Laid-Open No. 2005-100000

しかしながら、車両が走行する道路がカーブしている場合等に道路上の白線の曲率が大きくなると、エッジヒストグラムのピーク位置を求めることが困難になり、エッジ群を正しく抽出できなくなる。そのため白線等の走路境界を正確に検出できなくなるという問題点があった。   However, if the curvature of the white line on the road becomes large when the road on which the vehicle is traveling is curved, it becomes difficult to obtain the peak position of the edge histogram, and the edge group cannot be extracted correctly. For this reason, there is a problem that it is impossible to accurately detect the road boundary such as a white line.

本発明は上記課題に鑑みて成されたものであり、その目的は、車両が走行する道路がカーブしている場合等に道路上の白線の曲率が大きくなっても正確に走路境界を検出することのできる走路検出方法及びその装置を提供することにある。   The present invention has been made in view of the above problems, and its purpose is to accurately detect the road boundary even when the curvature of the white line on the road increases when the road on which the vehicle runs is curved. An object of the present invention is to provide a running path detection method and apparatus capable of performing the same.

上述した課題を解決するために、本発明の一態様に係る走路検出方法及びその装置は、蓄積された複数の走路特徴点から推定された走路形状に基づいて走路検出区間を設定し、設定された走路検出区間毎に走路特徴点間の連続性を判定して走路境界を検出する。   In order to solve the above-described problem, a road detection method and apparatus according to an aspect of the present invention sets and sets a road detection section based on a road shape estimated from a plurality of accumulated road characteristic points. The continuity between runway feature points is determined for each runway detection section to detect a runway boundary.

本発明によれば、車両が走行する道路がカーブしている場合等に道路上の白線の曲率が大きくなっても正確に走路境界を検出することができる。   According to the present invention, the road boundary can be accurately detected even when the curvature of the white line on the road increases when the road on which the vehicle is traveling is curved.

図1は、本発明の第1実施形態に係る走路検出装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a runway detection apparatus according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る走路検出装置によって生成される周囲地図の一例を示す図である。FIG. 2 is a diagram illustrating an example of a surrounding map generated by the travel path detection apparatus according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る走路検出装置によるヒストグラムの生成方法を説明するための図である。FIG. 3 is a diagram for explaining a histogram generation method by the runway detection apparatus according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係る走路検出装置による走路検出処理の処理手順を示すフローチャートである。FIG. 4 is a flowchart showing a processing procedure of a road detection process by the road detection device according to the first embodiment of the present invention. 図5は、本発明の第1実施形態に係る走路検出装置による走路検出区間の設定方法を説明するための図である。FIG. 5 is a diagram for explaining a method of setting a road detection section by the road detection device according to the first embodiment of the present invention. 図6は、本発明の第1実施形態に係る走路検出装置による走路検出区間の設定方法を説明するための図である。FIG. 6 is a diagram for explaining a method of setting a road detection section by the road detection device according to the first embodiment of the present invention. 図7は、本発明の第1実施形態に係る走路検出装置による走路検出区間の設定方法を説明するための図である。FIG. 7 is a diagram for explaining a method of setting a road detection section by the road detection device according to the first embodiment of the present invention. 図8は、本発明の第2実施形態に係る走路検出装置の構成を示すブロック図である。FIG. 8 is a block diagram showing a configuration of a runway detection apparatus according to the second embodiment of the present invention. 図9は、本発明の第2実施形態に係る走路検出装置による走路検出処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure of a road detection process by the road detection device according to the second embodiment of the present invention.

以下、本発明の第1及び第2実施形態について図面を参照して説明する。   Hereinafter, first and second embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
[走路検出装置の構成]
図1は、本実施形態に係る走路検出装置の構成を示すブロック図である。図1に示すように、本実施形態に係る走路検出装置1は、物標検出部3と、車両移動量検出部5と、周囲地図生成部7と、走路検出部9とを備えている。
[First Embodiment]
[Configuration of runway detection device]
FIG. 1 is a block diagram illustrating a configuration of a travel path detection apparatus according to the present embodiment. As shown in FIG. 1, the road detection device 1 according to the present embodiment includes a target detection unit 3, a vehicle movement amount detection unit 5, a surrounding map generation unit 7, and a road detection unit 9.

走路検出装置1は、車両に搭載されたセンサを用いて検出された複数の走路特徴点を、車両の移動量に基づいて蓄積し、蓄積された複数の走路特徴点から走路境界を検出するコントローラである。走路検出装置1は、車両に搭載されており、その車両にはカメラや速度センサ、車輪速センサ、ヨーレートセンサ等のセンサが搭載されている。   The runway detection device 1 accumulates a plurality of runway feature points detected using sensors mounted on the vehicle based on the amount of movement of the vehicle, and detects a runway boundary from the accumulated runway feature points It is. The travel path detection device 1 is mounted on a vehicle, and a sensor such as a camera, a speed sensor, a wheel speed sensor, and a yaw rate sensor is mounted on the vehicle.

物標検出部3は、車両周囲の路面に標示された白線(レーンマーカーを含む)を検出する。物標検出部3は、車両に取り付けられたカメラが撮像したデジタル画像から白線を含む路面標示を検出し、検出された路面標示は、その位置を示す複数の走路特徴点からなる特徴点群として表現される。走路特徴点は、例えば、画像の明るさが鋭敏に或いは不連続に変化している箇所(輝度エッジ)として検出される。車両に搭載されたカメラは、その撮像方向を車両前方に向けて固定され、広い画角を撮像できる広角レンズを備えている。これにより、物標検出部3は、車両が車線変更を行っている途中で跨ぐ白線(レーンマーカー)も検出することができる。尚、物標検出部3とカメラを一体に構成して物標検出センサとして車両に搭載してもよい。   The target detection unit 3 detects white lines (including lane markers) marked on the road surface around the vehicle. The target detection unit 3 detects a road marking including a white line from a digital image captured by a camera attached to the vehicle, and the detected road marking is a feature point group including a plurality of road feature points indicating the position. Expressed. The runway feature point is detected, for example, as a location (luminance edge) where the brightness of the image changes sharply or discontinuously. A camera mounted on a vehicle includes a wide-angle lens that is fixed with its imaging direction facing the front of the vehicle and can capture a wide angle of view. Thereby, the target detection part 3 can also detect the white line (lane marker) straddling in the middle of the vehicle changing lanes. Note that the target detection unit 3 and the camera may be configured integrally and mounted on the vehicle as a target detection sensor.

車両移動量検出部5は、車輪速センサによって検出された車輪の回転速度と、ヨーレートセンサによって検出された車両のヨーレートから、所定時間における車両の移動量を検出する。車両の移動量は、例えば、車両の移動方向及び移動距離を含んでいる。尚、車両移動量検出部5と車輪速センサとヨーレートセンサを一体に構成して移動量検出センサとして車両に搭載してもよい。   The vehicle movement amount detection unit 5 detects the movement amount of the vehicle in a predetermined time from the rotational speed of the wheel detected by the wheel speed sensor and the yaw rate of the vehicle detected by the yaw rate sensor. The moving amount of the vehicle includes, for example, the moving direction and moving distance of the vehicle. The vehicle movement amount detection unit 5, the wheel speed sensor, and the yaw rate sensor may be integrally configured and mounted on the vehicle as the movement amount detection sensor.

周囲地図生成部7は、物標検出部3で検出された複数の走路特徴点を、車両の移動量に基づいて蓄積して周囲地図を生成する。具体的に、周囲地図生成部7は、物標検出部3で検出された特徴点群の履歴を、特徴点群を検出した時刻間の車両の移動量に基づいてつなぎ合わせて、特徴点群からなる車両周囲の地図を生成する。換言すれば、周囲地図生成部7は、異なる時刻に観測された走路特徴点を、車両の移動量を考慮してつなぎ合わせ、走路特徴点の検出履歴を蓄積した周囲地図を生成する。   The surrounding map generation unit 7 generates a surrounding map by accumulating a plurality of runway feature points detected by the target detection unit 3 based on the movement amount of the vehicle. Specifically, the surrounding map generation unit 7 connects the history of the feature point groups detected by the target detection unit 3 based on the amount of movement of the vehicle between the time points when the feature point groups are detected, and the feature point group A map around the vehicle is generated. In other words, the surrounding map generation unit 7 connects the runway feature points observed at different times in consideration of the moving amount of the vehicle, and generates a surrounding map in which the detection history of the runway feature points is accumulated.

具体的に、カメラは所定時間毎に車両周囲の路面を撮像するので、車両移動量検出部5は、この所定時間における車両の移動方向及び移動距離を検出する。周囲地図生成部7は、走路特徴点の位置を車両の移動方向の逆方向へ車両の移動距離だけ移動させる。周囲地図生成部7は、これを繰り返しながら、異なる時刻に観測された複数の走路特徴点をつなぎ合わせることにより、複数の走路特徴点の検出履歴を蓄積して周囲地図を生成する。   Specifically, since the camera images the road surface around the vehicle every predetermined time, the vehicle movement amount detection unit 5 detects the moving direction and the moving distance of the vehicle during the predetermined time. The surrounding map generation unit 7 moves the position of the runway feature point in the direction opposite to the moving direction of the vehicle by the moving distance of the vehicle. The surrounding map generation unit 7 repeats this to connect a plurality of runway feature points observed at different times, thereby accumulating a plurality of runway feature point detection histories and generating a surrounding map.

例えば、図2に示すように、車両11が緩やかな右カーブの2車線道路のうち左側の車線を走行している場合に、この2車線道路を定義する走路境界は3つ(SKa、SKb、SKc)ある。周囲地図生成部7が生成する周囲地図は、3つの走路境界(SKa、SKb、SKc)に沿って検出された特徴点群(図示せず)を含んでいる。尚、本実施形態では、車両11の位置を原点とし、車両11の進行方向をx軸、車両11の車幅方向をy軸とする平面座標を用いる。   For example, as shown in FIG. 2, when the vehicle 11 is traveling on the left lane of a two-lane road with a gentle right curve, there are three lane boundaries (SKa, SKb, SKc). The surrounding map generated by the surrounding map generation unit 7 includes a feature point group (not shown) detected along the three road boundary (SKa, SKb, SKc). In the present embodiment, plane coordinates are used in which the position of the vehicle 11 is the origin, the traveling direction of the vehicle 11 is the x axis, and the vehicle width direction of the vehicle 11 is the y axis.

走路検出部(走路検出回路)9は、蓄積された複数の走路特徴点(周囲地図)から走路形状を推定し、推定された走路形状に基づいて走路検出区間を設定する。そして、走路検出部9は、走路検出区間毎に周囲地図に含まれる複数の走路特徴点間の連続性を判定し、走路特徴点間の連続性に基づいて走路境界を検出する。   The runway detection unit (runway detection circuit) 9 estimates a runway shape from a plurality of accumulated runway feature points (surrounding maps), and sets a runway detection section based on the estimated runway shape. And the runway detection part 9 determines the continuity between the several runway feature points contained in a surrounding map for every runway detection area, and detects a runway boundary based on the continuity between runway feature points.

走路検出部9は、走路検出区間を設定するときに、走路形状が直線に近似できる範囲に走路検出区間を設定する。また、走路検出部9は、走路形状が曲線近似できる範囲に走路検出区間を設定してもよいし、走路形状が地図データと一致する範囲に走路検出区間を設定してもよい。さらに、自車両または他車両の走行軌跡に基づいて走路検出区間を設定してもよい。   When setting the runway detection section, the runway detection unit 9 sets the runway detection section in a range in which the runway shape can be approximated to a straight line. The runway detection unit 9 may set the runway detection section in a range where the runway shape can be approximated by a curve, or may set the runway detection section in a range where the runway shape matches the map data. Furthermore, you may set a traveling path detection area based on the driving | running locus | trajectory of the own vehicle or another vehicle.

そして、走路検出区間が設定されると、走路検出部9は、走路検出区間毎に周囲地図に含まれる複数の走路特徴点間の連続性を判定する。例えば、図3に示すように、図2の周囲地図と共通のy軸と、y軸に直交する時間軸(t軸)とを設定し、周囲地図に含まれる複数の走路特徴点FPを、その検出時刻(t)及び車幅方向の位置(y座標)に基づいてプロットする。図2に示すように走路に沿って車両11が走行していれば、走路特徴点FPの車幅方向の位置(y座標)はほぼ一定である。このため、道路形状(緩やかな右カーブ)に係わらず、走路特徴点FPはt軸に平行な直線に沿ってプロットされる。   And if a runway detection area is set, the runway detection part 9 will determine the continuity between several runway feature points contained in a surrounding map for every runway detection area. For example, as shown in FIG. 3, a y-axis common to the surrounding map of FIG. 2 and a time axis (t-axis) orthogonal to the y-axis are set, and a plurality of runway feature points FP included in the surrounding map are Plot based on the detection time (t) and the position in the vehicle width direction (y coordinate). As shown in FIG. 2, if the vehicle 11 is traveling along the traveling road, the position (y coordinate) in the vehicle width direction of the traveling road feature point FP is substantially constant. Therefore, the road feature point FP is plotted along a straight line parallel to the t-axis regardless of the road shape (gradual right curve).

走路特徴点FPをプロットすると、走路検出部9は、図3に示すように走路特徴点FPをy軸に沿った一次元のヒストグラムに投票する。このヒストグラムから複数の走路特徴点間の連続性を判定することができる。   When the runway feature points FP are plotted, the runway detection unit 9 votes the runway feature points FP on a one-dimensional histogram along the y-axis as shown in FIG. From this histogram, continuity between a plurality of runway feature points can be determined.

この後、走路検出部9は、ヒストグラムのピーク(y座標)を検出し、ピーク毎に走路特徴点FPをグルーピングすることにより走路境界点群を抽出して走路境界を検出する。例えば、ヒストグラムに投票された走路特徴点FPの各々を最も近いピークに属するようにグルーピングする。グルーピングされた複数の走路特徴点FPは1つの走路境界点群を構成するので、走路境界である白線を検出することができる。したがって、走路検出部9は、走路特徴点FPの車幅方向の位置(y座標)の度数に基づいて走路特徴点FP間の連続性を判定して走路境界を検出することができる。また、ヒストグラムを用いたグルーピングを行うことにより、平行する複数の走路境界点群を同時に抽出することができる。   Thereafter, the runway detection unit 9 detects the peak (y coordinate) of the histogram, groups the runway feature points FP for each peak, extracts the runway boundary point group, and detects the runway boundary. For example, each of the runway feature points FP voted in the histogram is grouped so as to belong to the nearest peak. Since the plurality of grouped runway feature points FP constitute one runway boundary point group, a white line that is a runway boundary can be detected. Therefore, the runway detection unit 9 can detect the runway boundary by determining the continuity between the runway feature points FP based on the frequency of the position (y coordinate) of the runway feature points FP in the vehicle width direction. Further, by performing grouping using a histogram, a plurality of parallel road boundary point groups can be extracted simultaneously.

次に、走路検出部9は、抽出した走路境界点群の各々から各走路境界(SKa、SKb、SKc)の形状を推定して白線近似曲線を算出する。具体的に、走路検出部9は、各走路境界点群に対して、道路モデル関数で表現される曲線をあてはめることにより、各走路境界(SKa、SKb、SKc)の形状を推定し、白線近似曲線を算出する。道路モデル関数は、例えば、三次関数(y=ax+bx+cx+d)である。この場合、走路検出部9は、係数a、b、c及びdを算出する。ここで、最小二乗法による関数あてはめを用いてもよいが、より安定性を求める場合にはRANSAC(Random sample consensus)等のロバスト推定を用いてもよい。 Next, the runway detection unit 9 estimates the shape of each runway boundary (SKa, SKb, SKc) from each of the extracted runway boundary point groups, and calculates a white line approximate curve. Specifically, the road detection unit 9 estimates the shape of each road boundary (SKa, SKb, SKc) by applying a curve expressed by a road model function to each road boundary point group, and approximates a white line. Calculate the curve. The road model function is, for example, a cubic function (y = ax 3 + bx 2 + cx + d). In this case, the runway detection unit 9 calculates coefficients a, b, c, and d. Here, function fitting by the least square method may be used, but robust estimation such as RANSAC (Random sample consensus) may be used when more stability is desired.

尚、走路検出装置1は、マイクロコンピュータ、マイクロプロセッサ、CPUを含む汎用の電子回路とメモリ等の周辺機器から構成されている。そして、特定のプログラムを実行することにより、上述した物標検出部3、車両移動量検出部5、周囲地図生成部7及び走路検出部9として動作する。このような走路検出装置1の各機能は、1または複数の処理回路によって実装することができる。処理回路は、例えば電気回路を含む処理装置等のプログラムされた処理装置を含み、また実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置も含んでいる。   The travel path detection device 1 includes a general-purpose electronic circuit including a microcomputer, a microprocessor, and a CPU, and peripheral devices such as a memory. And it operates as the target detection part 3, the vehicle movement amount detection part 5, the surrounding map generation part 7, and the runway detection part 9 which were mentioned above by running a specific program. Each function of the travel path detection apparatus 1 can be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as, for example, a processing device including an electrical circuit, and an application specific integrated circuit (ASIC) or conventional circuit arranged to perform the functions described in the embodiments. It also includes devices such as parts.

[走路検出処理の手順]
次に、本実施形態に係る走路検出装置1による走路検出処理の手順を図4のフローチャートを参照して説明する。
[Procedure for runway detection processing]
Next, the procedure of the road detection process by the road detection device 1 according to the present embodiment will be described with reference to the flowchart of FIG.

図4に示すように、ステップS101において、車両に搭載されたカメラにより車両周囲の画像を撮像し、物標検出部3は、撮像された画像を取得する。   As illustrated in FIG. 4, in step S <b> 101, an image around the vehicle is captured by a camera mounted on the vehicle, and the target detection unit 3 acquires the captured image.

ステップS102において、物標検出部3は、ステップS101で撮像された画像内の白線候補点群を、走路特徴点として検出する。検出方法としては、画像内のエッジ情報を抽出する方法、カメラから計測した場合の白線形状をベースにパターンを作成し、このパターンとのマッチングを行なう方法、またはアスファルトの黒に対して輝度の高い白線の白色を抽出する手法等がある。ただし、本実施形態では検出方法については特に限定しない。物標検出部3は、白線候補点群をタイムステップΔtごとに検出して車両座標系に記録する。   In step S102, the target detection unit 3 detects a white line candidate point group in the image captured in step S101 as a runway feature point. As a detection method, a method of extracting edge information in an image, a method of creating a pattern based on a white line shape when measured from a camera, and matching with this pattern, or a luminance higher than that of asphalt black There is a method for extracting the white color of the white line. However, the detection method is not particularly limited in this embodiment. The target detection unit 3 detects the white line candidate point group for each time step Δt and records it in the vehicle coordinate system.

ステップS103において、車両移動量検出部5は、車両の相対移動量を検出する。検出方法としては、一般的な車両に搭載されているタイヤの回転角度を計測したセンサ情報を活用する方法やジャイロ等の車両の回転角度を計算するセンサ情報を活用する方法を用いればよい。さらに、カメラやレーザレンジファインダを車両に搭載して、車両周囲の3D物体位置計測と車両の移動量計測を同時に行うSLAM手法を用いてもよい。ただし、本実施形態では検出方法については特に限定しない。車両移動量検出部5は、ts時における車両位置を基準として、車両の進行方向の位置xと、車両の車幅方向の位置yと、車両の進行方向を0度として反時計回りを正回転とする車両回転量θとをΔt毎に検出する。 In step S103, the vehicle movement amount detector 5 detects the relative movement amount of the vehicle. As a detection method, a method of using sensor information obtained by measuring a rotation angle of a tire mounted on a general vehicle or a method of using sensor information for calculating the rotation angle of a vehicle such as a gyro may be used. Furthermore, a SLAM technique may be used in which a camera or a laser range finder is mounted on a vehicle and 3D object position measurement around the vehicle and vehicle movement amount measurement are performed simultaneously. However, the detection method is not particularly limited in this embodiment. Based on the vehicle position at time t s , the vehicle movement amount detection unit 5 corrects the counterclockwise rotation with the position x in the vehicle traveling direction, the position y in the vehicle width direction, and the vehicle traveling direction as 0 degrees. The vehicle rotation amount θ to be rotated is detected every Δt.

ステップS104において、周囲地図生成部7は、ステップS103で検出された車両の移動量に沿って白線候補点群の再合成を行う。すなわち、ts時における車両位置を基準とし、Δt毎に計測された車両の相対移動量の分だけ白線候補点群をオフセットしてプロットする。これにより相対移動量の計測精度にしたがい、車両の相対移動軌跡に沿って白線がプロットされ、図2に示すような周囲地図が生成される。 In step S104, the surrounding map generation unit 7 recombines the white line candidate point cloud along the movement amount of the vehicle detected in step S103. That is, with the vehicle position at t s as a reference, the white line candidate point group is offset and plotted by the amount of relative movement of the vehicle measured every Δt. Thereby, according to the measurement accuracy of the relative movement amount, the white line is plotted along the relative movement locus of the vehicle, and a surrounding map as shown in FIG. 2 is generated.

ステップS105において、周囲地図生成部7は、ステップS104で生成された周囲地図に基づいて走路形状を推定する。すなわち、周囲地図生成部7は、複数の走路特徴点を車両の移動量に基づいて蓄積し、蓄積された複数の走路特徴点から走路形状を推定する。   In step S105, the surrounding map generation unit 7 estimates a running road shape based on the surrounding map generated in step S104. That is, the surrounding map generation unit 7 accumulates a plurality of runway feature points based on the movement amount of the vehicle, and estimates a runway shape from the accumulated runway feature points.

ステップS106において、走路検出部9は、ステップS105において推定された走路形状が直線であるか否かを判定する。直線であるか否かの判定方法としては、推定された走路形状に対して、最小二乗法による直線近似を実施し、最小二乗誤差が閾値以内である場合に直線であると判定し、閾値を超えた場合に直線ではないと判定する。このとき、車両の左サイドで検出された白線候補点群のみを対象としてしてもよい。そして、走路形状が直線ではないと判定された場合にはステップS107に進み、走路形状が直線であると判定された場合にはステップS108に進む。   In step S106, the runway detection unit 9 determines whether or not the runway shape estimated in step S105 is a straight line. As a method of determining whether or not the line is a straight line, a straight line approximation by the least square method is performed on the estimated road shape, and when the least square error is within the threshold, the line is determined to be a straight line, and the threshold is set. When it exceeds, it determines with it not being a straight line. At this time, only the white line candidate point group detected on the left side of the vehicle may be targeted. If it is determined that the runway shape is not a straight line, the process proceeds to step S107. If it is determined that the runway shape is a straight line, the process proceeds to step S108.

ステップS107において、走路検出部9は、走路形状が直線に近似できる範囲に走路検出区間を設定する。走路検出部9は、直線ではないと判定された走路形状に対して、最小二乗法による直線近似を実施して直線近似が可能なエリア(範囲)に区切り、区切られた各エリアを走路検出区間として設定する。具体的な設定方法としては、最小二乗誤差が閾値以内となるように走路形状を短く区切っていけばよい。例えば、図5に示すように、直線ではないと判定された曲線の走路のうち直線近似が可能なエリア51を走路検出区間52として設定する。   In step S107, the road detection unit 9 sets the road detection section in a range where the road shape can be approximated to a straight line. The runway detection unit 9 performs straight line approximation by the least square method on the runway shape determined not to be a straight line, and divides the area into areas (ranges) in which straight line approximation can be performed. Set as. As a specific setting method, the runway shape may be shortly divided so that the least square error is within a threshold value. For example, as shown in FIG. 5, an area 51 in which straight line approximation is possible is set as a road detection section 52 among curved roads that are determined not to be straight.

また、走路検出部9は、走路形状が曲線近似できる範囲に走路検出区間を設定してもよい。例えば、図6に示すように、道路が曲線を描いている場合には、白線候補点群から曲線を算出し、近似誤差が閾値以下である範囲を白線検出エリア61として設定する。図6では、路肩部分62で曲線近似ができないので、その先のエリアで曲線近似を行い、白線検出エリア61を設定している。そして、走路検出部9は、白線検出エリア61内で直線近似を行い、最小二乗誤差が閾値以内となるように区切って複数の走路検出区間63、64、65を設定する。   The runway detection unit 9 may set the runway detection section in a range in which the runway shape can be approximated by a curve. For example, as shown in FIG. 6, when the road is curved, a curve is calculated from the white line candidate point group, and a range where the approximation error is equal to or less than the threshold is set as the white line detection area 61. In FIG. 6, curve approximation cannot be performed at the road shoulder portion 62, so curve approximation is performed in the area ahead, and a white line detection area 61 is set. Then, the runway detection unit 9 performs straight line approximation in the white line detection area 61, and sets a plurality of runway detection sections 63, 64, and 65 so that the least square error is within a threshold value.

また、走路検出部9は、走路形状が地図データと一致する範囲に走路検出区間を設定してもよい。走路検出部9は、地図データから道路形状線を取得し、この道路形状線と白線候補点群から求めた走路形状とをマッチングする。そして、図7に示すように、誤差が閾値以下である範囲を白線検出エリア71として設定する。このとき、地図データから分岐や合流等の白線検出を行えない区間を考慮して白線検出エリアを設定してもよい。具体的には、分岐、合流の出入り口付近では、カーブの曲線とは異なる曲率変化があるので、このような区間については、白線候補点群から道路曲線を推定しない区間とする。   Moreover, the runway detection part 9 may set a runway detection area in the range where a runway shape corresponds with map data. The road detection unit 9 acquires a road shape line from the map data, and matches the road shape line and the road shape obtained from the white line candidate point group. Then, as shown in FIG. 7, a range where the error is equal to or less than the threshold is set as the white line detection area 71. At this time, the white line detection area may be set in consideration of a section where white line detection such as branching or merging cannot be performed from the map data. Specifically, since there is a change in curvature different from the curve of the curve near the entrance / exit of the branch or merge, such a section is a section in which no road curve is estimated from the white line candidate point group.

図7では、路肩部分72で地図データと走路形状がマッチングしないので、その先のエリアを白線検出エリア71に設定している。そして、走路検出部9は、白線検出エリア71内で直線近似を行い、最小二乗誤差が閾値以内となるように区切って複数の走路検出区間73、74、75を設定する。尚、地図データから取得した道路形状線と白線候補点群から求めた走路形状との誤差が閾値以下となる範囲では、地図データから取得した道路形状線を使用し、誤差が閾値より大きい範囲では、白線候補点群から求めた走路形状を使用するようにしてもよい。   In FIG. 7, since the map data does not match the road shape at the shoulder portion 72, the area ahead is set as the white line detection area 71. Then, the runway detection unit 9 performs straight line approximation in the white line detection area 71, and sets a plurality of runway detection sections 73, 74, and 75 so that the least square error is within a threshold value. In the range where the error between the road shape line obtained from the map data and the road shape obtained from the white line candidate point group is below the threshold, the road shape line obtained from the map data is used, and in the range where the error is larger than the threshold, The road shape obtained from the white line candidate point group may be used.

さらに、走路検出部9は、自車両または他車両の走行軌跡に基づいて走路検出区間を設定してもよい。自車両だけでなく他車両であっても、走行している道路の走行軌跡があれば、その走行軌跡から走路形状を求め、上記した方法と同様の方法で走路検出区間を設定することができる。例えば、前方を走行する先行車は、自車両がこれから走行する区間をすでに走行しているので、その走行軌跡を用いて走路形状を推定して走路検出区間を設定する。   Furthermore, the travel path detection unit 9 may set a travel path detection section based on the travel path of the host vehicle or another vehicle. Even if it is not only the host vehicle but also other vehicles, if there is a travel locus of the road on which it is traveling, it is possible to determine the shape of the road from the travel locus and to set the road detection section in the same manner as described above. . For example, since the preceding vehicle traveling ahead has already traveled in the section in which the host vehicle will travel, the travel path shape is estimated using the travel locus to set the travel path detection section.

ステップS108において、走路検出部9は、白線検出基準線を設定する。ここで、白線検出基準線とは、白線を検出するためのヒストグラムを構築する際の軸となるものであり、図3に示すヒストグラムのy軸である。車両が直線道路を道路に沿って走行している場合には、車両の進行方向に対して垂直方向に白線検出基準線を設定し、この白線検出基準線上に白線候補点群を圧縮すると、図3に示すように白線候補点群が塊となって白線検出基準線上に分布する。このヒストグラム上のピークを検出することによって、白線が複数存在する環境でも、一本一本の白線を別々に認識することが可能となる。   In step S108, the road detection unit 9 sets a white line detection reference line. Here, the white line detection reference line is an axis for constructing a histogram for detecting a white line, and is the y axis of the histogram shown in FIG. When the vehicle is traveling on a straight road along a road, a white line detection reference line is set in a direction perpendicular to the traveling direction of the vehicle, and the white line candidate point group is compressed on the white line detection reference line. As shown in FIG. 3, the white line candidate point group is distributed as a lump on the white line detection reference line. By detecting the peak on the histogram, it is possible to recognize each white line separately even in an environment where a plurality of white lines exist.

しかし、白線が曲線を描いている場合や、車両が車線変更やコーナーリングをしている場合には、白線検出基準線の設定が困難になる。白線検出基準線を車両の進行方向に対して垂直に設定しても、白線が曲線を描いている場合では一本一本の白線がヒストグラム上で一つのまとまりにならず、隣の白線のまとまりと重なってしまうためである。   However, it is difficult to set a white line detection reference line when the white line draws a curve or when the vehicle is changing lanes or cornering. Even if the white line detection reference line is set perpendicular to the direction of travel of the vehicle, if the white line draws a curve, each white line is not a single unit on the histogram, but a group of adjacent white lines. This is because they overlap.

そこで、本実施形態では、上述したように走路形状を直線近似が可能なエリア(範囲)に区切って走路検出区間を設定し、走路検出区間毎にヒストグラムを構成する。したがって、白線検出基準線も走路検出区間毎に設定される。例えば、図5では、直線近似が可能なエリア51を走路検出区間52として設定し、走路検出区間52に対して、走路形状に垂直な白線検出基準線53を設定する。また、図6では、走路検出区間63、64、65のそれぞれに対して、近似された曲線に垂直な白線検出基準線66、67、68を設定する。同様に、図7でも、走路検出区間73、74、75のそれぞれに対して、道路形状線に垂直な白線検出基準線76、77、78を設定する。これにより、車両が曲線を含む領域を通過した場合でも、直線近似が可能なエリアでヒストグラムを構築するので、正確な白線認識を実施することができる。   Therefore, in this embodiment, as described above, the road shape is divided into areas (ranges) in which the road shape can be linearly approximated to set the road detection section, and a histogram is configured for each road detection section. Therefore, a white line detection reference line is also set for each runway detection section. For example, in FIG. 5, an area 51 in which linear approximation is possible is set as a runway detection section 52, and a white line detection reference line 53 perpendicular to the runway shape is set for the runway detection section 52. In FIG. 6, white line detection reference lines 66, 67, and 68 that are perpendicular to the approximated curve are set for each of the travel path detection sections 63, 64, and 65. Similarly, in FIG. 7, white line detection reference lines 76, 77, and 78 that are perpendicular to the road shape line are set for each of the road detection sections 73, 74, and 75. Thereby, even when the vehicle passes through an area including a curve, a histogram is constructed in an area where straight line approximation is possible, so that accurate white line recognition can be performed.

ステップS109において、走路検出部9は、白線検出基準線に沿ってヒストグラムを生成する。走路検出部9は、図3に示すように走路特徴点FPを白線検出基準線(y軸)に沿ってカウントすることによってヒストグラムを生成する。ヒストグラムは、走路検出区間毎に生成され、それらを単一のヒストグラムとして統合する。統合する方法としては、単純に足し合わせればよい。   In step S109, the running path detection unit 9 generates a histogram along the white line detection reference line. The runway detection unit 9 generates a histogram by counting the runway feature points FP along the white line detection reference line (y-axis) as shown in FIG. A histogram is generated for each track detection section, and they are integrated as a single histogram. As a method of integration, simply add them together.

ステップS110において、走路検出部9は、走路境界である白線近似曲線を算出する。走路検出部9は、ヒストグラムのピーク(y座標)を検出し、ピーク毎に走路特徴点FPをグルーピングすることにより走路境界点群を抽出する。そして、各走路境界点群に対して道路モデル関数で表現される曲線をあてはめることによって白線近似曲線を算出する。このようにして走路境界である白線近似曲線が算出されると、本実施形態に係る走路検出処理は終了する。   In step S110, the road detection unit 9 calculates a white line approximate curve that is a road boundary. The runway detection unit 9 detects a peak (y coordinate) of the histogram, and extracts a runway boundary point group by grouping the runway feature points FP for each peak. Then, a white line approximate curve is calculated by fitting a curve expressed by a road model function to each runway boundary point group. When the white line approximate curve that is the road boundary is thus calculated, the road detection process according to the present embodiment ends.

[第1実施形態の効果]
以上、詳細に説明したように、本実施形態に係る走路検出装置及びその方法では、蓄積された複数の走路特徴点から推定された走路形状に基づいて走路検出区間を設定し、走路検出区間毎に走路特徴点間の連続性を判定して走路境界を検出する。これにより、道路の曲率等の走路形状に応じて適切な走路検出区間を設定できるので、車両が走行する道路がカーブしている場合等に道路上の白線の曲率が大きくなっても、正確に走路境界を検出することができる。
[Effect of the first embodiment]
As described above in detail, in the road detection device and the method thereof according to the present embodiment, the road detection section is set based on the road shape estimated from the plurality of accumulated road characteristic points, and each road detection section is set. Next, the continuity between runway feature points is determined to detect the runway boundary. As a result, it is possible to set an appropriate runway detection section according to the runway shape such as the road curvature, so even if the curvature of the white line on the road increases when the road on which the vehicle runs is curved, etc. Runway boundaries can be detected.

また、本実施形態に係る走路検出装置及びその方法では、走路特徴点の車幅方向の位置の度数に基づいて、走路特徴点間の連続性を判定する。これにより、走路境界をヒストグラム上のピークとして表現できるので、正確に走路境界を検出することができる。   Further, in the road detection device and the method thereof according to the present embodiment, the continuity between the road characteristic points is determined based on the frequency of the position of the road characteristic points in the vehicle width direction. Thereby, since the road boundary can be expressed as a peak on the histogram, the road boundary can be accurately detected.

さらに、本実施形態に係る走路検出装置及びその方法では、走路形状が直線に近似できる範囲に走路検出区間を設定する。これにより、車両が走行する道路がカーブしている場合等に道路上の白線の曲率が大きくなっても、走路検出区間毎にヒストグラムを生成することで、正確に走路境界を検出することができる。   Furthermore, in the road detection device and method according to the present embodiment, the road detection section is set in a range in which the road shape can be approximated to a straight line. As a result, even if the curvature of the white line on the road increases when the road on which the vehicle is traveling is curved, it is possible to accurately detect the road boundary by generating a histogram for each road detection section. .

また、本実施形態に係る走路検出装置及びその方法では、走路形状が曲線近似できる範囲に走路検出区間を設定する。これにより、走路形状が曲線であると推定できた範囲に走路検出区間を設定するので、曲線近似による曲率を参照して、適切に走路検出区間を設定することができる。   In the runway detection apparatus and method according to the present embodiment, the runway detection section is set in a range in which the runway shape can be approximated by a curve. Thereby, since the runway detection section is set in a range in which the runway shape can be estimated to be a curve, the runway detection section can be appropriately set with reference to the curvature by curve approximation.

さらに、本実施形態に係る走路検出装置及びその方法では、走路形状が地図データと一致する範囲に走路検出区間を設定する。これにより、地図データから走路形状を正確に推定できた範囲に走路検出区間を設定するので、道路の曲率や分岐、合流等の特徴を考慮して、適切に走路検出区間を設定することができる。   Furthermore, in the road detection apparatus and method according to the present embodiment, the road detection section is set in a range where the road shape matches the map data. As a result, the runway detection section is set in a range in which the runway shape can be accurately estimated from the map data. Therefore, the runway detection section can be appropriately set in consideration of features such as road curvature, branching, and merging. .

また、本実施形態に係る走路検出装置及びその方法では、自車両または他車両の走行軌跡に基づいて走路検出区間を設定する。これにより、以前に車両が走行したデータに基づいて走路検出区間を設定できるので、白線が途切れているような道路であっても適切に走路検出区間を設定することができる。   In the runway detection apparatus and method according to the present embodiment, the runway detection section is set based on the travel locus of the host vehicle or another vehicle. Thereby, since a runway detection section can be set based on the data on which the vehicle has traveled before, the runway detection section can be appropriately set even on a road where the white line is interrupted.

[第2実施形態]
[走路検出装置の構成]
図8は、本実施形態に係る走路検出装置の構成を示すブロック図である。図8に示すように、本実施形態に係る走路検出装置100は、レーンチェンジ検出部21をさらに備えたことが第1実施形態と相違している。ただし、その他の構成は、第1実施形態と同一であるため、詳細な説明は省略する。
[Second Embodiment]
[Configuration of runway detection device]
FIG. 8 is a block diagram showing the configuration of the runway detection apparatus according to this embodiment. As shown in FIG. 8, the runway detection device 100 according to the present embodiment is different from the first embodiment in that it further includes a lane change detection unit 21. However, since other configurations are the same as those of the first embodiment, detailed description thereof is omitted.

レーンチェンジ検出部21は、自車両のレーンチェンジを検出する。レーンチェンジ検出部21は、自車両の白線認識結果を車両座標系で確認し、左右いずれかの白線が車両中心を横切っている場合にはレーンチェンジが発生したと判定する。そして、レーンチェンジの発生時刻tLを記録する。 The lane change detection unit 21 detects a lane change of the host vehicle. The lane change detection unit 21 confirms the white line recognition result of the host vehicle in the vehicle coordinate system, and determines that a lane change has occurred when either the left or right white line crosses the vehicle center. Then, record the occurrence time t L of the lane change.

[走路検出処理の手順]
次に、本実施形態に係る走路検出装置100による走路検出処理の手順を図9のフローチャートを参照して説明する。図9に示すように、本実施形態に係る走路検出処理は、ステップS201が追加されたことが第1実施形態と相違しており、その他の処理は第1実施形態と同一であるため、詳細な説明は省略する。
[Procedure for runway detection processing]
Next, the procedure of the road detection process by the road detection device 100 according to the present embodiment will be described with reference to the flowchart of FIG. As shown in FIG. 9, the runway detection process according to this embodiment is different from the first embodiment in that step S201 is added, and the other processes are the same as those in the first embodiment. The detailed explanation is omitted.

ステップS105において走路形状が推定されると、ステップS201において、レーンチェンジ検出部21は、自車両がレーンチェンジを行ったか否かを判定し、レーンチェンジを検出した場合には、レーンチェンジの発生時刻tLを記録する。 When the runway shape is estimated in step S105, in step S201, the lane change detection unit 21 determines whether or not the host vehicle has made a lane change. t Record L.

この後、ステップS107において走路検出区間を設定する際に、走路検出部9は、レーンチェンジの発生時刻tLの前後1秒間を走路検出区間から排除する。これにより、自車両がレーンチェンジを行った場合に、自車両の走行軌跡が白線を跨いでいる区間を排除することができる。 Thereafter, when setting the lane detection section in step S107, runway detector 9 eliminates one second before and after the occurrence time t L of the lane change from the runway detection zone. Thereby, when the own vehicle performs a lane change, it is possible to eliminate a section where the traveling locus of the own vehicle straddles the white line.

[第2実施形態の効果]
以上、詳細に説明したように、本実施形態に係る走路検出装置及びその方法では、自車両がレーンチェンジを行った区間を走路検出区間から排除する。これにより、自車両がレーンチェンジを行った場合でも、レーンチェンジを行っていない場合と同様の処理で走路境界を正確に検出することができる。
[Effects of Second Embodiment]
As described above in detail, in the road detection device and method according to the present embodiment, the section in which the vehicle has made a lane change is excluded from the road detection section. As a result, even when the host vehicle makes a lane change, the road boundary can be accurately detected by the same processing as when the lane change is not made.

なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea of the present invention, it depends on the design and the like. Of course, various modifications are possible.

1、100 走路検出装置
3 物標検出部
5 車両移動量検出部
7 周囲地図生成部
9 走路検出部
11 車両
21 レーンチェンジ検出部
51 直線近似が可能なエリア
61、71 白線検出エリア
62、72 路肩部分
53、66、67、68、76、77、78 白線検出基準線
52、63、64、65、73、74、75 走路検出区間
DESCRIPTION OF SYMBOLS 1,100 Runway detection apparatus 3 Target detection part 5 Vehicle movement amount detection part 7 Surrounding map generation part 9 Runway detection part 11 Vehicle 21 Lane change detection part 51 Area 61, 71 White line detection area 62, 72 Road shoulder Portions 53, 66, 67, 68, 76, 77, 78 White line detection reference line 52, 63, 64, 65, 73, 74, 75 Runway detection section

Claims (7)

車両に搭載されたセンサを用いて検出された複数の走路特徴点を、前記車両の移動量に基づいて蓄積し、前記蓄積された複数の走路特徴点から走路境界を検出する走路検出回路を用いた走路検出方法であって、
前記走路検出回路は、
前記蓄積された複数の走路特徴点から推定された走路形状に基づいて走路検出区間を設定し、前記走路検出区間毎に前記走路特徴点間の連続性を判定して前記走路境界を検出することを特徴とする走路検出方法。
Using a road detection circuit that accumulates a plurality of road feature points detected using a sensor mounted on a vehicle based on the amount of movement of the vehicle and detects a road boundary from the plurality of accumulated road feature points A runway detection method,
The runway detection circuit is
Setting a runway detection section based on the runway shape estimated from the accumulated runway feature points, and detecting the runway boundary by determining continuity between the runway feature points for each runway detection section. A method for detecting a runway.
前記走路検出回路は、前記走路特徴点の車幅方向の位置の度数に基づいて、前記走路特徴点間の連続性を判定することを特徴とする請求項1に記載の走路検出方法。   2. The road detection method according to claim 1, wherein the road detection circuit determines continuity between the road characteristic points based on a frequency of a position in the vehicle width direction of the road characteristic points. 前記走路検出回路は、前記走路形状が直線に近似できる範囲に前記走路検出区間を設定することを特徴とする請求項1または2に記載の走路検出方法。   The said road detection circuit sets the said road detection area in the range which can approximate the said road shape to a straight line, The road detection method of Claim 1 or 2 characterized by the above-mentioned. 前記走路検出回路は、前記走路形状が曲線近似できる範囲に前記走路検出区間を設定することを特徴とする請求項1〜3のいずれか1項に記載の走路検出方法。   The said road detection circuit sets the said road detection area in the range which the said road shape can carry out curve approximation, The road detection method of any one of Claims 1-3 characterized by the above-mentioned. 前記走路検出回路は、前記走路形状が地図データと一致する範囲に前記走路検出区間を設定することを特徴とする請求項1〜4のいずれか1項に記載の走路検出方法。   The runway detection method according to any one of claims 1 to 4, wherein the runway detection circuit sets the runway detection section in a range in which the runway shape coincides with map data. 前記走路検出回路は、前記車両または他車両の走行軌跡に基づいて前記走路検出区間を設定することを特徴とする請求項1〜5のいずれか1項に記載の走路検出方法。   6. The road detection method according to claim 1, wherein the road detection circuit sets the road detection section based on a travel locus of the vehicle or another vehicle. 車両に搭載されたセンサを用いて検出された複数の走路特徴点を、前記車両の移動量に基づいて蓄積し、前記蓄積された複数の走路特徴点から走路境界を検出する走路検出装置であって、
前記蓄積された複数の走路特徴点から推定された走路形状に基づいて走路検出区間を設定し、前記走路検出区間毎に前記走路特徴点間の連続性を判定して前記走路境界を検出する走路検出回路を備えたことを特徴とする走路検出装置。
A travel path detection device that accumulates a plurality of runway feature points detected using a sensor mounted on a vehicle based on a movement amount of the vehicle and detects a runway boundary from the accumulated plurality of runway feature points. And
A runway detection section is set based on a runway shape estimated from the accumulated plurality of runway feature points, and a runway boundary is detected by determining continuity between the runway feature points for each runway detection section. A runway detection device comprising a detection circuit.
JP2016187926A 2016-09-27 2016-09-27 Track detection method and track detection device Active JP7024176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016187926A JP7024176B2 (en) 2016-09-27 2016-09-27 Track detection method and track detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016187926A JP7024176B2 (en) 2016-09-27 2016-09-27 Track detection method and track detection device

Publications (2)

Publication Number Publication Date
JP2018055222A true JP2018055222A (en) 2018-04-05
JP7024176B2 JP7024176B2 (en) 2022-02-24

Family

ID=61835837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016187926A Active JP7024176B2 (en) 2016-09-27 2016-09-27 Track detection method and track detection device

Country Status (1)

Country Link
JP (1) JP7024176B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017199A (en) * 2018-07-27 2020-01-30 パイオニア株式会社 Information processing device
JP2020064611A (en) * 2018-10-17 2020-04-23 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Autonomous driving using standard navigation map and lane configuration determined based on past trajectory of vehicle
JPWO2021106030A1 (en) * 2019-11-25 2021-06-03
WO2023176617A1 (en) * 2022-03-14 2023-09-21 パイオニア株式会社 Position estimation device, position estimation method, and program
KR102727678B1 (en) * 2023-10-18 2024-11-07 한국전자기술연구원 Apparatus and method for generating 3d wall modeling data from point cloud

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100000A (en) * 2003-09-24 2005-04-14 Aisin Seiki Co Ltd Road surface travel lane detection device
JP2013134609A (en) * 2011-12-26 2013-07-08 Toyota Central R&D Labs Inc Curbstone detection device and curbstone detection program
JP2014229067A (en) * 2013-05-22 2014-12-08 株式会社デンソー Crash buffer
JP2015045622A (en) * 2013-08-29 2015-03-12 株式会社デンソー Road feature recognition method, road feature recognition apparatus, program, and recording medium
JP2015075423A (en) * 2013-10-10 2015-04-20 株式会社デンソー Map data-rewriting apparatus and map data-rewriting program
JP2015149029A (en) * 2014-02-07 2015-08-20 トヨタ自動車株式会社 lane boundary detection apparatus
JP2016043837A (en) * 2014-08-25 2016-04-04 株式会社日本自動車部品総合研究所 Road shape recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100000A (en) * 2003-09-24 2005-04-14 Aisin Seiki Co Ltd Road surface travel lane detection device
JP2013134609A (en) * 2011-12-26 2013-07-08 Toyota Central R&D Labs Inc Curbstone detection device and curbstone detection program
JP2014229067A (en) * 2013-05-22 2014-12-08 株式会社デンソー Crash buffer
JP2015045622A (en) * 2013-08-29 2015-03-12 株式会社デンソー Road feature recognition method, road feature recognition apparatus, program, and recording medium
JP2015075423A (en) * 2013-10-10 2015-04-20 株式会社デンソー Map data-rewriting apparatus and map data-rewriting program
JP2015149029A (en) * 2014-02-07 2015-08-20 トヨタ自動車株式会社 lane boundary detection apparatus
JP2016043837A (en) * 2014-08-25 2016-04-04 株式会社日本自動車部品総合研究所 Road shape recognition device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017199A (en) * 2018-07-27 2020-01-30 パイオニア株式会社 Information processing device
JP2020064611A (en) * 2018-10-17 2020-04-23 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Autonomous driving using standard navigation map and lane configuration determined based on past trajectory of vehicle
US11073831B2 (en) 2018-10-17 2021-07-27 Baidu Usa Llc Autonomous driving using a standard navigation map and lane configuration determined based on prior trajectories of vehicles
JP7141370B2 (en) 2018-10-17 2022-09-22 バイドゥ ユーエスエイ エルエルシー Autonomous driving with lane configuration determined based on standard navigation maps and vehicle history
JPWO2021106030A1 (en) * 2019-11-25 2021-06-03
WO2021106030A1 (en) * 2019-11-25 2021-06-03 三菱電機株式会社 Obstacle detection device
JP7224491B2 (en) 2019-11-25 2023-02-17 三菱電機株式会社 Obstacle detector
WO2023176617A1 (en) * 2022-03-14 2023-09-21 パイオニア株式会社 Position estimation device, position estimation method, and program
KR102727678B1 (en) * 2023-10-18 2024-11-07 한국전자기술연구원 Apparatus and method for generating 3d wall modeling data from point cloud

Also Published As

Publication number Publication date
JP7024176B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
CN111060946B (en) Method and apparatus for estimating position
JP7024176B2 (en) Track detection method and track detection device
JP6658868B2 (en) Runway detection method and runway detection device
JP6617828B2 (en) Runway detection method and runway detection device
JP2020067698A (en) Partition line detector and partition line detection method
JP6838365B2 (en) Self-position estimation method and self-position estimation device
JP2012159469A (en) Vehicle image recognition device
JP2016018371A (en) On-vehicle system, information processing apparatus, and program
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP7025293B2 (en) Vehicle position estimation device
JP5974923B2 (en) Road edge detection system, method and program
JP4116116B2 (en) Ranging origin recognition device for moving objects
JP2018036075A (en) Own vehicle position specification device and own vehicle position specification method
CN109344677B (en) Method, device, vehicle and storage medium for recognizing three-dimensional object
JP6295524B2 (en) Optical axis correction device
JP5472928B2 (en) Object detection apparatus and method
JP2020076714A (en) Position attitude estimation device
JP6143176B2 (en) Stop line detection device, moving body control device, and stop line detection program
JP6451544B2 (en) Road boundary detection device, self-position estimation device, and road boundary detection method
JP7334489B2 (en) Position estimation device and computer program
US20230394679A1 (en) Method for measuring the speed of a vehicle
Zhenhai et al. Study lane curvature estimation algorithm based on radar
JP2022151005A (en) Driving road identification device, driving road identification method, and computer program for driving road identification
CN117764817A (en) Method, apparatus and medium for processing projection ambiguity in Frenet coordinate system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R151 Written notification of patent or utility model registration

Ref document number: 7024176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151