JPH08315125A - Recognition device for travel path section line for vehicle or the like - Google Patents

Recognition device for travel path section line for vehicle or the like

Info

Publication number
JPH08315125A
JPH08315125A JP7138725A JP13872595A JPH08315125A JP H08315125 A JPH08315125 A JP H08315125A JP 7138725 A JP7138725 A JP 7138725A JP 13872595 A JP13872595 A JP 13872595A JP H08315125 A JPH08315125 A JP H08315125A
Authority
JP
Japan
Prior art keywords
road
vehicle
road structure
line
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7138725A
Other languages
Japanese (ja)
Other versions
JP3538476B2 (en
Inventor
Kiyozumi Uura
清純 鵜浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP13872595A priority Critical patent/JP3538476B2/en
Publication of JPH08315125A publication Critical patent/JPH08315125A/en
Application granted granted Critical
Publication of JP3538476B2 publication Critical patent/JP3538476B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE: To accurately recognize a travel path section line by comparing an extracted segment with road structure models and selecting a road structure model which meets specific matching conditions, selecting a segment which matches with the road structure model, and approximating feature points for every travel section line and generating a section line. CONSTITUTION: A CCD camera 10 picks up the image of a road where the vehicle is traveling and outputs the original image to hardware 30. The hardware 30 scans the input image under the command of a CPU 36 to detect edge points and obtain an edge image, and them perform Hough transformation to detect straight line components. A CPU 36 divides the detected straight lines at their intersections into segments, judges how much the segments match with the edge image, and also judges whether each segment is a broken line or continuous line. Segments which satisfy the certain degree of matching are outputted as travel path section line candidate data together with a corresponding edge dot array in one group and sent to a memory 34 for communication. Namely, a CPU 38 reads out image results which are stored at every specific time and estimates a travel path section line.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は車両の走行路区分線な
どの認識装置に関し、具体的には自動運転車あるいは走
行路逸脱警報装置を備える自動車の走行路区分線ないし
は道路構造を認識する装置に関し、より具体的には道路
上の走行路(車線ないしレーン)を示す走行路区分線を
車内に備えたカメラで撮像し、その画像処理結果に基づ
いて走行路区分線ないしは道路構造を認識するものに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for recognizing a lane marking of a vehicle, and more specifically, a device for recognizing a lane marking or a road structure of an autonomous vehicle or a vehicle equipped with a lane departure warning device. More specifically, regarding a roadway lane (lane or lane) indicating a roadway on a road, an image is taken by a camera provided inside the vehicle, and the roadway lane marking or road structure is recognized based on the image processing result. Regarding things.

【0002】[0002]

【従来の技術】このような車両の走行路区分線などの認
識装置としては、特開昭62−139011号公報に示
されるように、走行路区分線(通例白線で示される)の
長手方向に複数個の点を選定し、その選定された画像中
の複数個の点を実際の位置に射影変換した後に、その射
影変換された各点を滑らかに通る近似関数を求め、その
関数曲線を走行路区分線とみなす技術が提案されてい
る。
2. Description of the Related Art As a device for recognizing such a vehicle lane dividing line, as disclosed in Japanese Patent Laid-Open No. 62-139011, a vehicle lane dividing line (usually indicated by a white line) is formed in the longitudinal direction. After selecting multiple points, projectively transforming multiple points in the selected image to actual positions, find an approximate function that smoothly passes through each of the projective transformed points, and run the function curve A technology to consider it as a road marking line has been proposed.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、道路上
に平行な複数の走行路区分線がある場合、上記従来技術
の教示するところに従って各走行路区分線ごとの点列に
対して個別に近似関数を求めると、それぞれの関数曲線
は平行になるとは限らない。
However, when there are a plurality of parallel running road lane markings on the road, the approximation function is individually applied to the point sequence for each running road lane marking according to the teaching of the above-mentioned prior art. , The function curves are not always parallel.

【0004】これは、主にカメラの光学系の歪みや車両
の振動などにより、射影変換された点列の位置に誤差が
あるためである。このため、上記した従来技術において
は、本来的には互いに平行であるはずの走行路区分線が
平行でないように検出される不都合があった。
This is because there is an error in the position of the projective-converted point sequence, mainly due to distortion of the optical system of the camera, vibration of the vehicle, and the like. Therefore, in the above-mentioned conventional technique, there is a disadvantage that the road dividing lines that should originally be parallel to each other are detected not to be parallel.

【0005】従って、この発明の目的は上記した問題点
を解決し、道路上に平行な複数の走行路区分線がある場
合でも、カメラの光学系の歪みや車両の振動などの影響
を受けることなく、正確に走行路区分線を認識できるよ
うにした車両の走行路区分線認識装置を提供することに
ある。
Therefore, the object of the present invention is to solve the above-mentioned problems and to be affected by the distortion of the optical system of the camera, the vibration of the vehicle, etc. even when there are a plurality of parallel lane markings on the road. It is another object of the present invention to provide a vehicle lane marking line recognition device capable of accurately recognizing a lane marking line.

【0006】更には、道路上に平行な複数の走行路区分
線がある場合でも、カメラの光学系の歪みや車両の振動
などの影響を受けることなく、正確に走行中の道路構造
を認識できるようにした車両の道路構造認識装置を提供
することにある。
Further, even when there are a plurality of parallel running road lane markings on the road, it is possible to accurately recognize the running road structure without being affected by the distortion of the optical system of the camera or the vibration of the vehicle. An object of the present invention is to provide a road structure recognition device for a vehicle.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに、この発明に係る車両の走行路区分線認識装置は、
請求項1項において、車両に取り付けられた撮像手段に
より撮像された、前記車両の走行路面を含む画像から所
定の特徴点を抽出し、それに基づいて走行路区分線に相
当する複数の線分を抽出する画像処理手段と、前記走行
路区分線の幾何学的関係を表現した、複数の道路構造モ
デルを記憶する道路構造モデル記憶手段と、前記抽出さ
れた複数の線分と前記複数の道路構造モデルとを比較
し、所定のマッチング条件を満たす道路構造モデルを選
択するモデル選択手段と、前記抽出された複数の線分の
中から、前記選択された道路構造モデルとマッチングし
ている線分を選択する線分選択手段と、および前記選択
された線分に対応する前記特徴点を、前記複数の走行路
区分線ごとに、走行路面上において実質的に平行となる
関数曲線または直線で近似して走行路区分線とする近似
手段と、からなる如く構成した。
In order to achieve the above-mentioned object, a traveling road lane marking recognition device according to the present invention comprises:
In Claim 1, a predetermined characteristic point is extracted from the image containing the traveling road surface of the vehicle imaged by the imaging means attached to the vehicle, and a plurality of line segments corresponding to the traveling road lane markings are extracted based on the extracted characteristic points. An image processing unit for extracting, a road structure model storing unit for storing a plurality of road structure models expressing a geometrical relationship between the traveling road lane markings, the plurality of extracted line segments and the plurality of road structures. A model selection unit that compares a model and a road structure model that satisfies a predetermined matching condition and a line segment that matches the selected road structure model from the extracted plurality of line segments. A function curve or a straight line on which the line segment selecting means to be selected and the characteristic points corresponding to the selected line segment are substantially parallel on the road surface for each of the plurality of road dividing lines. An approximate means for the roadway marking lines by approximating, was constructed as consisting of.

【0008】請求項2項にあっては、前記道路構造モデ
ルは節点および弧からなるグラフ形式のデータとして前
記道路構造モデル記憶手段に記憶され、そこにおいて1
個の節点は1個の走行路区分線に対応すると共に、少な
くとも「実線、破線」の区別を示す線分属性値を持ち、
1個の弧は2個の節点間の関係を示し、該関係は少なく
とも「平行関係、接続関係」を含むものである如く構成
した。
According to a second aspect of the present invention, the road structure model is stored in the road structure model storage means as data in the form of a graph consisting of nodes and arcs, and 1 is stored therein.
Each node corresponds to one lane dividing line, and has at least a line segment attribute value indicating the distinction between "solid line and broken line",
One arc represents a relationship between two nodes, and the relationship is configured to include at least "parallel relationship, connection relationship".

【0009】請求項3項にあっては、車両に取り付けら
れた撮像手段により撮像された、前記車両の走行路面を
含む画像に基づいて走行路区分線の存在位置を示す複数
の点を検出する画像処理手段と、前記検出された複数の
点を近似する所定の関数曲線または直線を求める近似手
段と、を含み、前記近似手段によって求められた関数曲
線または直線を走行路区分線として認識する走行路区分
線認識装置であって、前記近似手段は、走行路区分線が
複数である場合は、各走行路区分線に対応する前記複数
の点を前記走行路面を含む平面において互いに平行な関
数で近似する如く構成した。
According to a third aspect of the present invention, a plurality of points indicating the existing positions of the lane markings are detected on the basis of an image including the traveling road surface of the vehicle, which is picked up by the image pickup means attached to the vehicle. Travel including image processing means and approximation means for obtaining a predetermined function curve or straight line approximating the detected plurality of points, and recognizing the function curve or straight line obtained by the approximation means as a travel road division line In the road lane marking recognition device, the approximating means, when there are a plurality of road lane markings, the plurality of points corresponding to the respective road lane markings are functions parallel to each other in a plane including the road lane. It was configured to approximate.

【0010】請求項4項に係る車両の道路構造認識装置
にあっては、車両に取り付けられた撮像手段により撮像
された、前記車両の走行路面を含む画像から所定の特徴
点を抽出し、それに基づいて走行路区分線に相当する複
数の線分を抽出する画像処理手段と、複数の線分の幾何
学的関係で表現され、少なくとも走行路ないし車線の数
および自車が走行する走行路ないし車線の位置によって
区別される複数の道路構造モデルを記憶する道路構造モ
デル記憶手段と、前記抽出された複数の線分と前記複数
の道路構造モデルとを比較し、所定のルールに従って抽
出線分と各モデルのマッチング評価値を求めるマッチン
グ評価値算出手段と、前記複数の道路構造モデルのうち
全てまたは一部のモデルについて前記マッチング評価値
の現在から過去所定時間分の履歴を記憶する履歴記憶手
段と、および前記マッチング評価値の履歴に基づいて1
つの道路構造モデルを選択するモデル選択手段と、から
なる如く構成した。
According to a fourth aspect of the present invention, there is provided a road structure recognizing device for a vehicle, wherein predetermined feature points are extracted from an image including a traveling road surface of the vehicle which is imaged by an image pickup means attached to the vehicle, and An image processing means for extracting a plurality of line segments corresponding to the running road lane markings based on a geometrical relationship between the plurality of line segments, and at least the number of running roads or lanes and the running road on which the vehicle travels. Road structure model storage means for storing a plurality of road structure models distinguished by the position of the lane, and the plurality of extracted line segments and the plurality of road structure models are compared, and the extracted line segments are extracted according to a predetermined rule. Matching evaluation value calculation means for obtaining the matching evaluation value of each model, and the present to past locations of the matching evaluation values for all or some of the plurality of road structure models A history storage means for storing a history of the time duration, and based on the history of the matching evaluation value 1
And a model selection means for selecting one road structure model.

【0011】請求項5項にあっては、前記モデル選択手
段は、前記マッチング評価値の履歴に対して平滑化を施
した結果に基づいて1つの道路構造モデルを選択する如
く構成した。
According to a fifth aspect of the present invention, the model selecting means selects one road structure model based on a result of smoothing the history of the matching evaluation values.

【0012】[0012]

【作用】請求項1項においては、車両に取り付けられた
撮像手段により撮像された、前記車両の走行路面を含む
画像から所定の特徴点を抽出し、それに基づいて走行路
区分線に相当する複数の線分を抽出する画像処理手段
と、前記走行路区分線の幾何学的関係を表現した、複数
の道路構造モデルを記憶する道路構造モデル記憶手段
と、前記抽出された複数の線分と前記複数の道路構造モ
デルとを比較し、所定のマッチング条件を満たす道路構
造モデルを選択するモデル選択手段と、前記抽出された
複数の線分の中から、前記選択された道路構造モデルと
マッチングしている線分を選択する線分選択手段と、お
よび前記選択された線分に対応する前記特徴点を、前記
複数の走行路区分線ごとに、走行路面上において実質的
に平行となる関数曲線または直線で近似して走行路区分
線とする近似手段と、からなる如く構成したので、道路
上に平行な複数の走行路区分線がある場合でも、カメラ
の光学系の歪みや車両の振動などの影響を受けることな
く、正確に走行路区分線を認識することができる。
According to the first aspect of the present invention, predetermined characteristic points are extracted from the image including the traveling road surface of the vehicle imaged by the image pickup means attached to the vehicle, and a plurality of characteristic points corresponding to the traveling road lane markings are extracted based on the extracted characteristic points. Image processing means for extracting line segments, a road structure model storage means for storing a plurality of road structure models expressing a geometrical relationship between the traveling road lane markings, the extracted line segments and the A model selecting unit that compares a plurality of road structure models and selects a road structure model that satisfies a predetermined matching condition, and matches the selected road structure model from the plurality of extracted line segments. A line segment selecting means for selecting a line segment that is present, and the characteristic points corresponding to the selected line segment, for each of the plurality of travel road division lines, are substantially parallel to each other on the travel road surface. Or an approximation means for approximating with a straight line to form a road dividing line, even if there are a plurality of parallel road dividing lines on the road, distortion of the optical system of the camera or vibration of the vehicle It is possible to accurately recognize the lane markings without being affected by the above.

【0013】尚、上記で「特徴点」とは、画像のエッジ
点や特定のテクスチャを持つ点ないし場所を、「幾何学
的関係を表現した、複数の道路構造モデル」とは走行路
ないし車線の数などの道路構造を表現したモデルを意味
する。
In the above description, "feature points" means edge points of an image or points or places having a specific texture, and "plurality of road structure models expressing geometrical relations" means running roads or lanes. It means a model expressing the road structure such as the number of.

【0014】請求項2項にあっては、前記道路構造モデ
ルは節点および弧からなるグラフ形式のデータとして前
記道路構造モデル記憶手段に記憶され、そこにおいて1
個の節点は1個の走行路区分線に対応すると共に、少な
くとも「実線、破線」の区別を示す線分属性値を持ち、
1個の弧は2個の節点間の関係を示し、該関係は少なく
とも「平行関係、接続関係」を含むものである如く構成
したので、請求項1項で述べた作用効果に加えて、道路
構造モデルと抽出された線分とのマッチングをグラフ理
論におけるマッチング問題に帰着させて解くことがで
き、マッチングしているか否かを正確に求めることがで
きる。
According to a second aspect of the present invention, the road structure model is stored in the road structure model storage means as data in a graph format including nodes and arcs, and 1 is stored therein.
Each node corresponds to one lane dividing line, and has at least a line segment attribute value indicating the distinction between "solid line and broken line",
One arc represents a relationship between two nodes, and the relationship is configured to include at least "parallel relationship, connection relationship". Therefore, in addition to the action and effect described in claim 1, the road structure model The matching between the extracted line segment and the extracted line segment can be solved by reducing it to the matching problem in the graph theory, and the matching can be accurately obtained.

【0015】請求項3項にあっては、車両に取り付けら
れた撮像手段により撮像された、前記車両の走行路面を
含む画像に基づいて走行路区分線の存在位置を示す複数
の点を検出する画像処理手段と、前記検出された複数の
点を近似する所定の関数曲線または直線を求める近似手
段と、を含み、前記近似手段によって求められた関数曲
線または直線を走行路区分線として認識する走行路区分
線認識装置であって、前記近似手段は、走行路区分線が
複数である場合は、各走行路区分線に対応する前記複数
の点を前記走行路面を含む平面において互いに平行な関
数で近似する如く構成したので、道路上に平行な複数の
走行路区分線がある場合でも、カメラの光学系の歪みや
車両の振動などの影響を受けることなく、正確に走行路
区分線を認識することができる。
According to a third aspect of the present invention, a plurality of points indicating the existing positions of the lane markings are detected on the basis of an image including the traveling road surface of the vehicle, which is imaged by the image pickup means attached to the vehicle. Travel including image processing means and approximation means for obtaining a predetermined function curve or straight line approximating the detected plurality of points, and recognizing the function curve or straight line obtained by the approximation means as a travel road division line In the road lane marking recognition device, the approximating means, when there are a plurality of road lane markings, the plurality of points corresponding to the respective road lane markings are functions parallel to each other in a plane including the road lane. Since it is configured to approximate, even if there are a plurality of parallel road dividing lines on the road, the road dividing lines can be recognized accurately without being affected by the distortion of the camera optical system or the vibration of the vehicle. Door can be.

【0016】請求項4項に係る車両の道路構造認識装置
にあっては、車両に取り付けられた撮像手段により撮像
された、前記車両の走行路面を含む画像から所定の特徴
点を抽出し、それに基づいて走行路区分線に相当する複
数の線分を抽出する画像処理手段と、複数の線分の幾何
学的関係で表現され、少なくとも走行路ないし車線の数
および自車が走行する走行路ないし車線の位置によって
区別される複数の道路構造モデルを記憶する道路構造モ
デル記憶手段と、前記抽出された複数の線分と前記複数
の道路構造モデルとを比較し、所定のルールに従って抽
出線分と各モデルのマッチング評価値を求めるマッチン
グ評価値算出手段と、前記複数の道路構造モデルのうち
全てまたは一部のモデルについて前記マッチング評価値
の現在から過去所定時間分の履歴を記憶する履歴記憶手
段と、および前記マッチング評価値の履歴に基づいて1
つの道路構造モデルを選択するモデル選択手段と、から
なる如く構成したので、道路上に平行な複数の走行路区
分線がある場合でも、カメラの光学系の歪みや車両の振
動などの影響を受けることなく、正確に走行中の道路構
造を認識することができる。
In the vehicle road structure recognizing device according to the fourth aspect, a predetermined feature point is extracted from an image including the traveling road surface of the vehicle, which is imaged by the image pickup means attached to the vehicle, and An image processing means for extracting a plurality of line segments corresponding to the running road lane markings based on a geometrical relationship between the plurality of line segments, and at least the number of running roads or lanes and the running road on which the vehicle travels. Road structure model storage means for storing a plurality of road structure models distinguished by the position of the lane, and the plurality of extracted line segments and the plurality of road structure models are compared, and the extracted line segments are extracted according to a predetermined rule. Matching evaluation value calculation means for obtaining the matching evaluation value of each model, and the present to past locations of the matching evaluation values for all or some of the plurality of road structure models A history storage means for storing a history of the time duration, and based on the history of the matching evaluation value 1
Since it is composed of a model selection means for selecting one road structure model, even if there are a plurality of parallel road dividing lines on the road, it is affected by distortion of the optical system of the camera and vibration of the vehicle. Without it, it is possible to accurately recognize the road structure on which the vehicle is traveling.

【0017】請求項5項にあっては、前記モデル選択手
段は、前記マッチング評価値の履歴に対して平滑化を施
した結果に基づいて1つの道路構造モデルを選択する如
く構成したので、前記した効果に加えて、一層正確に走
行中の道路構造を認識することができる。
According to a fifth aspect of the present invention, the model selecting means is configured to select one road structure model based on the result of smoothing the history of the matching evaluation values. In addition to the effect described above, it is possible to more accurately recognize the road structure during traveling.

【0018】[0018]

【実施例】以下、添付図面に即してこの発明の実施例を
説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0019】図1はこの発明に係る走行路区分線などの
認識装置を備えた車両を全体的に示す説明透視図であ
る。
FIG. 1 is an explanatory perspective view generally showing a vehicle equipped with a recognition device for lane markings according to the present invention.

【0020】図において、車両は、前記した撮像手段た
るCCDカメラ(モノクロTVカメラ)10を1基備え
る。CCDカメラ10は運転席上方のルームミラー取り
付け位置に固定され、車両進行方向を単眼視する。符号
12はミリ波レーダからなるレーダユニットを示し、車
両前方に取り付けられた2基の前方レーダからなり、反
射波を通じて他車などの立体障害物の存在を検出する。
車両室内の中央部付近にはヨーレートセンサ14が設け
られ、車両の鉛直軸(z軸)回りの角加速度を検出す
る。
In the figure, the vehicle is equipped with one CCD camera (monochrome TV camera) 10 as the above-mentioned image pickup means. The CCD camera 10 is fixed to the rear-view mirror mounting position above the driver's seat, and allows a monocular view of the vehicle traveling direction. Reference numeral 12 denotes a radar unit including a millimeter wave radar, which includes two front radars mounted in front of the vehicle, and detects the presence of a three-dimensional obstacle such as another vehicle through reflected waves.
A yaw rate sensor 14 is provided near the center of the vehicle compartment to detect angular acceleration about the vertical axis (z axis) of the vehicle.

【0021】更に、車両のドライブシャフト(図示せ
ず)の付近にはリードスイッチからなる車速センサ16
が設けられ、車両の進行速度を検出すると共に、舵角セ
ンサ18が車両のステアリングシャフト20の付近に設
けられてステアリング舵角を検出する。
Further, a vehicle speed sensor 16 including a reed switch is provided near a drive shaft (not shown) of the vehicle.
Is provided to detect the traveling speed of the vehicle, and the steering angle sensor 18 is provided near the steering shaft 20 of the vehicle to detect the steering steering angle.

【0022】また、該ステアリングシャフト20には舵
角制御モータ22が取り付けられると共に、スロットル
弁(図示せず)にはパルスモータからなるスロットルア
クチュエータ24が取り付けられ、更にブレーキ(図示
せず)にはブレーキ圧力アクチュエータ26(図1で図
示省略)が取り付けられる。この構成において、車両は
算出された舵角制御量に応じて舵角制御されると共に、
スロットル弁が開閉されて車速が調節され、また必要に
応じてブレーキが作動させられて走行する。
A steering angle control motor 22 is attached to the steering shaft 20, a throttle actuator 24 composed of a pulse motor is attached to a throttle valve (not shown), and a brake (not shown) is further provided. A brake pressure actuator 26 (not shown in Figure 1) is attached. In this configuration, the vehicle is steered in accordance with the calculated steering angle control amount,
The throttle valve is opened and closed to adjust the vehicle speed, and the brakes are activated as necessary to drive the vehicle.

【0023】図2は上記の構成をより詳細に示すブロッ
ク図である。CCDカメラ10の出力は画像処理ハード
ウェア30に送られ、そこで画像処理CPU36の指示
の下にエッジ点の検出とハフ(Hough)変換により
直線成分の抽出が行われ、その結果はバス32を介して
通信用メモリ34にストアされる。ここで「エッジ点」
とは周知の如く、一般に画像中で画素濃度が周囲と比べ
て大きく変化する点を意味し、入力画像に対して微分に
相当する処理を行って微分相当値(絶対値)がある程度
大きい点をエッジ点とする。画像処理CPU36は、所
定時刻ごとにストア値を読み出して走行路区分線を決定
する。
FIG. 2 is a block diagram showing the above structure in more detail. The output of the CCD camera 10 is sent to the image processing hardware 30, where the linear components are extracted by the detection of edge points and the Hough transform under the instruction of the image processing CPU 36, and the result is passed through the bus 32. Stored in the communication memory 34. Where "edge point"
As is well known, generally means a point in the image where the pixel density greatly changes compared to the surroundings, and a process corresponding to differentiation is performed on the input image to indicate that the differentiation equivalent value (absolute value) is large to some extent. Set as an edge point. The image processing CPU 36 reads the stored value at every predetermined time and determines the travel road lane marking.

【0024】他方、レーダユニット12の出力はレーダ
処理回路40およびバス32を介して通信用メモリ34
にストアされる。レーダ評価CPU42は所定時刻ごと
にストア値を読み出して障害物の位置を座標上で検出す
る。また車速センサ16などの出力は軌跡推定CPU4
4に送られて自車両の移動軌跡が推定される。行動計画
意思決定CPU50は前記ストア値から目標経路を作成
する。その目標経路と推定された自車の移動軌跡は軌跡
追従制御CPU46に送られ、そこで軌跡(目標経路)
追従制御量が決定される。
On the other hand, the output of the radar unit 12 is transmitted via the radar processing circuit 40 and the bus 32 to the communication memory 34.
Will be stored in. The radar evaluation CPU 42 reads the stored value at every predetermined time and detects the position of the obstacle on the coordinates. The outputs of the vehicle speed sensor 16 and the like are output from the trajectory estimation CPU 4
4 and the movement locus of the own vehicle is estimated. The action plan decision making CPU 50 creates a target route from the store value. The locus of movement of the vehicle estimated as the target route is sent to the locus tracking control CPU 46, where the locus (target route)
The tracking control amount is determined.

【0025】更に、軌跡追従制御CPU46は、舵角制
御量を算出して舵角制御CPU52に出力する。舵角制
御CPU52は、PWMコントローラ54およびドライ
バ56を介して前記舵角制御モータ22を駆動する。
尚、モータ駆動量はエンコーダ58を通じて検出され、
フィードバック制御が行われる。
Further, the trajectory tracking control CPU 46 calculates a steering angle control amount and outputs it to the steering angle control CPU 52. The steering angle control CPU 52 drives the steering angle control motor 22 via the PWM controller 54 and the driver 56.
The motor drive amount is detected by the encoder 58,
Feedback control is performed.

【0026】また行動計画意思決定CPU50はその速
度・追従制御部で車体の目標加速度を求め、車速制御C
PU60に送出する。車速制御CPU60はアクセルパ
ルスモータコントローラ62、ドライバ64を介してス
ロットルアクチュエータ24を駆動すると共に、ブレー
キソレノイドコントローラ66およびドライバ68を介
してブレーキ圧力アクチュエータ26を駆動する。その
駆動量は圧力センサ70を介して検出され、第2のフィ
ードバック制御が行われる。
Further, the action plan decision-making CPU 50 obtains the target acceleration of the vehicle body by its speed / following control unit, and the vehicle speed control C
It is sent to the PU 60. The vehicle speed control CPU 60 drives the throttle actuator 24 via the accelerator pulse motor controller 62 and the driver 64, and drives the brake pressure actuator 26 via the brake solenoid controller 66 and the driver 68. The driving amount is detected via the pressure sensor 70, and the second feedback control is performed.

【0027】尚、上記において図示の簡略化のため、波
形整形回路などセンサの処理回路は省いた。
In the above description, the processing circuit of the sensor such as the waveform shaping circuit is omitted for simplification of illustration.

【0028】図3は図2ブロック図を機能的に示すもの
である。図4は図2の画像処理ハードウェアの詳細構成
を示すブロック図である。図示の如く、画像処理ハード
ウェア30は具体的には、画像入力デジタイズハードウ
ェア30a、リアルタイムエッジ検出ハードウェア30
b、ハフ変換ハードウェア30cおよび画像データバス
コントローラ30dを備える。
FIG. 3 functionally shows the block diagram of FIG. FIG. 4 is a block diagram showing a detailed configuration of the image processing hardware of FIG. As shown in the figure, the image processing hardware 30 specifically includes the image input digitizing hardware 30a and the real-time edge detection hardware 30.
b, Hough conversion hardware 30c and image data bus controller 30d.

【0029】続いて、この出願に係る車両の走行路区分
線などの認識装置の動作を説明する。
Next, the operation of the device for recognizing the traveling road lane markings according to this application will be described.

【0030】図5はその動作を示すメイン・フロー・チ
ャート(PAD図(構造化フロー・チャート))である
が、同図の説明に入る前に、図6を参照してこの装置の
動作を概説する。図6はそれを機能的に説明するブロッ
ク図である。
FIG. 5 is a main flow chart (PAD diagram (structured flow chart)) showing the operation. Before the description of FIG. 5, the operation of this apparatus will be described with reference to FIG. Outline. FIG. 6 is a block diagram functionally explaining it.

【0031】前述の如く、CCDカメラ10は走行中の
道路を撮像し、よって得た原画像を画像処理ハードウェ
ア30に出力する。画像処理ハードウェア30では画像
処理CPU36の指示の下に入力画像をスキャンし、エ
ッジ点を検出してエッジ画像を得、次いでハフ変換して
直線成分を検出する。図7にそれらを示す。画像処理ハ
ードウェア30では検出値をバス32を介して通信用メ
モリ34にストアする。
As described above, the CCD camera 10 captures an image of a road on which the vehicle is running and outputs the original image thus obtained to the image processing hardware 30. The image processing hardware 30 scans the input image under the instruction of the image processing CPU 36, detects edge points to obtain edge images, and then performs Hough transform to detect linear components. They are shown in FIG. The image processing hardware 30 stores the detected value in the communication memory 34 via the bus 32.

【0032】画像処理CPU36はストア値を読み出
し、検出直線をそれらの交点で分割して線分にする。そ
して各線分についてエッジ画像との一致度を判定すると
共に、その線分が破線(道路に描かれた破線からなる走
行路区分線)であるか、連続線(道路に描かれた実線か
らなる走行路区分線)であるかの判定を行う。この判定
手法については、例えば本出願人が特開平3−1589
76号において提案したものを用いる。
The image processing CPU 36 reads the stored value and divides the detection straight line at the intersections thereof to form a line segment. Then, the degree of matching with the edge image is determined for each line segment, and whether the line segment is a broken line (a lane dividing line formed by a broken line drawn on the road) or a continuous line (a running line formed by a solid line drawn on the road) It is determined whether or not it is a road division line. Regarding this determination method, for example, the applicant of the present invention, Japanese Patent Laid-Open No. 3-1589
The one proposed in No. 76 is used.

【0033】そして一定の一致度を満たす線分につい
て、対応するエッジ点列データと組にして走行路区分線
候補データとして出力する。出力結果はバス32を介し
て通信用メモリ34に送られ、そこでストアされる。図
8に画像処理CPU36でのこれらの処理を示す。
Then, a line segment satisfying a certain degree of coincidence is paired with the corresponding edge point sequence data, and is output as traveling road lane line candidate data. The output result is sent to the communication memory 34 via the bus 32 and stored there. FIG. 8 shows these processes in the image processing CPU 36.

【0034】この発明に係る装置の動作は図2で言えば
画像評価CPU38によって行われ、その画像評価CP
U38は前述の如く、所定時刻ごとにストアされた画像
処理結果(走行路区分線候補データ)を読み出し、図6
に示す処理を行って、走行路区分線を推定(認識)す
る。
The operation of the apparatus according to the present invention is performed by the image evaluation CPU 38 in FIG.
As described above, U38 reads out the image processing result (running road lane marking candidate data) stored at every predetermined time, and
The processing shown in (1) is performed to estimate (recognize) the lane marking.

【0035】即ち、ストアされた値には走行路区分線と
関係のない線分が含まれていたり、必要な走行路区分線
が欠落している場合がある。またアルゴリズムや車体の
振動に起因するノイズ成分が、点列の位置誤差として含
まれる場合がある。画像評価CPU38はストア値から
正しい走行路区分線を抽出すると共に、走行路区分線の
真の位置を推定する。推定値は通信用メモリ34を介し
て画像処理CPU36にフィードバックされる。
In other words, the stored value may include a line segment that is not related to the travel road division line, or a necessary travel road division line may be missing. In addition, noise components due to the algorithm or the vibration of the vehicle body may be included as the position error of the point sequence. The image evaluation CPU 38 extracts a correct lane marking from the stored value and estimates the true position of the lane marking. The estimated value is fed back to the image processing CPU 36 via the communication memory 34.

【0036】ここで、画像評価CPU38は、併設され
たメモリ39内に図9のような道路構造モデル、図示例
の場合には1車線、2車線、3車線のモデルを予めデー
タとして格納(記憶)している。道路構造モデルはより
具体的には、走行路区分線(実線ないし破線)の要素を
節点(ノード)で、また節点間の関係を弧(リンク)で
表現したグラフの形で格納(記憶)される。
Here, the image evaluation CPU 38 previously stores (stores) a road structure model as shown in FIG. 9, a model of 1 lane, 2 lanes, and 3 lanes in the illustrated example, as data in a memory 39 provided side by side. )are doing. More specifically, the road structure model is stored (stored) in the form of a graph in which the elements of the road dividing line (solid line or broken line) are represented by nodes, and the relationship between the nodes is represented by arcs (links). It

【0037】画像評価CPU38は、読み出した走行路
区分線候補データ(画像処理結果)のうち、線分データ
を節点と弧からなる同様のグラフに変換(記号化)し
(以下このグラフを「入力グラフ」と言う)、モデルと
比較(マッチング判断)し、モデルとの一致度(マッチ
ング評価値)を算出する。
The image evaluation CPU 38 converts (symbolizes) the line segment data into a similar graph consisting of nodes and arcs from the read roadway division line candidate data (image processing result). (Referred to as "graph"), and compared with the model (matching judgment) to calculate the degree of matching with the model (matching evaluation value).

【0038】具体的には、グラフ理論を用いてモデルと
比較する。尚、1時刻のマッチング結果だけでは判断を
誤ることから、比較結果を評価値が高い順にマッチング
解として時系列に過去所定時間分(車速に応じて可変)
記憶する。
Specifically, the comparison is made with a model using graph theory. It should be noted that, since the judgment is erroneous only by the matching result at one time, the comparison results are set as matching solutions in descending order of evaluation value in time series for the past predetermined time (variable according to vehicle speed).
Remember.

【0039】記憶に際しては線分データと共に、点列デ
ータもモデルの種類別に分類して記憶する。ここで、種
類とは2車線、1車線などのモデルが備える車線(走行
路)数および自車走行車線(走行路)によって定められ
る。
When storing, the point sequence data is classified and stored according to the type of model together with the line segment data. Here, the type is defined by the number of lanes (lanes) provided in the model such as two lanes, one lane, and the own vehicle lane (lane).

【0040】尚、分類に際しては、新たに入力された点
列データと記憶されている過去の点列データ群(所定時
間分)との連続性を判定して行う。また分類に際して
は、新たに入力された点列データには運動軌跡による位
置補正、即ち、過去の点列データ群に原点を合わせる処
理を行う。
The classification is performed by determining the continuity between the newly input point sequence data and the stored past point sequence data group (for a predetermined time). Further, upon classification, the newly input point sequence data is subjected to position correction based on the motion trajectory, that is, the origin is aligned with the past point sequence data group.

【0041】続いてかく分類された時系列の各走行路区
分線候補について評価値(一致度の)を平滑化し、現在
時刻で最大となる評価値を有する候補を「最も確からし
い値」として選択する。次いで走行路区分線を示す点列
データ群を関数曲線(または直線)で近似する。
Subsequently, the evaluation value (of the degree of coincidence) is smoothed for each of the time-series lane markings thus classified, and the candidate having the maximum evaluation value at the current time is selected as the "most probable value". To do. Then, the point sequence data group indicating the lane markings is approximated by a function curve (or straight line).

【0042】より詳しくは、複数の走行路区分線を示す
点列データ群を平行な関数曲線(または直線)で近似す
る。そして近似して得られた走行路区分線データを点列
データとして出力する。出力するデータ量の多寡は、車
速に応じて相違する。
More specifically, a group of point data representing a plurality of lane markings are approximated by parallel function curves (or straight lines). Then, the traveling road lane marking data obtained by approximation is output as point sequence data. The amount of data to be output differs depending on the vehicle speed.

【0043】出願に係る装置を概説すると上記の如くに
なるが、以下図5フロー・チャートに戻って詳述する。
尚、図示のプログラムは所定時刻Tごとに起動される。
この明細書では後述の如く現在時刻をTnとする。
The apparatus according to the present application will be outlined as above, and will be described in detail below by returning to the flow chart of FIG.
The program shown in the figure is started every predetermined time T.
In this specification, the current time is Tn as described later.

【0044】先ずS10において道路画像から画像処理
により直線成分を検出した後、走行路区分線の候補とな
る線分およびエッジ点列を抽出し、その座標軸をカメラ
の焦点距離や取り付け位置などのいわゆるカメラパラメ
ータに基づいて、カメラ視点座標系から実平面座標系へ
と逆透視変換する。
First, in step S10, a straight line component is detected from the road image by image processing, and then a line segment and an edge point sequence which are candidates for the road dividing line are extracted, and their coordinate axes are so-called focal lengths and mounting positions of the camera. Inverse perspective transformation is performed from the camera viewpoint coordinate system to the real plane coordinate system based on the camera parameters.

【0045】ここで言う「実平面座標系」とは、自車両
を原点として路面平面に置いた2次元座標系である。こ
れらS10で行われる処理は本出願人が先に提案した特
願平6−182940号に全て述べられており、この発
明の要旨とするところではないので、詳細な説明は省略
する。
The "real plane coordinate system" referred to here is a two-dimensional coordinate system in which the host vehicle is the origin and placed on the road plane. The processes performed in S10 are all described in Japanese Patent Application No. 6-182940 previously proposed by the present applicant, and are not the gist of the present invention, and therefore detailed description thereof will be omitted.

【0046】続いてS12に進み、上記したようにメモ
リ39内に格納されている道路構造モデルと比較し、マ
ッチング度の高い走行路区分線候補を得る。具体的に
は、道路構造モデルと入力とのマッチングをグラフ理論
におけるマッチング問題に帰着させて解く。即ち、画像
処理結果を抽象化してグラフ表現し、同じくグラフ表現
されたモデルとの間で、部分同形グラフを抽出すること
で行う。
Subsequently, the process proceeds to S12, and the road structure model stored in the memory 39 as described above is compared to obtain a running road lane line candidate having a high degree of matching. Specifically, the matching between the road structure model and the input is solved by reducing it to a matching problem in graph theory. That is, it is performed by abstracting the image processing result and expressing it as a graph, and extracting a partial isomorphic graph between the model and the model which is also expressed by the graph.

【0047】図10はその作業を示すサブルーチン・フ
ロー・チャートである。
FIG. 10 is a subroutine flow chart showing the work.

【0048】先ず、S100において走行路区分線候補
線分を「節点」、その間の関係を「弧」とする入力グラ
フを作成する。グラフはマトリクスで表現される。
First, in S100, an input graph is created in which the candidate road segment lines are "nodes" and the relationship between them is "arc". The graph is represented by a matrix.

【0049】即ち、前述したグラフ理論に基づくとき、
図11に示すように、グラフGは節点V、節点間の性質
を表す弧Eを用いると、一般に G=(V,E) と表現することができる。節点Vは属性や属性値Pを持
つ。
That is, when based on the above-mentioned graph theory,
As shown in FIG. 11, a graph G can be generally expressed as G = (V, E) by using a node V and an arc E representing the property between the nodes. The node V has an attribute and an attribute value P.

【0050】道路を構成する基本単位と、考えられるひ
と続きの走行路区分線をグラフにおける節点Vに対応さ
せると、道路構造グラフGは、走行路区分線の種類に応
じて実線、長破線(中央線)、短破線(高速道路の分岐
進入口など)などの属性Pを持つ。
When the basic unit forming a road and a possible continuous running line dividing line are made to correspond to the node V in the graph, the road structure graph G shows a solid line and a long broken line ( It has attributes P such as a center line) and a short broken line (such as a highway branch entrance).

【0051】節点間に張られる弧は、平行や接続と言っ
た走行路区分線相互の位置関係Eで表現することができ
る。即ち、 P=(p,value ) p∈{実線、長破線、短破線、不明} E=(e,value ) e∈{平行関係、接続関係、無関係} ここで、value はpまたはeらしさの値である。
The arc stretched between the nodes can be expressed by the positional relationship E between the running road dividing lines such as parallel and connection. That is, P = (p, value) pε {solid line, long broken line, short broken line, unknown} E = (e, value) eε {parallel relation, connection relation, irrelevant} where value is p or e It is a value.

【0052】上記を前提としてその作業を示す図12サ
ブルーチン・フロー・チャートに従って説明すると、S
200およびS202において、複数の走行路区分線候
補線分(節点)Vi,Vj(i≠j)について、Vi,
Vjの位置関係E、即ち、前記したeおよび(value )
を求め、Eに代入する。
Based on the above, the operation will be described with reference to the flowchart of the subroutine in FIG.
In 200 and S202, Vi, Vj (i ≠ j) for a plurality of candidate road lane dividing line segments (nodes) Vi, Vj
Positional relationship E of Vj, that is, e and (value) described above
And substitute for E.

【0053】図13はその作業を示すサブルーチン・フ
ロー・チャートであり、先ずS300において複数の走
行路区分線候補線分Vi,Vj(節点)の各端点間の距
離L1,L2,L3,L4を求める(図14)。
FIG. 13 is a subroutine flow chart showing the work. First, in S300, the distances L1, L2, L3, L4 between the end points of the plurality of candidate road segment line segments Vi, Vj (nodes) are calculated. Ask (Fig. 14).

【0054】次いでS302に進んで求めた距離L1な
いしL4のいずれかが、節点同士が接続すると判定する
のに足るしきい値(適宜設定)より小さいか否か判断
し、肯定されるときはS304に進んで走行路区分線候
補線分Vi,Vjは接続関係にある、即ち、接続されて
いると判定し、value として接続関係尺度を求める。図
15にその接続関係尺度を示す。
Next, in S302, it is determined whether or not any of the obtained distances L1 to L4 is smaller than a threshold value (suitably set) for determining that the nodes are connected to each other. Then, it is determined that the candidate road segments Vi and Vj have a connection relationship, that is, they are connected, and the connection relationship scale is obtained as value. FIG. 15 shows the connection relation scale.

【0055】図示の如く、接続関係尺度は、2つの走行
路区分線候補線分Vi,Vjが互いに1つの端点で接続
していると判定されるとき、Viから見たVjの接続方
向を角度θで求める。具体的には、接続点を中心にVi
から反時計回りに計測したVjまでの角度θ(0≦θ<
2π)を8分割して記号化することで行う。次いでS3
06に進んで上記からEの値を設定してプログラムを終
了する。
As shown in the figure, when it is determined that the two running road lane marking candidate line segments Vi and Vj are connected to each other at one end point, the connection relation scale is an angle of the connection direction of Vj viewed from Vi. Calculate with θ. Specifically, Vi is centered around the connection point.
Angle V from 0 to Vj measured counterclockwise (0 ≦ θ <
2π) is divided into eight and symbolized. Then S3
Proceeding to 06, the value of E is set from the above and the program is terminated.

【0056】他方、S302で距離L1ないしL4のい
ずれも接続判定しきい値より小さくないと判断されると
きはS308に進み、走行路区分線候補線分Vi,Vj
間の適当な2ケ所でその間の幅L5,L6を求める。図
16にその作業を示す。
On the other hand, if it is determined in S302 that none of the distances L1 to L4 is smaller than the connection determination threshold value, the process proceeds to S308, and the candidate road segments Vi, Vj for the road dividing line are selected.
Widths L5 and L6 are obtained at two appropriate places between them. FIG. 16 shows the work.

【0057】具体的には走行路区分線候補線分Vi,V
jを構成する点列中の幾つかを用い、直線i’,j’に
近似し、近似直線の適当な範囲の2ケ所で幅L5,L6
を算出する。詳しくは、適当な2ケ所で距離l1,l2,l
3,l4 を求め、それの平均値を求めて幅L5,L6とす
る。
Specifically, the candidate road segment Vi, V
By using some of the points constituting j, the straight lines i ′ and j ′ are approximated, and the widths L5 and L6 are set at two positions in an appropriate range of the approximate straight line.
To calculate. Specifically, at appropriate two locations, distances l1, l2, l
3,14 is calculated, and the average value thereof is calculated to obtain widths L5, L6.

【0058】次いで、S310に進み、求めた幅L5,
L6の比がa(幅しきい値。適宜設定)以上で1以下か
否か判断する(但し、L5<L6とする)。そして肯定
されるときはS312に進み、走行路区分線候補線分V
i,Vjは平行関係にあると判断し、平行関係尺度(va
lue )を求める。
Next, in S310, the obtained width L5 is calculated.
It is determined whether or not the ratio of L6 is equal to or larger than a (width threshold value, appropriately set) and is 1 or less (provided that L5 <L6). When the result is affirmative, the process proceeds to S312, where the candidate road segment V
i and Vj are judged to have a parallel relationship, and a parallel relationship scale (va
lue).

【0059】具体的には図17に示すように、幅L5,
L6を予め定めた車線幅Woで除算し、商(例えば0.
5)を平行関係尺度とする。尚、図示の如く、商には基
準位置(例えば左端走行路区分線)からの方向に応じて
正負の符号を付す。次いでS314に進んでかく求めた
値をEとする。尚、S310で否定されるときは、S3
16に進み、e=無関係、value =なしとする。
Specifically, as shown in FIG. 17, the width L5,
L6 is divided by a predetermined lane width Wo to obtain a quotient (for example, 0.
5) is a parallel relationship scale. Incidentally, as shown in the figure, the quotient is given a positive or negative sign depending on the direction from the reference position (for example, the left end travel road dividing line). Next, in S314, the value thus obtained is set to E. When the result in S310 is negative, S3
Proceed to step 16 and set e = irrelevant and value = none.

【0060】図12フロー・チャートに戻ると、次いで
S204,S206に進んで上記の如くして求めた値E
およびその負値−E(逆関係)をマトリクスR〔i,
j〕の値とする。
Returning to the flow chart of FIG. 12, the program proceeds to S204 and S206, and the value E obtained as above is calculated.
And its negative value −E (inverse relation) are represented by the matrix R [i,
j].

【0061】図10フロー・チャートに戻ると、次いで
S102に進み、S104以降で行われるモデルマッチ
ングに先立ち、予想される道路構造モデルの絞り込みを
行う。即ち、1車線、2車線などの複数(k個)のモデ
ルの中から、対応する1個ないし2個以上(q個)のモ
デルを選択する。この処理は後述するモデルマッチング
処理よりも計算量が少なく、このように予めマッチング
を行うモデルを選択することで、比較的低性能の車載ハ
ードウェア上でも高速な処理を実現することができる。
Returning to the flow chart of FIG. 10, the process then proceeds to S102, in which expected road structure models are narrowed down prior to the model matching performed in S104 and subsequent steps. That is, one or more (q) corresponding models are selected from a plurality of (k) models such as one lane and two lanes. This process has a smaller amount of calculation than the model matching process described later, and by selecting a model to be matched in advance in this way, high-speed processing can be realized even on relatively low-performance on-vehicle hardware.

【0062】図18はその作業を示すサブルーチン・フ
ロー・チャートである。
FIG. 18 is a subroutine flow chart showing the work.

【0063】以下説明すると、先ずS400およびS4
02においてk個の道路構造モデルのうちi番目のモデ
ルについて入力グラフ(入力値)とモデルとから連合グ
ラフを作成する。これは入力値とモデルとがマッチング
するか否かの問題を前記の如く、グラフ理論でのクリー
ク抽出問題に帰着させて解くためである。
Explaining below, first, S400 and S4
In 02, an association graph is created from the input graph (input value) and the model for the i-th model of the k road structure models. This is because, as described above, the problem of whether or not the input value and the model are matched is reduced to the clique extraction problem in the graph theory and solved.

【0064】ここで、2つのグラフG1(V1,E
1),G2(V2,E2)から1つの連合グラフG0
(V0,E0)を作成するには、理論的には以下のよう
に行う。 イ.v1∈V1,v2∈V2に対して属性p1,p2が
p1=p2を満たすとき、ラベル(v1,v2)を持つ
節点v0∈V0を設ける。 ロ.v0=(v1,v2),v0’=(v1’,v
2’)∈V0に対してE1(v,v1’)=E2(v
2,v2’)が成立するとき、v0,v0’を連結す
る。
Here, two graphs G1 (V1, E
1), G2 (V2, E2) to one union graph G0
Theoretically, (V0, E0) is created as follows. I. When the attributes p1 and p2 satisfy p1 = p2 for v1εV1 and v2εV2, a node v0εV0 having a label (v1, v2) is provided. B. v0 = (v1, v2), v0 '= (v1', v
2 ′) εV0, E1 (v, v1 ′) = E2 (v
2, v2 ′) holds, v0 and v0 ′ are connected.

【0065】図19は連合グラフ作成作業を示すサブル
ーチン・フロー・チャートである。
FIG. 19 is a subroutine flow chart showing the association graph preparation work.

【0066】以下説明すると、先ずS500ないしS5
04において、モデル中の走行路区分線の個数をm、入
力グラフ中の線分の個数をnをすると(S500)、全
ての(m,n)の組み合わせについて、mとnの属性
(破線、実線)が組み合わせ可能、即ち、同種の線で、
かつ自車両に対する位置関係が同じ、例えば共に左側に
あるか否か判断する(S502)。そして肯定されると
きは組み合わせ集合Cに(m,n)を加える(S50
4)。ここでCは、連合グラフの節点を表す。
Explaining below, first, S500 to S5
In 04, if the number of running road dividing lines in the model is m and the number of line segments in the input graph is n (S500), the attributes of m and n (broken line, Solid line) can be combined, that is, with the same kind of line,
Further, it is determined whether or not the positional relationship with respect to the own vehicle is the same, for example, both are on the left side (S502). When the result is affirmative, (m, n) is added to the combination set C (S50
4). Here, C represents a node of the association graph.

【0067】次いでS506ないしS512に進んで組
み合わせ集合Cの中のCi,Cj(i≠j)について
(S506)、miとmjの関係とniとnjの関係、
即ち、モデルの線分mのi番目とj番目の関係と、入力
線分のi番目とj番目の関係とが同じか否か判断し(S
508)、肯定されるときはA〔i,j〕を1とすると
共に(S510)、否定されるときは0とする(S51
2)。ここで、Aは連合グラフの節点間の弧の有(=
1)無(=0)を示す。
Next, proceeding to S506 to S512, for Ci and Cj (i ≠ j) in the combination set C (S506), the relationship between mi and mj and the relationship between ni and nj,
That is, it is determined whether the i-th and j-th relationships of the model line segment m are the same as the i-th and j-th relationship of the input line segment (S
508), when affirmative, A [i, j] is set to 1 (S510), and when negative, it is set to 0 (S51).
2). Where A is the existence of an arc between the nodes of the associative graph (=
1) Indicates nothing (= 0).

【0068】図18フロー・チャートに戻ると、次いで
S404に進んでマッチング予想評価値を算出する。
Returning to the flow chart of FIG. 18, the process proceeds to S404, in which a matching expected evaluation value is calculated.

【0069】図20はその作業を示すサブルーチン・フ
ロー・チャートである。
FIG. 20 is a subroutine flow chart showing the work.

【0070】先ずS600において連合グラフ中の弧の
総数(前記したA〔i,j〕=1の総数)をS1とし、
S602に進んで入力グラフの線分の種類とモデルの走
行路区分線の種類との対応による得点の総数をS2とす
る。ここで、得点は図21に示すように決められる。即
ち、モデルも入力値も共に実線であれば、得点は1.0
とする。次いでS604に進んで求めた値S1,S2の
和を連合グラフの節点数で除算して得た商をマッチング
予想評価値とする。これは、連合グラフから抽出される
「クリーク」(後述)の大きさの予想値を求める作業で
ある。
First, in S600, the total number of arcs in the association graph (the total number of A [i, j] = 1 described above) is set to S1,
Proceeding to S602, the total number of points due to the correspondence between the type of line segment in the input graph and the type of model road dividing line is set as S2. Here, the score is determined as shown in FIG. That is, if both the model and the input value are solid lines, the score is 1.0.
And Next, in S604, the quotient obtained by dividing the sum of the obtained values S1 and S2 by the number of nodes in the association graph is set as the matching expected evaluation value. This is an operation for obtaining an expected value of the size of a "clique" (described later) extracted from the association graph.

【0071】マッチングは入力グラフとモデルグラフと
の連合グラフからクリークを抽出する問題に帰着させて
解かれるが、このとき連合グラフの節点当たりの弧の数
が多いほど大きなクリークが抽出される可能性が高く、
従ってそのようなモデルグラフは入力グラフと良くマッ
チングする可能性が高いため、予想評価値として連合グ
ラフにおける節点1つ当たりの弧の個数を用いる。実際
には上述のように、モデルと入力との線分属性が一致す
る場合は、さらに予想評価値を高くする。
The matching is solved by reducing the problem of extracting a clique from the association graph of the input graph and the model graph. At this time, the larger the number of arcs per node of the association graph, the larger the clique may be extracted. Is high,
Therefore, since such a model graph is likely to match the input graph well, the number of arcs per node in the association graph is used as the predicted evaluation value. Actually, as described above, when the line segment attributes of the model and the input match, the predicted evaluation value is further increased.

【0072】次いで図18フロー・チャートに戻り、S
406に進んでマッチング予想評価値が上位であるモデ
ルを選択する(q個)。
Next, returning to the flow chart of FIG. 18, S
Proceeding to 406, a model having the highest matching prediction evaluation value is selected (q pieces).

【0073】次いで図10フロー・チャートに戻り、S
104以降のステップに進んで連合グラフからクリーク
を抽出することで、絞り込まれたp個のモデルと入力グ
ラフとのマッチング解候補を得る。
Next, returning to the flow chart of FIG. 10, S
By proceeding to steps 104 and thereafter, and extracting cliques from the association graph, matching solution candidates for the p models that have been narrowed down and the input graph are obtained.

【0074】ここでクリークについて説明する。Here, the clique will be described.

【0075】クリークとは図22に太線で示すように、
その節点が他のすべての節点に弧を張られている完全な
連結部分グラフのことを言う。クリークを抽出すると
は、2個(ないし3個以上)のグラフから完全に同形の
部分グラフを抽出することに他ならない。
The clique is as indicated by the thick line in FIG.
It is a fully connected subgraph whose nodes are arced to every other node. Extracting a clique is nothing but extracting a subgraph of the same shape from two (or three or more) graphs.

【0076】即ち、連合グラフを作成してクリークを求
める一連の作業は、図23に示すように、モデルと入力
値(画像処理結果)について合致する部分を求める、換
言すれば、モデルと入力値とのマッチング程度を求める
作業を意味する。
That is, as shown in FIG. 23, the series of operations for creating the association graph and finding the clique is to find the part that matches the model and the input value (image processing result), in other words, the model and the input value. It means the work of finding the degree of matching with.

【0077】尚、このクリークの抽出は具体的には、
「Dana H. Ballad, Christopher M.Brown 著、COMPUTER
VISION (PRENTICE HALL), Ch.11 Matching Sec. 11.3
Implementing Graph-Theoretic Algorithm」による。図
22の下部に、その基本アルゴリズムを示す。
The extraction of this clique is specifically as follows.
`` Dana H. Ballad, Christopher M. Brown, COMPUTER
VISION (PRENTICE HALL), Ch.11 Matching Sec. 11.3
Implementing Graph-Theoretic Algorithm ”. The basic algorithm is shown in the lower part of FIG.

【0078】このようにクリークを抽出することでマッ
チング解候補を得るが、ここでマッチング解候補は2つ
以上(m個)得ることとする。即ち、モデルとマッチン
グした走行路区分線(入力値)の数が多いほど良い解で
あるとは限らず、それは例えば1車線の幅がモデルとど
のくらいずれているかなどが考慮されないからである。
Matching solution candidates are obtained by extracting the cliques in this way. Here, it is assumed that two or more (m) matching solution candidates are obtained. In other words, the larger the number of running road lane markings (input values) that match the model, the better the solution is not always because, for example, how much the width of one lane corresponds to the model is not taken into consideration.

【0079】従って、最大クリークのみを抽出して唯一
のマッチング解とせず、例えば最大クリークよりも節点
が1つ少ないクリークまで解として残すようにし、次に
述べる「マッチング評価値」に基づいて最良の解を決定
する。
Therefore, only the maximum clique is not extracted as the only matching solution, and for example, a clique with one node less than the maximum clique is left as a solution, and the best matching cue is calculated based on the "matching evaluation value" described below. Determine the solution.

【0080】続いてS110に進んでm個のマッチング
解候補についてそのマッチング評価値を算出する。図2
3の下部にマッチング評価値の算出手法を示す。マッチ
ング評価値は「単項属性の合致度」と「二項属性の合致
度」とで構成され、これら2つの合致度は次のように定
義される。
Then, the process proceeds to S110, in which the matching evaluation value is calculated for m matching solution candidates. Figure 2
The calculation method of the matching evaluation value is shown in the lower part of 3. The matching evaluation value is composed of a “unity attribute matching degree” and a “binary attribute matching degree”, and these two matching degrees are defined as follows.

【0081】即ち、単項属性の合致度とは、入力とモデ
ルとの間で対応する区分線の属性がどの程度似ているか
を表すものであり、入力グラフの節点と対応するモデル
グラフの節点の属性(区分線の種類)を比較し、図23
中の表に示されるような得点を加算していくようにし
た。また二項属性の合致度とは、入力線分同士が平行関
係であれば、どの程度平行であるか、接続関係であれ
ば、どの程度直線的に接続しているかを表すもので、先
に述べた「平行関係尺度」と「接続関係尺度」の値を加
算していくようにした。
That is, the degree of coincidence of unary attributes indicates how similar the attributes of the corresponding dividing lines are between the input and the model, and the degree of similarity between the nodes of the input graph and the corresponding nodes of the model graph. By comparing the attributes (types of dividing lines), FIG.
I tried to add points as shown in the table inside. In addition, the degree of matching of the binary attribute indicates how parallel the input line segments are if they are parallel to each other, and how linearly they are connected if they are connected. The values of the "parallel relation scale" and the "connection relation scale" described above are added.

【0082】図5メイン・フロー・チャートに戻ると、
続いてS14に進んで過去のマッチング結果に基づいて
現在走行中の道路構造と走行路区分線の位置を推定す
る。
Returning to the main flow chart of FIG.
Then, the process proceeds to S14, and the position of the road structure and the running road lane markings currently running is estimated based on the past matching result.

【0083】図24はその作業を示すサブルーチン・フ
ロー・チャートである。
FIG. 24 is a subroutine flow chart showing the work.

【0084】以下説明すると、先ずS700において走
行中(の)道路構造候補1〜nに記憶されている過去の
走行路区分線の点列データを現在時刻Tnに更新し(後
述)、S702に進んで現在時刻Tnにおけるマッチン
グ解候補1〜mを、走行中の道路構造候補1〜nのいず
れかに分類し、リングバッファに書き込む。
Explaining below, first, in S700, the point sequence data of the past traveling road lane markings stored in (or) traveling road structure candidates 1 to n are updated to the current time Tn (described later), and the routine proceeds to S702. Then, the matching solution candidates 1 to m at the current time Tn are classified into any of the traveling road structure candidates 1 to n and are written in the ring buffer.

【0085】即ち、マッチング解候補(m個)につい
て、過去の走行中道路構造候補(n個)に分類するため
に、先ず各道路構造候補との連続度を求め、連続度が最
大の道路構造候補に分類する。
That is, in order to classify matching solution candidates (m pieces) into past traveling road structure candidates (n pieces), first, the continuity with each road structure candidate is obtained, and the road structure with the largest continuity is obtained. Classify as candidates.

【0086】その背景から説明すると、出願に係る装置
にあっては、現在走行中の道路構造と走行路区分線の位
置を推定するために、図25に示すように、過去のモデ
ルマッチング結果の経緯を、走行路区分線の位置情報と
共に記録する、走行路区分線位置情報に関する表を作成
する。上記は図6ブロック図に分類と示す作業に相当す
る。
To explain from the background, in the device according to the application, in order to estimate the position of the road structure and the road dividing line which are currently running, as shown in FIG. A table relating to traveling road lane marking position information is created in which the history is recorded together with the positional information of the traveling road lane markings. The above corresponds to the work shown as classification in the block diagram of FIG.

【0087】これは具体的には、n個の走行中道路構造
候補に対し、その構造を表す道路構造モデルの番号、モ
デルで定義される各走行路区分線の番号、走行路区分線
を表す近似関数、現在時刻TnからN回前までのマッチ
ング評価値および点列座標の情報を圧縮した走行路区分
線位置行列要素を格納したリングバッファにより構成さ
れる。Nの値は、走行車速により可変(具体的には車速
が高いほど小さな値とする)。
Specifically, for n traveling road structure candidates, the number of the road structure model representing the structure, the number of each traveling road division line defined by the model, and the traveling road division line are shown. It is composed of an approximation function, a matching evaluation value from the current time Tn to N times before, and a ring buffer that stores the roadway section line position matrix element in which the information of the point sequence coordinates is compressed. The value of N is variable depending on the traveling vehicle speed (specifically, the higher the vehicle speed, the smaller the value).

【0088】各時刻ごとの行列要素Tn-N-m 〜Tnは後
述の如く、軌跡推定値を用いて同一時刻に時刻補正され
る(図6に言う運動軌跡による位置補正に相当)。
The matrix elements Tn-Nm to Tn for each time are time-corrected at the same time using the trajectory estimated value as will be described later (corresponding to position correction by the motion trajectory shown in FIG. 6).

【0089】このように、図24フロー・チャートのS
702では、m個のマッチング結果のそれぞれについ
て、過去の走行中道路構造候補1〜nに分類するため
に、先ず各候補との連続度を算出し、1つのマッチング
結果について最大の連続度を持つ候補を選択する。
As described above, S in the flow chart of FIG.
In 702, in order to classify each of the m matching results into the past running road structure candidates 1 to n, the continuity with each candidate is first calculated, and one matching result has the maximum continuity. Select a candidate.

【0090】連続度は、主に2つの要素から算出する。
第1は構造連続度で、道路構造として連続可能かどうか
の度合いを判断して行う。具体的には道路構造モデルに
記述される値を引用することで行う。より具体的にはモ
デルが1車線であれば、入力値が1車線であるとき連続
すると判断する。
The continuity is calculated mainly from two elements.
The first is the structural continuity, which is performed by judging the degree of continuity of the road structure. Specifically, this is done by quoting the value described in the road structure model. More specifically, if the model is one lane, it is determined that the input value is continuous when the input value is one lane.

【0091】第2は点列の連続度で、予め道路構造候補
に対し、過去の点列情報から推定された走行路区分線関
数と現在時刻の走行路区分線の点列情報との比較により
行う。具体的には前回までに推定された走行路区分線の
点列情報を所定の補正関数直線で最小近似し、分散を求
めて行う。
The second is the degree of continuity of the point sequence, which is obtained by comparing the roadway division line function estimated in advance from the past point sequence information and the point sequence information of the current roadway division line for the road structure candidate in advance. To do. Specifically, the point sequence information of the running road lane markings estimated up to the previous time is subjected to minimum approximation with a predetermined correction function straight line to obtain the variance.

【0092】即ち、関数周りの点列の距離の二乗平均と
前回までの分散とを比較することで行う。図26にそれ
を示す。尚、ここで言う近似は、後述する関数曲線によ
る近似とは異なり、点列の連続度判定のためにのみ用い
るものである。ここでは高い精度は要求されないため、
計算量の少ない直線近似を用いる。
That is, it is performed by comparing the root mean square of the distance of the point sequence around the function and the variance up to the previous time. It is shown in FIG. Note that the approximation here is used only for determining the continuity of the point sequence, unlike approximation by a function curve described later. Since high precision is not required here,
Use a linear approximation that requires less calculation.

【0093】図27に上記の如くして求められたマッチ
ング結果を示す。
FIG. 27 shows the matching result obtained as described above.

【0094】続いてS704に進んで走行中道路構造候
補1〜nの各評価値(時刻Tn-m〜Tn)を平滑化し、
最大の評価値を持つ道路構造候補を走行中道路構造とし
て決定する。例えば、図28に示すように車線道路を走
行するとき、評価値はある場合には1車線、別の場合に
は2車線と相違する恐れがあり、一時刻の評価値だけか
ら判定すると、誤る恐れがある。
Then, in S704, the evaluation values (time Tn-m to Tn) of the traveling road structure candidates 1 to n are smoothed,
The road structure candidate having the maximum evaluation value is determined as the traveling road structure. For example, when traveling on a lane road as shown in FIG. 28, the evaluation value may be different from one lane in some cases and two lanes in other cases. There is a fear.

【0095】そこで図29に示すように、経時的に変動
するマッチング評価値について平滑化を施した後、現在
時刻Tnにおいて最大の評価値を持つ道路構造(モデ
ル)を選択(決定)するようにした。図示の場合には、
1車線モデルと2車線モデルのうち、値の大きい2車線
モデルの方を現在の道路構造として選択(決定)する。
このとき、他の候補との評価値の差が所定のしきい値よ
り大きくなった時点で始めて選択(決定)する。
Therefore, as shown in FIG. 29, after smoothing the matching evaluation values that change over time, the road structure (model) having the maximum evaluation value at the current time Tn is selected (determined). did. In the case shown,
Of the 1-lane model and the 2-lane model, the 2-lane model having the larger value is selected (determined) as the current road structure.
At this time, the selection (decision) is started only when the difference in evaluation value from other candidates becomes larger than a predetermined threshold value.

【0096】図示の場合には、時刻T1において2車線
モデルの評価値が1車線モデルのそれを僅かに上回って
いるが、この時点では2車線であるという判断はせず、
時刻T2で評価値の差がしきい値を超えたところで2車
線と決定する。このようにするのは、画像処理による区
分線の検出ミスなどのせいで、一時的に評価値が下がっ
て道路構造判断が頻繁に切り替わるのを避けるためであ
る。尚、平滑化を行うのはノイズ除去のためである。
In the case shown in the figure, the evaluation value of the two-lane model is slightly higher than that of the one-lane model at time T1, but it is not judged that the vehicle is in the two-lane at this point.
When the difference between the evaluation values exceeds the threshold value at time T2, it is determined to be two lanes. This is done to prevent the road structure determination from being frequently switched due to a temporary decrease in the evaluation value due to a erroneous detection of a lane marking due to image processing. The smoothing is performed to remove noise.

【0097】続いてS706に進んで決定された道路構
造の、時刻時刻Tn-m 〜Tnの全ての点列データを互い
に平行な関数曲線で近似する。
Then, in S706, all the point sequence data of the time Tn-m to Tn of the determined road structure are approximated by mutually parallel function curves.

【0098】この関数曲線による近似について説明する
と、各走行路区分線上の点列データ(Xij,Yij)は、所定
時間分のデータが蓄積されたものである( i:走行路区
分線番号(1...N), j:走行路区分線iの点列データ番
号(1...ni))。このN本の走行路区分線を互いに平行
な、平面座標上で平行移動してなる二次関数(曲線) fi=ax2 +bx+ci (ci:現在認識されている走行路区分線の本数)で表し
たとき、各関数と元の点列(Xij,Yij)との誤差をeiとす
ると、 e =Σei を最小にするa,b,ciを求めることに他ならない。
The approximation using this function curve will be described. The point sequence data (Xij, Yij) on each traveling road lane marking is data for a predetermined time (i: traveling road lane marking number (1 ... N), j: Point sequence data number (1 ... ni) of the road dividing line i. A quadratic function (curve) formed by translating these N running line markings parallel to each other on a plane coordinate fi = ax 2 + bx + ci (ci: number of currently recognized running line markings) Then, if the error between each function and the original point sequence (Xij, Yij) is ei, then there is nothing but to find a, b, ci that minimizes e = Σei.

【0099】e を求めると、数1のようになり、よって
数2のようになる。
When e is obtained, the result is as shown in formula 1, and thus as shown in formula 2.

【0100】[0100]

【数1】 [Equation 1]

【0101】[0101]

【数2】 [Equation 2]

【0102】故に、e を最小にするには数3より、数4
に示す正規方程式を解けば良い。
Therefore, to minimize e
You can solve the normal equation shown in.

【0103】[0103]

【数3】 (Equation 3)

【0104】[0104]

【数4】 [Equation 4]

【0105】以上より、数5に示す連立一次多元(N+
2元)方程式を解けば良い。これは例えば「ガウスのは
きだし法」を用いて行う。
From the above, the simultaneous linear multiple (N +
You can solve the binary equation. This is done by using, for example, the "Gauss's barefoot method".

【0106】[0106]

【数5】 (Equation 5)

【0107】このとき、数6に示す各走行路区分線ごと
の正規方程式AiX =Biの係数行列を用いると、上記連立
方程式の係数行列は数7のように書くことができる。
At this time, if the coefficient matrix of the normal equation AiX = Bi for each running road lane marking shown in Equation 6 is used, the coefficient matrix of the simultaneous equations can be written as Equation 7.

【0108】[0108]

【数6】 (Equation 6)

【0109】[0109]

【数7】 (Equation 7)

【0110】ここで、正規行列要素の時刻補正(図24
フロー・チャートのS700の作業がそれに相当)につ
いて説明すると、画像処理CPU36からの点列座標
は、画像を取り込んだ時刻の自車両のカメラ設置位置を
原点とした座標系で出力されるので、異なる時刻の点列
を集めて二次曲線にあてはめるために、自車両の動きに
応じて各時刻の点列を含む座標系を同一時刻の座標系に
補正しなければならない。
Here, time correction of the normal matrix elements (see FIG. 24) is performed.
The operation of S700 of the flow chart corresponds to that). The point sequence coordinates from the image processing CPU 36 are different because they are output in a coordinate system whose origin is the camera installation position of the vehicle at the time when the image is captured. In order to collect the time point sequence and apply it to the quadratic curve, the coordinate system including the time point sequence at each time must be corrected to the same time coordinate system according to the movement of the vehicle.

【0111】この補正は常に最新時刻の画像処理結果に
合わせるのが妥当である。一方、前述の如く、各時刻の
点列は正規行列の形で保存されるため、この行列要素を
直接時刻補正しなければならない。
It is appropriate that this correction is always adjusted to the latest image processing result. On the other hand, as described above, since the point sequence at each time is stored in the form of a normal matrix, this matrix element must be directly time corrected.

【0112】一般に2つのx-y 座標系は回転と平行移動
を用いて数8のように書くことができる。
In general, two xy coordinate systems can be written as in Equation 8 using rotation and translation.

【0113】[0113]

【数8】 (Equation 8)

【0114】数8を用いて数9に示す正規行列の各行列
要素を書き替えると、数10に示すようになる。
By rewriting each matrix element of the normal matrix shown in Expression 9 using Expression 8, it becomes as shown in Expression 10.

【0115】[0115]

【数9】 [Equation 9]

【0116】[0116]

【数10】 [Equation 10]

【0117】上記正規行列の要素以外に、新たなΣwixi
3 yi, Σwixi2 yi2,Σwixiyi3,Σwixiyi2,Σwixiyi2
wiyi2,Σwiyi3,Σwiyi4 を加えて15要素を算出し、そ
のそれぞれを時刻補正することで、正規行列各要素の時
刻補正が可能となる。
In addition to the elements of the normal matrix, a new Σwixi
3 yi, Σwixi 2 yi 2 , Σwixiyi 3 , Σwixiyi 2 , Σwixiyi 2 , Σ
Wiyi 2 , Σwiyi 3 , and Σwiyi 4 are added to calculate 15 elements, and the time is corrected for each of them, whereby the time of each element of the normal matrix can be corrected.

【0118】以上をまとめると、図31に示すようなマ
トリクス演算となる。
Summarizing the above, the matrix operation as shown in FIG. 31 is performed.

【0119】尚、時刻補正について若干説明を補足す
る。
The time correction will be slightly supplemented.

【0120】図32は軌跡推定CPU44のスタート時
刻を絶対原点とする座標系Oと、異なる2時刻における
座標系を示しているが、同図から分かる通り、実際には
軌跡推定CPU44からの出力値(t,x,y,θ)を用いる
場合には、補正前の軌跡推定値を(ts,xs,ys, θs)、補
正後の軌跡推定値を(td,xd,yd, θd)とすると、補正前
の座標系の点(Xs,Ys)を補正後の座標系上の点(Xd,Yd)
に変換するためには、数11に示す式を用いる必要があ
る。
FIG. 32 shows a coordinate system O having the start time of the trajectory estimation CPU 44 as an absolute origin and a coordinate system at two different times. As can be seen from the figure, the output value from the trajectory estimation CPU 44 is actually shown. When using (t, x, y, θ), let the uncorrected trajectory estimate be (ts, xs, ys, θs) and the corrected trajectory estimate be (td, xd, yd, θd). , The point on the coordinate system before correction (Xs, Ys) is the point on the coordinate system after correction (Xd, Yd)
In order to convert into, it is necessary to use the formula shown in Formula 11.

【0121】[0121]

【数11】 [Equation 11]

【0122】よって、図31に示すマトリクスを用いる
ときは、数11のdx’, dy’を用いて数12のようにす
る必要がある。
Therefore, when the matrix shown in FIG. 31 is used, it is necessary to use dx 'and dy' in Eq.

【0123】[0123]

【数12】 (Equation 12)

【0124】図24フロー・チャートのS706におい
ては上記の如くして得られた近似曲線に従って点列を生
成し直す。
In S706 of the flow chart of FIG. 24, the point sequence is regenerated according to the approximate curve obtained as described above.

【0125】続いてS708に進んで生成し直した走行
路区分線情報を通信用メモリ34に書込み、出力する。
このとき前述の如く、走行路区分線情報は車速に応じた
距離だけ前方まで出力する。換言すれば、車速が早いと
きはより遠方までの走行路区分線情報を出力する。
Subsequently, the flow proceeds to S708, and the regenerated travel road lane line information is written in the communication memory 34 and output.
At this time, as described above, the traveling road lane marking information is output to the front by a distance corresponding to the vehicle speed. In other words, when the vehicle speed is high, the information on the lane markings to the farther distance is output.

【0126】続いてS710に進み、図25に示した各
走行中道路構造候補1〜nのリングバッファから最も古
い時刻のデータを削除して終わる。
Subsequently, the procedure proceeds to S710, in which the data at the oldest time is deleted from the ring buffers of the traveling road structure candidates 1 to n shown in FIG.

【0127】この実施例は上記の如く構成したので、道
路上に複数の平行な走行路区分線がある場合、各走行路
区分線を正確に認識することができ、その道路構造を正
確に認識することができる。図33は出願に係る関数近
似手法を従来技術と対比させて行ったシミュレーション
結果を示すデータ図であり、同図(a)が従来技術の各
区分線を単独で近似した場合を、同図(b)が出願に係
る手法である各区分線を平行な関数で近似した場合を示
す。
Since this embodiment is constructed as described above, when there are a plurality of parallel running road lane markings on the road, each running road lane marking can be recognized accurately, and the road structure can be recognized accurately. can do. FIG. 33 is a data diagram showing a simulation result obtained by comparing the function approximating method according to the application with a conventional technique, and FIG. 33 (a) shows a case where each dividing line of the conventional technique is independently approximated. b) shows a case where each dividing line, which is the technique according to the application, is approximated by a parallel function.

【0128】同図から明らかな如く、走行路面上、より
正確には走行路面を含む面において互いに平行な関数で
近似することにより、互いにほぼ平行する近似値を得る
ことができ、よって走行路区分線ないし道路構造を正確
に認識することができる。
As is clear from the figure, approximate values that are substantially parallel to each other can be obtained by approximating functions that are parallel to each other on the traveling road surface, more accurately, on a plane including the traveling road surface. Accurate recognition of lines or road structures.

【0129】尚、上記において主な請求項との関係を示
すと、請求項1項については図5フロー・チャートのS
10が画像処理手段、図2ブロック図のメモリ39が道
路構造モデル記憶手段、図10フロー・チャートのS1
04以降がモデル選択手段、図24フロー・チャートの
S700ないしS704が線分選択手段、図24フロー
・チャートのS706が近似手段に相当する。
The relation with the main claims is as follows. Regarding claim 1, S in the flow chart of FIG.
10 is image processing means, memory 39 in the block diagram of FIG. 2 is road structure model storage means, and S1 of the flow chart of FIG.
The model selection means 04 and subsequent steps correspond to the model selection means, S700 to S704 of the flow chart of FIG. 24 correspond to the line segment selection means, and S706 of the flow chart of FIG. 24 corresponds to the approximation means.

【0130】請求項3項については、図5フロー・チャ
ートのS10が画像処理手段、図24フロー・チャート
のS706が近似手段に相当し、請求項4項について
は、図5フロー・チャートのS10が画像処理手段、図
2ブロック図のメモリ39が道路構造モデル記憶手段、
図10フロー・チャートのS104以降がマッチング評
価値算出手段、図24フロー・チャートのS700ない
しS704が履歴記憶手段、図24フロー・チャートの
S706がモデル選択手段に相当する。
For claim 3, S10 of the flow chart of FIG. 5 corresponds to the image processing means, and S706 of the flow chart of FIG. 24 corresponds to the approximation means. For claim 4, S10 of the flow chart of FIG. Is an image processing means, the memory 39 in the block diagram of FIG. 2 is a road structure model storage means,
The matching evaluation value calculation means is from S104 onward in the flow chart of FIG. 10, the history storage means is from S700 to S704 of the flow chart of FIG. 24, and the model selection means is from S706 of the flow chart of FIG.

【0131】尚、上記において、近似関数として、平面
座標上を平行移動して得た関数曲線を用いたが、厳密に
は平行な走行路区分線を表現するためには、図30に示
したようなy軸方向に平行移動させた関数ではなく、各
走行路区分線が同心円または同心楕円となるような関数
で表現しなければならない
In the above description, a function curve obtained by moving in parallel on the plane coordinates is used as the approximate function, but strictly speaking, in order to express parallel running road lane markings, it is shown in FIG. It should be expressed by a function such that each runway dividing line becomes a concentric circle or a concentric ellipse, not a function translated in the y-axis direction.

【0132】しかしながら、図34に示すようなカーブ
半径が100Rより大きければ、円弧を二次関数で近似
しても精度上は問題ないと言うことができる。逆に、1
00R以下のカーブ半径を持つ道路を走行する場合に
も、50mの見通し距離を持つときは二次関数近似で十
分である。
However, if the curve radius as shown in FIG. 34 is larger than 100R, it can be said that there is no problem in accuracy even if the arc is approximated by a quadratic function. Conversely, 1
Even when traveling on a road having a curve radius of 00R or less, a quadratic function approximation is sufficient when the line-of-sight distance is 50 m.

【0133】更に言えば、多くの場合、道路のカーブは
円弧とその手前の緩和曲線(クロソイド曲線(二次関
数))とから構成されるので、両者を組み合わせて用い
るのが、精度面では最良である。尚、場合によっては、
直線を用いても良く、更には高次関数などを用いても良
い。また処理速度、走行路の形状(カーブ路の湾曲
度)、車速などから適宜選択しても良い。
Furthermore, in many cases, the curve of the road is composed of an arc and a relaxation curve (clothoid curve (quadratic function)) in front of it, so it is best to use both in combination in terms of accuracy. Is. In some cases,
A straight line may be used, or a higher-order function or the like may be used. Further, it may be appropriately selected from the processing speed, the shape of the traveling road (the degree of curvature of the curved road), the vehicle speed, and the like.

【0134】更に、上記で視覚センサを単眼視とした
が、両眼視による距離測定を用いて前方レーダなどを省
略しても良い。またレーダユニット12を車両前方のみ
設けたが、後方にも設けて車両後方の車線を認識しても
良い。また、上記において、走行路を「道路」、「車
線」、「走行レーン」などとも呼んだが、同一のものを
指称することは言うまでもない。
Furthermore, although the visual sensor is monocular in the above description, the front radar and the like may be omitted by using distance measurement by binocular vision. Further, although the radar unit 12 is provided only on the front side of the vehicle, it may be provided on the rear side to recognize the lane behind the vehicle. Further, in the above description, the traveling route is also referred to as “road”, “lane”, “traveling lane”, etc., but it goes without saying that the same route is referred to.

【0135】[0135]

【発明の効果】請求項1項においては、道路上に平行な
複数の走行路区分線がある場合でも、カメラの光学系の
歪みや車両の振動などの影響を受けることなく、正確に
走行路区分線を認識することができる。
According to the first aspect of the present invention, even when there are a plurality of parallel running road marking lines on the road, the running road can be accurately run without being affected by the distortion of the optical system of the camera or the vibration of the vehicle. The dividing line can be recognized.

【0136】請求項2項にあっては、請求項1項で述べ
た作用効果に加えて、道路構造モデルと抽出された線分
とのマッチングをグラフ理論におけるマッチング問題に
帰着させて解くことができ、マッチングしているか否か
を正確に求めることができる。
According to the second aspect, in addition to the action and effect described in the first aspect, the matching between the road structure model and the extracted line segment can be reduced to a matching problem in the graph theory and solved. It is possible to accurately determine whether or not there is a match.

【0137】請求項3項にあっては、道路上に平行な複
数の走行路区分線がある場合でも、カメラの光学系の歪
みや車両の振動などの影響を受けることなく、正確に走
行路区分線を認識することができる。
According to the third aspect of the present invention, even if there are a plurality of parallel lane markings on the road, the lane can be accurately traveled without being affected by the distortion of the optical system of the camera or the vibration of the vehicle. The dividing line can be recognized.

【0138】請求項4項に係る車両の道路構造認識装置
にあっては、道路上に平行な複数の走行路区分線がある
場合でも、カメラの光学系の歪みや車両の振動などの影
響を受けることなく、正確に走行中の道路構造を認識す
ることができる。
In the vehicle road structure recognizing apparatus according to the fourth aspect, even if there are a plurality of parallel running road lane markings on the road, the influence of distortion of the optical system of the camera, vibration of the vehicle, etc. It is possible to accurately recognize the road structure on which the vehicle is traveling without receiving it.

【0139】請求項5項にあっては、前記した効果に加
えて、一層正確に走行中の道路構造を認識することがで
きる。
According to the fifth aspect, in addition to the effects described above, it is possible to more accurately recognize the traveling road structure.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明に係る走行路区分線などの認識装置を
備えた車両を全体的に示す説明透視図である。
FIG. 1 is an explanatory perspective view generally showing a vehicle equipped with a recognition device for lane markings and the like according to the present invention.

【図2】図1に示すセンサおよびその処理などを詳細に
示すブロック図である。
FIG. 2 is a block diagram showing in detail the sensor shown in FIG. 1 and its processing.

【図3】図2ブロック図の構成をより機能的に示す図2
と同様の説明図である。
3 is a functional block diagram of the configuration of the block diagram of FIG. 2;
It is an explanatory view similar to.

【図4】図2ブロック図の画像処理ハードウェアの詳細
を示すブロック図である。
FIG. 4 is a block diagram showing details of image processing hardware of the block diagram of FIG. 2;

【図5】この出願に係る走行路区分線などの認識装置の
動作を示すメイン・フロー・チャートである。
FIG. 5 is a main flow chart showing an operation of a recognition device for a lane marking such as a traveling road according to the present application.

【図6】図5フロー・チャートの動作を機能的に示すブ
ロック図である。
FIG. 6 is a block diagram functionally showing the operation of the flow chart of FIG.

【図7】図5フロー・チャートの線分およびエッジ点列
の抽出作業を示す説明図である。
FIG. 7 is an explanatory diagram showing a work of extracting a line segment and a sequence of edge points in the flow chart of FIG. 5;

【図8】図2の画像処理CPUの処理を示す説明図であ
る。
FIG. 8 is an explanatory diagram showing a process of an image processing CPU of FIG.

【図9】図2の画像処理CPUのメモリに記憶(格納)
された道路構造モデルの例を示す説明図である。
FIG. 9 is stored (stored) in the memory of the image processing CPU of FIG.
It is explanatory drawing which shows the example of the constructed road structure model.

【図10】図5フロー・チャートの道路構造モデルとの
比較およびマッチング度の高い走行路区分線候補を得る
作業を示すサブルーチン・フロー・チャートである。
10 is a subroutine flow chart showing the operation of comparing the flow chart of FIG. 5 with a road structure model and obtaining a candidate roadway lane marking with a high degree of matching.

【図11】図10フロー・チャートの入力グラフを示す
説明図である。
11 is an explanatory diagram showing an input graph of the flow chart of FIG.

【図12】図10フロー・チャートの入力グラフ作成作
業を示すサブルーチン・フロー・チャートである。
FIG. 12 is a subroutine flow chart showing the input graph creation work of the flow chart of FIG. 10;

【図13】図12フロー・チャートの入力グラフ作成作
業を更に詳細に示すサブルーチン・フロー・チャートで
ある。
13 is a subroutine flow chart showing the input graph creation work of the flow chart of FIG. 12 in more detail.

【図14】図13フロー・チャートの接続関係を判定す
るための距離の算出を示す説明図である。
FIG. 14 is an explanatory diagram showing calculation of a distance for determining the connection relationship in the flow chart of FIG.

【図15】図13フロー・チャートの接続関係尺度を示
す説明図である。
FIG. 15 is an explanatory diagram showing a connection relation scale of the flow chart of FIG. 13;

【図16】図13フロー・チャートの平行関係を判定す
るための距離の算出を示す説明図である。
16 is an explanatory diagram showing calculation of a distance for determining the parallel relationship in the flow chart of FIG.

【図17】図13フロー・チャートの平行関係尺度を示
す説明図である。
FIG. 17 is an explanatory diagram showing a parallel relation scale of the flow chart of FIG. 13;

【図18】図10フロー・チャートの連合グラフの作成
作業を示すサブルーチン・フロー・チャートである。
FIG. 18 is a subroutine flow chart showing the work of creating the association graph of the flow chart of FIG. 10;

【図19】図18フロー・チャートの連合グラフの作成
作業を更に詳細に示すサブルーチン・フロー・チャート
である。
FIG. 19 is a subroutine flow chart showing the associating graph creation work of the flow chart of FIG. 18 in more detail.

【図20】図18フロー・チャートのマッチング予想評
価値の算出作業を示すサブルーチン・フロー・チャート
である。
FIG. 20 is a subroutine flow chart showing a task of calculating a matching expected evaluation value of the flow chart of FIG. 18;

【図21】図20フロー・チャートのマッチング予想評
価値の算出での得点を示す説明図である。
FIG. 21 is an explanatory diagram showing the scores in the calculation of the matching expected evaluation value in the flow chart of FIG. 20.

【図22】図10フロー・チャートのクリークの抽出作
業を示す説明図である。
22 is an explanatory diagram showing clique extraction work in the flow chart of FIG. 10; FIG.

【図23】図10フロー・チャートのマッチング評価値
の算出作業を示す説明図である。
FIG. 23 is an explanatory diagram showing a task of calculating a matching evaluation value in the flow chart of FIG. 10;

【図24】図5フロー・チャートの走行中道路構造と走
行路区分線の位置の推定作業を示すサブルーチン・フロ
ー・チャートである。
FIG. 24 is a subroutine flow chart showing an operation of estimating the traveling road structure and the position of the lane markings in the flow chart of FIG. 5;

【図25】図24フロー・チャートの分類作業に使用す
る走行路区分線位置情報についての表を示す説明図であ
る。
FIG. 25 is an explanatory diagram showing a table of traveling road lane marking position information used for classification work of the flow chart of FIG. 24;

【図26】図24フロー・チャートの分類作業で必要な
連続度の算出手法を示す説明図である。
FIG. 26 is an explanatory diagram showing a method of calculating the continuity required in the classification work of the flow chart of FIG. 24;

【図27】図24フロー・チャートのマッチング結果を
示す説明図である。
27 is an explanatory diagram showing a matching result of the flow chart of FIG. 24. FIG.

【図28】図24フロー・チャートのマッチング評価値
を説明する説明図である。
28 is an explanatory diagram illustrating a matching evaluation value of the flow chart of FIG. 24. FIG.

【図29】図24フロー・チャートのマッチング評価値
の経時的な変化を示すタイミング・チャートである。
FIG. 29 is a timing chart showing a change over time in the matching evaluation value of the flow chart of FIG. 24.

【図30】図24フロー・チャートの関数近似を示す説
明図である。
FIG. 30 is an explanatory diagram showing function approximation of the flow chart of FIG. 24.

【図31】図24フロー・チャートの関数近似作業にお
ける時刻補正演算マトリクスを示す説明図である。
FIG. 31 is an explanatory diagram showing a time correction calculation matrix in the function approximation work of the flow chart of FIG. 24;

【図32】図24フロー・チャートの時刻補正作業を説
明する説明図である。
FIG. 32 is an explanatory diagram illustrating a time correction operation of the flow chart of FIG. 24.

【図33】従来技術と出願に係る手法を対比的に示す説
明図である。
[Fig. 33] Fig. 33 is an explanatory diagram showing the conventional technique and the technique according to the application in comparison.

【図34】図24フロー・チャートの近似用の関数の特
性を示す説明図である。
34 is an explanatory diagram showing characteristics of a function for approximation of the flow chart of FIG. 24. FIG.

【符号の説明】[Explanation of symbols]

10 CCDカメラ(モノクロTVカメラ) 12 レーダユニット 14 ヨーレートセンサ 16 車速センサ 18 舵角センサ 30 画像処理ハードウェア 36 画像処理CPU 38 画像評価CPU 10 CCD camera (monochrome TV camera) 12 Radar unit 14 Yaw rate sensor 16 Vehicle speed sensor 18 Steering angle sensor 30 Image processing hardware 36 Image processing CPU 38 Image evaluation CPU

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // G05D 1/02 9061−5H G06F 15/70 460E ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location // G05D 1/02 9061-5H G06F 15/70 460E

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】a.車両に取り付けられた撮像手段により
撮像された、前記車両の走行路面を含む画像から所定の
特徴点を抽出し、それに基づいて走行路区分線に相当す
る複数の線分を抽出する画像処理手段と、 b.前記走行路区分線の幾何学的関係を表現した、複数
の道路構造モデルを記憶する道路構造モデル記憶手段
と、 c.前記抽出された複数の線分と前記複数の道路構造モ
デルとを比較し、所定のマッチング条件を満たす道路構
造モデルを選択するモデル選択手段と、 d.前記抽出された複数の線分の中から、前記選択され
た道路構造モデルとマッチングしている線分を選択する
線分選択手段と、 および e.前記選択された線分に対応する前記特徴点を、前記
複数の走行路区分線ごとに、走行路面上において実質的
に平行となる関数曲線または直線で近似して走行路区分
線とする近似手段と、からなることを特徴とする車両の
走行路区分線認識装置。
1. A. An image processing means for extracting a predetermined feature point from an image including the traveling road surface of the vehicle, which is imaged by the imaging means attached to the vehicle, and for extracting a plurality of line segments corresponding to the traveling road lane markings based on the characteristic point; B. A road structure model storage means for storing a plurality of road structure models expressing the geometrical relationship of the travel lane markings; c. Model selecting means for comparing the extracted line segments with the road structure models and selecting a road structure model satisfying a predetermined matching condition; d. Line segment selecting means for selecting a line segment that matches the selected road structure model from the plurality of extracted line segments; and e. Approximating means for approximating the characteristic points corresponding to the selected line segment by a function curve or a straight line that is substantially parallel on the traveling road surface for each of the plurality of traveling road lane markings, as a traveling road lane marking. And a vehicle lane marking line recognition device.
【請求項2】 前記道路構造モデルは節点および弧から
なるグラフ形式のデータとして前記道路構造モデル記憶
手段に記憶され、そこにおいて1個の節点は1個の走行
路区分線に対応すると共に、少なくとも「実線、破線」
の区別を示す線分属性値を持ち、1個の弧は2個の節点
間の関係を示し、該関係は少なくとも「平行関係、接続
関係」を含むものであることを特徴とする請求項1項記
載の車両の走行路区分線認識装置。
2. The road structure model is stored in the road structure model storage means as data in the form of a graph consisting of nodes and arcs, wherein one node corresponds to one traveling road lane marking and at least "Solid line, broken line"
2. A line segment attribute value indicating the distinction between two nodes, and one arc indicates a relationship between two nodes, and the relationship includes at least "parallel relationship, connection relationship". Vehicle lane marking recognition device.
【請求項3】a.車両に取り付けられた撮像手段により
撮像された、前記車両の走行路面を含む画像に基づいて
走行路区分線の存在位置を示す複数の点を検出する画像
処理手段と、 b.前記検出された複数の点を近似する所定の関数曲線
または直線を求める近似手段と、を含み、前記近似手段
によって求められた関数曲線または直線を走行路区分線
として認識する走行路区分線認識装置であって、前記近
似手段は、走行路区分線が複数である場合は、各走行路
区分線に対応する前記複数の点を前記走行路面を含む平
面において互いに平行な関数で近似することを特徴とす
る車両の走行路区分線認識装置。
3. A. Image processing means for detecting a plurality of points indicating the existing position of the lane marking based on an image including the road surface of the vehicle, which is imaged by the imaging means attached to the vehicle; b. And a means for approximating a predetermined function curve or straight line approximating the detected plurality of points, and recognizing the function curve or straight line obtained by the approximating means as a lane marking. Wherein the approximating means approximates the plurality of points corresponding to the respective traveling road lane markings to functions parallel to each other in a plane including the traveling road surface when the traveling road lane markings are plural. A vehicle lane marking recognition device.
【請求項4】a.車両に取り付けられた撮像手段により
撮像された、前記車両の走行路面を含む画像から所定の
特徴点を抽出し、それに基づいて走行路区分線に相当す
る複数の線分を抽出する画像処理手段と、 b.複数の線分の幾何学的関係で表現され、少なくとも
走行路ないし車線の数および自車が走行する走行路ない
し車線の位置によって区別される複数の道路構造モデル
を記憶する道路構造モデル記憶手段と、 c.前記抽出された複数の線分と前記複数の道路構造モ
デルとを比較し、所定のルールに従って抽出線分と各モ
デルのマッチング評価値を求めるマッチング評価値算出
手段と、 d.前記複数の道路構造モデルのうち全てまたは一部の
モデルについて前記マッチング評価値の現在から過去所
定時間分の履歴を記憶する履歴記憶手段と、および e.前記マッチング評価値の履歴に基づいて1つの道路
構造モデルを選択するモデル選択手段と、からなること
を特徴とする車両の道路構造認識装置。
4. A method according to claim 1, wherein An image processing means for extracting a predetermined feature point from an image including the traveling road surface of the vehicle, which is imaged by the imaging means attached to the vehicle, and for extracting a plurality of line segments corresponding to the traveling road lane markings based on the characteristic point; B. Road structure model storage means for storing a plurality of road structure models represented by a geometrical relationship of a plurality of line segments and distinguished by at least the number of roads or lanes and the positions of the roads or lanes on which the vehicle travels; , C. Matching evaluation value calculation means for comparing the extracted line segments with the road structure models and obtaining matching evaluation values for the extracted line segments and each model according to a predetermined rule; d. History storage means for storing a history of the matching evaluation values for a predetermined time in the past for all or some of the plurality of road structure models; and e. A road structure recognition device for a vehicle, comprising: a model selection unit that selects one road structure model based on a history of the matching evaluation values.
【請求項5】 前記モデル選択手段は、前記マッチング
評価値の履歴に対して平滑化を施した結果に基づいて1
つの道路構造モデルを選択することを特徴とする請求項
4項記載の車両の道路構造認識装置。
5. The model selection means sets 1 based on a result of smoothing the history of the matching evaluation values.
5. The road structure recognition device for a vehicle according to claim 4, wherein one road structure model is selected.
JP13872595A 1995-05-12 1995-05-12 Recognition device for vehicle lane markings Expired - Fee Related JP3538476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13872595A JP3538476B2 (en) 1995-05-12 1995-05-12 Recognition device for vehicle lane markings

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13872595A JP3538476B2 (en) 1995-05-12 1995-05-12 Recognition device for vehicle lane markings

Publications (2)

Publication Number Publication Date
JPH08315125A true JPH08315125A (en) 1996-11-29
JP3538476B2 JP3538476B2 (en) 2004-06-14

Family

ID=15228701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13872595A Expired - Fee Related JP3538476B2 (en) 1995-05-12 1995-05-12 Recognition device for vehicle lane markings

Country Status (1)

Country Link
JP (1) JP3538476B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099896A (en) * 1998-09-22 2000-04-07 Denso Corp Traveling path detecting device and vehicle traveling controller and recording medium
WO2007077682A1 (en) * 2005-12-28 2007-07-12 Honda Motor Co., Ltd. Vehicle and lane mark detection device
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
JP2013242609A (en) * 2012-05-17 2013-12-05 Fujitsu Ltd Program, image processing apparatus, and image processing method
EP2620930A4 (en) * 2010-09-24 2015-09-16 Toyota Motor Co Ltd Track estimation device and program
DE102015222259A1 (en) 2014-12-17 2016-06-23 Nidec Copal Corporation A vehicle-mounted image recognition device and method of making the same
US9864927B2 (en) 2013-01-24 2018-01-09 Isis Innovation Limited Method of detecting structural parts of a scene
US10109104B2 (en) 2013-02-21 2018-10-23 Oxford University Innovation Limited Generation of 3D models of an environment
US10255680B2 (en) 2014-05-30 2019-04-09 Oxford University Innovation Limited Vehicle localization

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8306269B2 (en) 2009-03-12 2012-11-06 Honda Motor Co., Ltd. Lane recognition device
JP5421819B2 (en) * 2010-02-25 2014-02-19 富士重工業株式会社 Lane recognition device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04205320A (en) * 1990-11-30 1992-07-27 Honda Motor Co Ltd Method for evaluating moving path data
JPH05149756A (en) * 1991-11-29 1993-06-15 Mazda Motor Corp Driving road recognition device for traveling vehicle
JPH0620189A (en) * 1992-06-29 1994-01-28 Nissan Motor Co Ltd Road shape measuring instrument
JPH0694470A (en) * 1992-09-14 1994-04-05 Alpine Electron Inc Vehicle position detecting device
JPH0727541A (en) * 1993-07-14 1995-01-27 Nissan Motor Co Ltd Measuring device for road shape and vehicle position

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04205320A (en) * 1990-11-30 1992-07-27 Honda Motor Co Ltd Method for evaluating moving path data
JPH05149756A (en) * 1991-11-29 1993-06-15 Mazda Motor Corp Driving road recognition device for traveling vehicle
JPH0620189A (en) * 1992-06-29 1994-01-28 Nissan Motor Co Ltd Road shape measuring instrument
JPH0694470A (en) * 1992-09-14 1994-04-05 Alpine Electron Inc Vehicle position detecting device
JPH0727541A (en) * 1993-07-14 1995-01-27 Nissan Motor Co Ltd Measuring device for road shape and vehicle position

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099896A (en) * 1998-09-22 2000-04-07 Denso Corp Traveling path detecting device and vehicle traveling controller and recording medium
US8208021B2 (en) 2005-12-28 2012-06-26 Honda Motor Co., Ltd. Vehicle and lane mark detection device
JPWO2007077682A1 (en) * 2005-12-28 2009-06-04 本田技研工業株式会社 Vehicle and lane mark detection device
JP4607193B2 (en) * 2005-12-28 2011-01-05 本田技研工業株式会社 Vehicle and lane mark detection device
WO2007077682A1 (en) * 2005-12-28 2007-07-12 Honda Motor Co., Ltd. Vehicle and lane mark detection device
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
JP4733545B2 (en) * 2006-03-27 2011-07-27 富士重工業株式会社 Lane recognition device
EP2620930A4 (en) * 2010-09-24 2015-09-16 Toyota Motor Co Ltd Track estimation device and program
JP2013242609A (en) * 2012-05-17 2013-12-05 Fujitsu Ltd Program, image processing apparatus, and image processing method
US9864927B2 (en) 2013-01-24 2018-01-09 Isis Innovation Limited Method of detecting structural parts of a scene
US10109104B2 (en) 2013-02-21 2018-10-23 Oxford University Innovation Limited Generation of 3D models of an environment
US10255680B2 (en) 2014-05-30 2019-04-09 Oxford University Innovation Limited Vehicle localization
DE102015222259A1 (en) 2014-12-17 2016-06-23 Nidec Copal Corporation A vehicle-mounted image recognition device and method of making the same
US9836659B2 (en) 2014-12-17 2017-12-05 Nidec Copal Corporation Vehicle-mounted image recognition apparatus and method of manufacturing the same

Also Published As

Publication number Publication date
JP3538476B2 (en) 2004-06-14

Similar Documents

Publication Publication Date Title
CN109086788B (en) Apparatus, method and system for multi-mode fusion processing of data in multiple different formats sensed from heterogeneous devices
JP3357749B2 (en) Vehicle road image processing device
CN111126269B (en) Three-dimensional target detection method, device and storage medium
CN111932580A (en) Road 3D vehicle tracking method and system based on Kalman filtering and Hungary algorithm
JP4328692B2 (en) Object detection device
US6906620B2 (en) Obstacle detection device and method therefor
JP3937414B2 (en) Planar detection apparatus and detection method
JP4297501B2 (en) Moving object periphery monitoring device
CN115372958A (en) Target detection and tracking method based on millimeter wave radar and monocular vision fusion
CN111551957A (en) Park low-speed automatic cruise and emergency braking system based on laser radar sensing
US12012102B2 (en) Method for determining a lane change indication of a vehicle
CN109917359B (en) Robust vehicle distance estimation method based on vehicle-mounted monocular vision
Huang et al. Tightly-coupled LIDAR and computer vision integration for vehicle detection
JP3538476B2 (en) Recognition device for vehicle lane markings
CN109633686B (en) Method and system for detecting ground obstacle based on laser radar
CN111612818A (en) Novel binocular vision multi-target tracking method and system
CN115243932A (en) Method and device for calibrating camera distance of vehicle and method and device for continuously learning vanishing point estimation model
JP2008310440A (en) Pedestrian detection device
CN115923839A (en) Vehicle path planning method
CN114693716A (en) Driving environment comprehensive identification information extraction method oriented to complex traffic conditions
US20240153106A1 (en) Object tracking device
CN113895439B (en) Automatic driving lane change behavior decision method based on probability fusion of vehicle-mounted multisource sensors
Mineta et al. Development of a lane mark recognition system for a lane keeping assist system
JP2006053754A (en) Plane detection apparatus and detection method
CN118033622A (en) Target tracking method, device, equipment and computer readable storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040322

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees