JP3288566B2 - 走行レーン認識装置 - Google Patents
走行レーン認識装置Info
- Publication number
- JP3288566B2 JP3288566B2 JP29137395A JP29137395A JP3288566B2 JP 3288566 B2 JP3288566 B2 JP 3288566B2 JP 29137395 A JP29137395 A JP 29137395A JP 29137395 A JP29137395 A JP 29137395A JP 3288566 B2 JP3288566 B2 JP 3288566B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- edge line
- equation
- lane boundary
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004364 calculation method Methods 0.000 claims description 72
- 238000007781 pre-processing Methods 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 description 48
- 238000003384 imaging method Methods 0.000 description 46
- 238000000034 method Methods 0.000 description 44
- 239000013598 vector Substances 0.000 description 29
- 238000010586 diagram Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 230000014509 gene expression Effects 0.000 description 17
- 238000000605 extraction Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 230000005674 electromagnetic induction Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012888 cubic function Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
て得た画像を処理することによってレーン形状やレーン
に対する位置姿勢を認識する走行レーン認識装置に関す
る。
ンを認識する走行レーン認識装置が知られている。この
走行レーン認識装置は、自律走行移動車において操舵制
御を行う自動走行制御装置、走行状態をチェックして警
告を発するドライバー警報装置、ドライバーによる操舵
など運転操作の補助を行うドライバー支援装置等に利用
される。
や、画像処理方式等があり、電磁誘導方式では、道路に
電波発信するケーブルを埋設しておき、車両に設けられ
たコイルに誘起される電流を検出して、走行レーンを検
出する。従って、電磁誘導方式では、道路にケーブルを
敷設しなければならないという問題がある。一方、白線
検出方式では、テレビカメラで得た画像情報を処理し
て、白線を検出する。従って、現存する道路における走
行レーンの検出にも適用できるという効果がある。しか
し、画像情報には、白線以外の情報もたくさん含まれて
おり、いかに正確に白線を認識するかが重要な課題にな
る。
ugh変換を使用して、レーン境界を検出するものがあ
る。この装置においては、車載カメラから道路画像を入
力し、輪郭線抽出した後、Hough変換によって直線
を検出する。そして、車両がレーン中央をレーンに沿っ
て走行していることを仮定して適切な直線をレーン境界
として認識する。
ンドウを設定するものが示されている。この走行路検出
装置においては、車載カメラから道路画像を入力して、
レーンマークや道路端を直線式として検出するが、この
際に前回の演算時における直線式の近傍に予め設定した
固定パラメータで大きさの定まるウインドウを設定して
おく。そして、このウインドウの中でエッジ点の座標を
計測し、それらのエッジ点を直線近似し、直線式を求
め、さらにノイズに対するロバスト性を向上させるため
直線式に時間フィルタリングを加える。
では、基本的に道路周辺に構造物(建物、ガードレー
ル)や他車両等のノイズが少ないことを仮定している。
この仮定は主に高速道路に当てはまる。しかし、一般路
では周辺構造物(ガードレール、建物)や路面マーク
(横断歩道)等の紛らわしい線が多い。さらに、高速道
路に比べて一般路の方が道路のカーブもきつい(道路曲
率が大きい)。従って、十分正確な白線検出(走行レー
ン認識)が行えないという問題点があった。
する方法では、基本的に直線しか扱えないため、カーブ
のきつい一般路への適用は難しい。また、一般路の画像
ではレーン境界に近接した線分が多いため、その選択が
困難であるという問題点があった。
法においても、一般路の画像ではウインドウ内にレーン
境界に近接した線分が多いため、その選択が困難であ
る。レーン境界とそれに近接したノイズ線分を誤認する
ことにより、レーンの計測精度が劣化するという問題点
があった。
題としてなされたものであり、周辺構造物や路面マーク
等の紛らわしい線が多く、道路のカーブがきつい場合で
も、精度良く走行レーンの検出ができる装置を提供する
ことを目的とする。
め、本発明においては、特許請求の範囲に記載するよう
に構成している。
ック図である。まず、図1において、画像入力手段1
は、道路画像を撮像するものであり、例えば車載TVカ
メラである。また、前処理手段2は、画像入力手段1か
らの信号を入力して、画像上のエッジ線分を抽出するも
のである。エッジ線分は、画像上のモノクロ濃淡値の明
暗の境界線(濃淡値の勾配の稜線)であり、レーン境界
の候補となる線分で、直線または曲線である。次に、曲
線照合手段3は、後記するレーン形状計算手段4で前の
演算時に計算されたレーン形状パラメータと、その分散
に基づいて、画像上のレーン境界位置と角度の範囲を推
定する。そして、前処理手段2で抽出されたエッジ線分
から、前記推定範囲に含まれるエッジ線分をレーン境界
候補として選択する。最後に、レーン形状計算手段4
は、曲線照合手段3で選択したエッジ線分からレーンを
特定するレーン形状パラメータと、その分散を計算す
る。
観測に基づく、レーン形状パラメータおよびその分散の
算出を繰り返し、これが次回の曲線照合に利用される。
従って、レーン形状計算手段4が、この計算を繰り返す
ことにより、レーン形状パラメータの分散が適切な値へ
収束する。曲線照合手段3は、レーン形状パラメータの
分散に基づいて画像上のエッジ線分の推定範囲を設定し
ているため、推定範囲の幅を適切に狭められる。これに
より、紛らわしいエッジ線分との誤認を防ぎ、精度が向
上できる。
ック図である。まず、図2において、画像入力手段1
は、道路画像を撮像するものであり、例えば車載TVカ
メラである。また、前処理手段2は、画像入力手段1か
らの信号を入力して、画像上のエッジ線分を抽出するも
のである。次に、白線選択手段5は、前処理手段2で抽
出されたエッジ線分から、レーン境界の候補となる白線
のエッジ線分対(白線の左右エッジを構成するエッジ
対)を選択して第1曲線照合手段3へ出力する。さら
に、白線選択手段5は、前処理手段2で抽出されたエッ
ジ線分から、白線のエッジ線分対を差し引いたエッジ線
分を第2曲線照合手段6へ出力する。次に、第1曲線照
合手段3は、後記するレーン形状計算手段4で前の演算
時に計算されたレーン形状パラメータとその分散に基づ
いて、白線選択手段5から出力された白線のエッジ線分
からレーン境界候補のエッジ線分を選択する。次に、第
2曲線照合手段6は、後記するレーン形状計算手段4で
前の演算時に計算されたレーン形状パラメータとその分
散に基づいて、白線選択手段5から出力された非白線の
エッジ線分からレーン境界候補のエッジ線分を選択す
る。次に、レーン境界選択手段7は、第1曲線照合手段
3と第2曲線照合手段6から入力されたレーン境界候補
のエッジ線分から、白線の特徴と長さの属性などに基づ
いてレーン境界の可能性の大きいエッジ線分を選択す
る。最後に、レーン形状計算手段4はレーン境界選択手
段7で選択したエッジ線分からレーン形状パラメータと
その分散を計算する。
ン境界が白線であるという情報を利用して、白線選択手
段5と第1曲線照合手段3とレーン境界選択手段7によ
り白線のエッジ線分を優先的に処理することにより、紛
らわしいエッジ線分との誤認を防ぎ、精度が向上できる
効果がある。
ック図である。まず、図3において、画像入力手段1
は、道路画像を撮像するものであり、例えば車載TVカ
メラである。また、前処理手段2は、画像入力手段1か
らの信号を入力して、画像上のエッジ線分を抽出するも
のである。次に、白線選択手段5は、前処理手段2で抽
出されたエッジ線分から、レーン境界の候補となる白線
のエッジ線分対を選択し記憶する。白線エッジ線分と非
白線エッジ線分とはともに近傍曲線照合手段21と遠方
曲線照合手段23へ出力される。次に、近傍曲線照合手
段21は、前回の演算時に近傍レーン形状計算手段22
および遠方レーン形状計算手段24においてそれぞれ更
新された車両近傍および遠方のレーン形状パラメータと
その分散に基づいて、車両近傍のレーン境界候補のエッ
ジ線分を選択し、近傍レーン形状計算手段22へ出力す
る。次に、近傍レーン形状計算手段22は、近傍曲線照
合手段21で選択したレーン境界候補のエッジ線分から
車両近傍のレーン形状に関わるレーン形状パラメータと
その分散を更新する。
近傍レーン形状計算手段22で更新されたレーン形状パ
ラメータとその分散に基づいて、遠方のレーン境界候補
のエッジ線分を選択し直し、遠方レーン形状計算手段2
4へ出力する。次に、遠方レーン形状計算手段24は遠
方曲線照合手段23で選択したレーン境界候補のエッジ
線分から遠方のレーン形状に関わるレーン形状パラメー
タとその分散を更新する。
画像上では遠方より車両近傍の方がレーン境界と他の構
造物(ガードレール、車両)との誤認が少なく、精度が
高いという性質を利用して、近傍曲線照合手段21と近
傍レーン形状計算手段22により車両近傍のレーン境界
から車両近傍に関わるレーン形状を先に処理する。これ
により、遠方曲線照合手段23において遠方のレーン境
界の探索範囲をより狭めることが可能となり、紛らわし
いエッジ線分との誤認を防ぎ、精度が向上できる効果が
ある。
する。図4(A)に示すように、近傍曲線照合手段21
では、前回の演算時に推定されたレーン形状パラメータ
と分散からレーン境界候補の探索範囲を設定するため、
遠方によく似た白線エッジa)、b)が存在した場合
に、どちらかを選択することができない。しかし、車両
近傍のエッジ線分を観測することにより近傍レーン形状
計算手段22でレーン形状パラメータとその分散を更新
すれば、よりその分散の値を小さくすることができ、レ
ーン境界の探索範囲を狭めることができる。よって、エ
ッジ線分a)を遠方のレーン境界候補として選択するこ
とができ、エッジ線分b)との誤認を防ぐことができ
る。
つの範囲を設定し、まず近傍の範囲で、レーン形状パラ
メータと分散を算出し、その次に近傍算出結果に基づい
て遠方のレーン形状パラメータと分散を算出した。しか
し、範囲を2種類でなく、多数(例えば、10)にし、
順次遠方の範囲の演算を行えば、さらに誤認の少ない走
行レーン認識を行うことができる。
ク図である。図5において、画像入力8は車載TVカメ
ラであり、道路画像を撮像して信号に変換する。また、
前処理9と、白線選択10と、曲線照合11、12とレ
ーン境界選択13とレーン形状計算14は、例えばマイ
クロコンピュータで構成され、車載TVカメラ8からの
信号を入力して画像処理を行ない、走行路(走行レー
ン)を検出する。出力結果は図示していない外部装置へ
送られ、ドライバー支援装置やドライバー警報装置や自
律走行移動車の制御等へ適用される。各処理部の説明を
以下に述べる。なお、本実施形態では、車載TVカメラ
8は車体の中心軸とカメラの中心軸が一致するように、
水平に前向きで取り付けるものとする。
によって得られた実画像(濃淡画像)からエッジ線分を
画像処理によって抽出する。エッジは画像中の濃淡値が
急激に変化する部分である。エッジ抽出には幾つかの方
法があるが、本実施形態では以下のステップで実施す
る。
より計算機に取り込む。1画面の画像情報がマトリクス
状に配列された画素毎デジタル値として取り込まれる。
淡勾配の方向と大きさを演算する。
する。
して表現する。
て得られる。ここで、このエッジ線分は以下の情報を持
つ。これらの情報は後の処理で利用される。
線分から、白線の両端に対応するエッジ線分対を選択す
る。この白線選択の処理手順は以下の通りである。
を有しており、エッジ線分を構成する点の数が設定閾値
以下の短いエッジ線分は、白線の両端に対応する線分で
ないと考えられるからである。
標値(座標系については後述)が等しいエッジ線分であ
る。水平線は道路周囲の建物や先行車両を構成する線で
ある可能性が高いからである。ただし、道路が曲がって
いる場合、遠方のレーン境界は水平に近くなる。このレ
ーン境界を除去しないように始点と終点のY’座標値に
差があるエッジ線分は除去しない。
線分対を選択する。このエッジ線分対とは、エッジ線分
の濃淡勾配の方向が互いに反対で、画像上のエッジ線分
の傾きが平行で、エッジ線分間の距離が白線幅(通常
0.15m)程度である条件を満たすエッジ線分であ
る。
エッジ線分リストから白線のエッジ線分リストと非白線
のエッジ線分リストを作成する。
入力された白線または非白線のエッジ線分リストからレ
ーン境界の候補のエッジ線分を選択する。
ン形状パラメータとその分散が既知であるか、その推定
値が得られていることを仮定する。このレーン形状パラ
メータとその分散から推定されるレーン境界位置の範囲
を撮像面上に投影する(後述する式(8)参照)。そし
て、図6に示すように、レーン境界位置の推定範囲内に
あるエッジ線分をレーン境界候補として選択する。この
ように、エッジ線分を予め設定した間隔で区切り、その
節となる点a、点b、…がレーン境界位置の推定範囲内
にあれば、そのエッジ線分をレーン境界候補とする。こ
の方法によれば、図6に示す曲線であっても容易に判定
することができる。また、画像上に十分な長さのレーン
境界エッジ線分を観測するか、または長時間にわたって
レーン境界エッジ線分を観測するならば、前記の分散は
小さくなり、レーン境界位置の推定範囲は十分に狭める
ことができる。
ーン形状の表現について説明する。以下の計算のため、
次の2つの座標系を設定する。
が局所的に平面上にあると仮定する。このとき、車載カ
メラの位置を平面上に投影した点を原点として、レーン
境界接線方向をX軸、その横方向をY軸、鉛直方向をZ
軸にとったXYZ直交座標系を設定する。以後、これを
車体座標系と呼ぶ。
中央を原点にとり、縦方向をY’座標軸、横方向をX’
座標軸とした直交座標系を設定する。X’座標軸は撮像
面から焦点位置へ向かって左側を正にとり、Y’座標軸
は上を正にとる。以後、これを撮像面上の座標系と呼
ぶ。
す。
の角度)[rad] φ :画像の縦揺れ(カメラ中心軸から走行平面に平行
な方向への角度[rad] a2:レーン形状を3次関数で表現した場合の2次のパ
ラメータ。道路曲率に対応する項 a3:レーン形状を3次関数で表現した場合の3次のパ
ラメータ。2次曲率に対応する項。
ーン境界の撮像面上の座標系に対する投影を考える。こ
のとき、車載カメラは車体の中心軸と一致するように設
定すると仮定する。図7にレーン境界の撮像面上のX’
座標値を示す。これにより、X’軸状の値x’は、次の
式(1)のように表される。
は左レーン境界を示す。
を示す。これによりY’軸上の値y’は、次の式(2)
のように表される。
である。
ーン境界推定位置からエッジ線分までの距離の標準偏差
σmを求め、この値に基づいて照合を行う。すなわち、
図9に示すように、白線選択から入力された白線または
非白線のエッジ線分リストの中のエッジ線分から、レー
ン境界推定位置からの距離ασm以内のエッジ線分を選
択し、レーン境界の候補とする。ただし、αは1〜3程
度の値である。
合、撮像面上のレーン境界の推定位置は式(3)と式
(4)で計算される。
境界の推定接線角度ωmは式(5)で計算される。
場合は負、右レーン境界の接線角度を計算する場合は正
である。
の撮像面上のレーン境界の推定範囲のσmの計算式を以
下に示す。σmは点(x´c,y´c)から観測される
レーン境界エッジ線分までの距離の標準偏差を示す。こ
の距離は接線角度ωmに垂直な方向へとる。
値の平方根)と式(3)より、式(6)が得られる。こ
の式より、X’座標方向の観測されるレーン境界エッジ
線分とレーン形状との間の距離の標準偏差σx’が計算
できる。
代入することにより、式(7)が得られる。この式よ
り、Y´座標方向の観測されるレーン境界エッジ線分と
レーン形状との間の距離の標準偏差σy’が計算でき
る。
を加算することにより、式(8)でσmが計算できる。
分との間の距離の標準偏差 σφ : φの標準偏差 σa3 : a3の標準偏差 σa2 : a2の標準偏差 σe : eの標準偏差 σθ : θの標準偏差 σω : ωの標準偏差 σox' : 撮像面上のX’座標軸方向の観測誤差の標準
偏差 σoy' : 撮像面上のY’座標軸方向の観測誤差の標準
偏差 各標準偏差は、各パラメータの誤差分散の平方根から求
める。誤差分散はレーン形状パラメータをカルマンフィ
ルタで更新する時に得られる推定誤差の共分散行列の対
角要素を使用する。
なくレーン形状パラメータの分散値が大の場合、図10
に示すように撮像面上に投影した左右レーン境界位置の
推定範囲が重なる。この重なった範囲内の線分は左右の
レーン境界のどちらであるか判定困難である(図10の
線分b)。判定を誤って観測データとして採用した場
合、レーン形状の推定誤差が増大する。よって、左右レ
ーン境界の推定範囲が重なった部分のエッジ線分はレー
ン境界候補としない。
推定したレーン境界との角度の差が予め設定した閾値を
越えるものを候補エッジ線分から外す(図10の線分
a)。 「レーン境界選択」次に、曲線照合により得られた白線
または非白線のレーン境界の候補のエッジ線分がレーン
境界選択へ入力される。レーン形状パラメータの分散が
十分小さくなっていない場合、レーン境界に平行な近傍
のエッジ線分も同時に選択することがある。この例とし
て、車の通った轍や縁石の線が挙げられる。このように
複数のレーン境界候補が撮像面上の同じ場所で照合する
場合、以下の2つの仮定により、図11に示すように、
レーン境界の可能性の大きいエッジ線分を選択する。な
お、同じ場所で照合するエッジ線分候補が1つの場合
は、それを選択する。
境界である可能性が高い。このとき、白線を構成するエ
ッジ線分とは濃淡勾配の方向が互いに逆向きの平行なエ
ッジ線分対である。
縁石等のレーン境界エッジ線分である可能性が高い。
界候補のエッジ線分リストから左右のレーン境界候補の
エッジ線分で、始点または終点の撮像面上の座標系で
Y’座標値が予め設定した値以上のエッジ線分を選択す
る。選択したエッジ線分からレーン幅Wと画像の縦揺れ
φとヨー角θと位置偏差eを計算する。
分に撮像面上の座標系で直線を適合し、式(9)の左側
エッジについての各パラメータal、blを求める。直
線適合の計算はエッジ線分を構成する点の位置座標値に
最小自乗法を適用して、al、blを求める。ただし、
最小自乗法の計算に使用する点のデータは撮像面上の座
標系でY’の大きい方(車体座標系のX座標値の小さい
方)から設定した数以上は使用しない。
ら、式(10)のパラメータar、brを求める。
1)へ代入して、ωrとφとθとeの観測値を求める。
合は、前回のレーン形状パラメータによるφとωrの推
定値を採用し、式(12)からθとeを求める。
かった場合も、レーン形状パラメータによるφとωrの
推定値を採用し、式(13)からθとeを求める。
ン境界が観測できた場合には、次にヨー角θと位置偏差
eとレーン幅ωrと画像の縦揺れφの観測値により、こ
れらパラメータをカルマンフィルタの手法で更新する。
カルマンフィルタは、システムが線形で、システムノイ
ズおよび観測ノイズが白色雑音で、そのノイズの振幅分
布が正規分布である場合に、状態量を最小2乗規範で推
定する。さらに、カルマンフィルタの計算の過程から状
態量の誤差分散が求められる。この誤差分散を前記曲線
照合で利用している。
れば、既知のカルマンフィルタの計算方法を適用するこ
とができる。よって、以下ではシステムのダイナミクス
と観測過程の式を示す。
つの線形システムに分割される。以下では各システムの
内容を示す。
する状態変数ベクトルの線形システムである。この状態
変数ベクトルp1を式(14)に示す。
ダイナミクスと区別するため、数字の1を添字として付
加した。
更新周期当たりのヨー角と位置偏差の変動分の標準偏差
を設定する。p1の観測過程を式(17)に示す。他の
観測過程との区別のために数字の1を添字で付加する。
る観測ノイズのω1の分散が設定できる。
する状態変数ベクトルの線形システムである。この状態
変数ベクトルp2を式(19)に示す。
ダイナミクスとの区別のために数字の2を添字で付加す
る。
設定する。行列D2の要素を式(22)に示す。
区別のために数字の2を添字で付加する。
る観測ノイズのw2の分散が設定できる。
する状態変数ベクトルの線形システムである。この場合
の状態ベクトルp3を式(25)に示す。
ダイナミクスとの区別のために数字の3を添字で付加す
る。
画面の縦揺れの変動分の標準偏差を設定する。
観測過程との区別のために数字の3を添字で付加する。
測ノイズのω3の分散が設定できる。
合)レーン境界エッジ線分が観測できず、ヨー角θと位
置偏差eとレーン幅ωrと画像の縦揺れφの観測値が観
測できない場合、観測値無しでカルマンフィルタの手法
で更新する。この場合、線形システムは行列A1とA2
とA3とD2の設定が前述と異なる。他の行列の設定は
同じである。
仮定し、ヨー角θと位置偏差eを0へ収束させる項η1
とη2をダイナミクスへ付加する。この場合の行列A1
の各要素を式(30)に示す。
収束させる項η3をダイナミクスへ付加する。この場合
の行列A2の各要素を式(31)に示す。
般に、高速道路ではωs=3.5[m]、一般道路では
ωs=3.0[m]と設定すれば良い。
レーン幅φを収束させる項η4をダイナミクスへ付加す
る。この場合の行列A3の各要素を式(33)に示す。
上の座標系でY’座標値が設定値以下の点を設定数だけ
サンプルする。サンプルした点の撮像面上の座標系X’
Y’座標値を観測値としてレーン形状パラメータa3と
a2をカルマンフィルタの手法で更新する。
形システムのダイナミクスと観測過程を以下に示す。
の線形システムを考える。この場合の状態ベクトルp4
を式(34)に示す。
ダイナミクスとの区別のために数字の4を添字で付加す
る。
りのa3とa2の変動分の標準偏差を設定する。
観測過程との区別のために数字の4を添字で付加する。
siはサンプルした点の車体座標上のX座標値で、式
(39)で計算する。
ある。画像の縦揺れφはレーン形状パラメータの推定値
を使用する。
その値はパラメータθとωrに依存する量をサンプル点
のX’座標値から差し引いた量である。
ある。±の符号は正の場合が右レーン境界、負の場合が
左レーン境界である。
する。
路曲率の計算」遠方レーン境界が観測できない場合、観
測値無しでカルマンフィルタの手法で更新する。この場
合、線形システムは行列A4の設定が前述と異なる。他
の行列の設定は同じである。
直線路へつながることを仮定して、道路曲率を表すa3
とa2を減衰させる項η5とη6をダイナミクスへ付加
する。この場合の行列A4の各要素を式(41)に示
す。
実施形態のブロック図である。図において、画像入力
(車載TVカメラ)31は、道路画像を撮像して信号に
変換する。また、前処理32と白線選択33と近傍曲線
照合34と近傍レーン形状計算35と遠方曲線照合36
と遠方レーン形状計算37とは、例えばマイクロコンピ
ュータで構成され、車載TVカメラ31からの信号を入
力して画像処理を行ない、走行レーンを検出する。出力
結果は図示していない外部装置へ送られ、ドライバー支
援装置やドライバー警報装置や自律走行移動車の制御等
へ適用される。各処理部の説明を以下に述べる。
メラの中心軸が一致するように、水平に前向きで取り付
けるものとして、以下の実施形態を記述する。
形態と同じである。
態と同じである。
形態と同じであるが、得られた白線のエッジ線分リスト
と非白線のエッジ線分リストは、近傍曲線照合34およ
び遠方曲線照合36の両方へと出力される。
抽出から入力された白線と非白線のエッジ線分リストか
ら車両近傍の左右レーン境界候補のエッジ線分を選択す
る。前回の演算時の計算結果からレーン形状パラメータ
とその分散の推定値が得られていることを仮定する。
良いので、始点または終点の撮像面上のY’座標値が予
め設定した値以上となるエッジ線分を選択する。
レーン形状パラメータとその分散から推定されるレーン
境界位置の範囲を撮像面上に投影する(式(8)参
照)。そして、その範囲内にあるエッジ線分をレーン境
界候補として絞り込む(図6参照)。図6に示すように
エッジ線分を予め設定した間隔で区切り、その節となる
点a、点b、… がレーン境界位置の推定範囲内にあれ
ば、そのエッジ線分をレーン境界候補とする。
置は式(3)と式(4)で計算する。レーン境界の推定
接線角度は式(5)で計算する。さらに、画像上のレー
ン境界推定位置(x’c,y’c)から観測されるレー
ン境界までの距離の標準偏差σmは式(6)と式(7)
と式(8)とから計算される。
のエッジ線分リストの中のエッジ線分上の点a、点b、
…が、距離ασm以内にあり、推定接線角度とエッジ線
分上の点における接線角度との差が予め設定した閾値以
下となるエッジ線分を選択し、左右レーン境界の候補と
する。(この場合、αは1〜3程度の値である。)ただ
し、ασmの値が予め設定した閾値より大きくなる箇所
からはエッジ線分を選択しない。
を白線、非白線の順に、そして、各々をエッジ線分を構
成する点数の多い順に整列させる。
ーン境界候補のエッジ線分へ絞り込む。整列させた左レ
ーン境界候補のエッジ線分から順に予め設定した数だけ
取り出し、撮像面上の座標系で直線を適合し、式(9)
の各パラメータal、blを求める。直線適合の計算は
線分を構成する点の位置座標値に最小自乗法を適用し
て、al、blを求める。ただし、最小自乗法の計算に
使用する点のデータは撮像面上の座標系でY’の大きい
方(車体座標系のX座標値の小さい方)から設定した数
以上は使用しない。
線分から順に予め設定した数だけ取り出し、式(10)
のパラメータar、brを求める。
ーン境界候補のエッジ線分の全ての組合せの各パラメー
タal、bl、ar、brから道路幅ωrと画像の縦揺
れφとヨー角θと位置偏差eとを計算し、さらにその推
定値からの重み付きユークリッド距離dを計算する。重
み付きユークリッド距離dが最小となり、予め設定した
閾値より小さくなるエッジ線分の組合せから求められる
ωrとφとθとeを観測値として採用する。
からωrとφとθとeを計算する式を式(42)に示
す。
ン形状パラメータを使用する。また、xc はエッジ線分
の車体座標系X座標値であるが、前回の演算時に推定さ
れたレーン形状パラメータφとエッジ線分の撮像面上座
標系Y’座標値y’から式(43)より計算する。
ユークリッド距離dを計算する場合の式を式(44)、
式(45)に示す。このとき、cωは重みである。
付け。点の数に対応して大となるように設定 lr:右側のエッジ線分に含まれる点の数に関する重み
付け。点の数に対応して大となるように設定 cl:左側のエッジ線分の特徴に関する重み付け。非白
線より白線の場合の方が大となるように設定 cr:右側のエッジ線分の特徴に関する重み付け。非白
線より白線の場合の方が大となるように設定。
る場合の式を式(46)に示す。このとき、φとωrは
前回の演算時の推定値を採用する。
リッド距離dを計算する場合の式を式(47)、式(4
8)に示す。
る場合の式を式(49)に示す。このとき、φとωrは
前回の演算時の推定値を採用する。
リッド距離dを計算する場合の式を式(50)、式(5
1)に示す。
により、車両近傍レーン形状に関わるパラメータ、ヨー
角θと位置偏差eとレーン幅ωrと画像の縦揺れφの現
時刻の推定値とその誤差分散をカルマンフィルタの手法
で更新する。
れば、既知のカルマンフィルタの計算方法を適用するこ
とができる。これについては、第1実施形態におけるレ
ーン形状計算と同一である。
白線抽出から入力された白線または非白線のエッジ線分
リストから、現在の道路画像に基づいて近傍レーン形状
計算35により更新されたレーン形状パラメータとその
分散によりレーン境界の候補のエッジ線分を選択し直
す。現在の道路画像に基づいてレーン形状パラメータと
その分散が更新されているため、近傍曲線照合34に比
べてよりレーン境界候補の探索範囲が限定される。
要がないため、始点または終点の撮像面上のY’座標値
が予め設定した値以下となるエッジ線分を選択する。こ
の後の曲線照合の手法は、近傍曲線照合34と同様であ
る。
ーン形状パラメータとその分散から推定されるレーン境
界位置から範囲内のエッジ線分を選択した後白線を抽出
し、左右のレーン境界候補のエッジ線分を白線、非白線
の順、かつ各々のエッジ線分を構成する点数の多い順に
整列させる。
で選択されたレーン境界候補のエッジ線分を構成する点
から、撮像面上の座標系のY’座標値が設定値以下とな
る点を予め設定された数だけサンプルする。サンプルし
た点の撮像面上の座標系のX’Y’座標値を観測値とし
てレーン形状パラメータa3とa2の現時刻の推定値と
その誤差分散をカルマンフィルタの手法で更新する。遠
方レーン形状計算37で更新されたa3とa2と、近傍
レーン形状計算35で更新されたパラメータ、ヨー角θ
と位置偏差eとレーン幅ωrと画像の縦揺れφの現時刻
の推定値とその誤差分散が出力として、ここでは示さな
いが外部装置への出力となる。
次の時刻の道路形状パラメータa3とa2とヨー角θと
位置偏差eとレーン幅ωrと画像の縦揺れφの推定値と
その誤差分散が予測されて、近傍曲線照合34へ出力さ
れる。
に必要な線形システムのダイナミクスと観測過程を以下
に示す。
の線形システムを考える。この場合の状態ベクトルp4
を式(52)に示す。
ダイナミクスとの区別のために数字の4を添字で付加す
る。
項である。
更新周期当たりのa3とa2の変動分の標準偏差を設定
する。
観測過程との区別のために数字の4を添字で付加する。
siはサンプルした点の車体座標上のX座標値で、式
(57)で計算する。
ある。φはレーン形状パラメータの推定値を使用する。
その値はパラメータθとeとωrに依存する量をサンプ
ル点のX’座標値から差し引いた量である。
ある。±の符号は正の場合が右レーン境界、負の場合が
左レーン境界である。
する。
く近傍と遠方に分割し、近傍の道路画像を優先的に処理
することにより誤認を防いでいた。道路画像をより細分
化して、自車近傍から遠方へ向けて順に処理していくこ
とにより、さらに誤認を減らすことが可能である。この
考えに基づく第3実施形態を以下に示す。
ク図である。図13において、車載TVカメラ41は、
道路画像を撮像して信号に変換する。前処理42と、曲
線照合43、45、47と、レーン形状計算44、4
6、48は、例えばマイクロコンピュータで構成され、
車載カメラ41からの信号を入力して画像処理を行い、
走行レーンを検出する。
れぞれがほぼ同等の処理を実行するため、単一の曲線照
合により、繰り返し処理を実施してもよい。同様に、レ
ーン形状計算44、46、48も、単一のレーン形状計
算により繰り返し処理を実施してもよい。また、図中の
点線部分は図示していないが、曲線照合45とレーン形
状計測46と同等のブロックが複数個並んでいる。出力
結果は図示していないが外部装置へ送られ、ドライバー
支援装置やドライバー警報装置や自律走行移動車の制御
等へ適用される。
実施形態では、車載TVカメラ41は車体の中心面上
に、水平に前向きで取り付けるものとする。
て、道路座標系と車体座標系と撮像面上の座標系の3つ
の直交座標系を定義する。
像面中心を原点に設定する。縦方向をx軸に、横方向を
y軸にとる。
を表すためのものである。図に示すように、車載カメラ
のレンズ中心位置を基準にレーン中央の路面上に原点を
設定する。レーン境界の接線方向をZ軸、路面に垂直な
方向をX軸、右方向にY軸をとり、カメラのレンズ中心
位置がZ=0となるように設定する。
レンズ中心を原点として、レンズ主軸方向にZ´軸を、
撮像面上のx軸に平行にX´軸をとり、撮像面上のy軸
に平行にY´軸をとる。
載されたカメラ位置姿勢と一致するものとする。以上の
座標系を図14に示す。
として、レーンに対するカメラ高さh、位置偏差е、ヨ
ー角θ、ピッチ角φ、ロール角ψを設定する。道路座標
系と車体座標系との関係は以上のパラメータにより決ま
る。車体座標系は、道路座標系を(h,е,0)だけ並
進した後、θ、φ、ψの順に回転させた座標系である。
θはYZ平面に射影したZ´軸とZ軸との間の角度、φ
はZ´とYZ平面との間の角度、ψはZ´軸回りの回転
角である。
(X,Y,Z)は、式(74)〜式(76)により車体
座標系上の点(X´,Y´,Z´)へ変換される。
(77)〜式(85)で表現される。
´,Y´,Z´)の撮像面上の座標系(x,y,z)へ
の変換は、以下の投影変換で表現される。ただし、この
式におけるFx とFy は、TVカメラの焦点距離に関す
る係数である。
面曲線と縦断曲線として規格化されている。平面曲線は
円弧と、直線と、これらを滑らかに接続するためのクロ
ソイド曲線で表される緩和曲線と、から構成される。ま
た、縦断曲線は直線と放物線により構成される。
率半径が100m以上の道路を想定する。ただし、バン
クに相当する片勾配は無視できると仮定する。この場
合、制動停止距離程度のレーン形状は、その平面曲線は
3次、縦断曲線は2次の多項式で十分表現できる。
ここで、Zc はレーンの中心線のZ座標値である。
ン境界の場合は−1、右レーンの境界の場合は1であ
る。
面勾配変化は、平面から2次曲線まで対応可能になって
いる。また、Y及びZの式には、レーン幅の1/2であ
る変数Wを入れてあり、レーン幅を考慮できるようにな
っている。
で計算できる。
1枚の道路画像に対して、モデルとの照合とパラメータ
推定を繰り返して実施する点である。この手順の概要を
以下に示す。なお、ここではレーン境界が左右に2つの
観測する場合で説明したが、レーン境界を3つ以上観測
する場合でも同様の手順で処理できる。
力する。
特徴を抽出する。
に基づいて更新したモデルのパラメータの推定値とその
共分散行列から、現在のパラメータの推定値とその共分
散行列の推定値を計算する。そして、得られた現在のパ
ラメータの推定値とその共分散行列に基づいて、Zc,i
に対応するレーン境界の撮像面上の予測位置(xp ,y
p )と照合範囲を計算する(このとき、κ=1)。この
照合範囲内からレーン境界候補の座標値(x,y)を検
出し、その位置を観測する。
界候補についての観測結果から、パラメータの推定値と
その共分散行列を更新する。
Zc,i に対応する隣のレーン境界候補を観測する(この
とき、κ=−1)。
にて、レーン境界候補の観測結果から、パラメータの推
定値とその共分散行列を更新する。
1 >Zc,i )に対応するレーン境界候補を観測し、パラ
メータの推定値と、その共分散行列の更新を繰り返す。
すなわち、図15に示すように、車両の近傍から遠い方
に向けてモデルとの照合を順次行う。
ラメータ更新の考え方を示す。本実施形態では、前記し
た自車位置姿勢パラメータと、レーン形状パラメータ
と、車両の走行状況のパラメータと、を要素として含む
12次元状態ベクトルpを設定し、この最ゆう推定量を
カルマンフィルタで計算する。カルマンフィルタとは、
観測値から状態ベクトルpkの最ゆう推定量p^を求め
るフィルタである。
ているが、車輪の回転数に基づいて設定しても良い。ま
た、計算コスト削減のためにW(レーン幅の1/2)と
h(カメラ高さ)を一定値と設定してもよい。さらに、
車両の走行状態が急変しないものと仮定して、▲θ▼
(ヨーレイト)とβ(滑り角)の推定をやめて計算コス
トを削減してもよい。
で、道路モデルから予測されたレーン境界上の点(xp
,yp )における接線1を考える。このとき、接線1
から、点(xp ,yp )近傍のレーン境界候補の観測位
置(x,y)までの距離d(観測位置から接線1への垂
線の長さ)は、次式で計算される。
離dを観測値とするカルマンフィルタを構成する。これ
により、dを観測値として、パラメータ推定値とその誤
差共分散を更新する式が得られる。
きる。
44、46、48の構成を図16に示す。このように、
曲線照合43において、現在のパラメータの推定値を計
算する(b)とともに、その共分散行列の推定値を計算
する(a)。次に、推定パラメータより(xp ,yp )
を推定し(d)、その近傍から共分散に基づいてレーン
境界の観測位置(x,y)を検出する(c)。
て、レーン形状計算44、46、48が、得られた値に
よって、カルマンフィルタによるフィルタリングを行
い、パラメータ及び共分散行列を更新する(f)。そし
て、更新された値に基づいて、次の計算を行う。このよ
うにして、近傍から遠方に向けて順次処理が行われる。
ン・フィルターの構成を説明する。ここで、状態ベクト
ルpのダイナミクスは次式で表現されるものとする。
次式で表現されるものとする。
率ベクトルで、共分散行列が式(100)と(101)
で表現されると仮定する。
め、状態推定値pk/k 、pk/k-1 で線形化して、線形カ
ルマンフィルタを適用する。なお、このようなフィルタ
は、線形カルマンフィルタと区別して、拡張カルマンフ
ィルタと呼ばれる。
張カルマンフィルタによる状態ベクトルpの最ゆう推定
量p^(pハット)とその推定誤差共分散行列pの更新
は、式(102)〜(108)で表される(参考文献:
片山徹著、応用カルマンフィルタ、朝倉書店刊 (19
83))。
ーン中央を走行していると仮定して設定する。また、P
の初期値P0/-1はレーン境界が検出できるように大きめ
の値を設定しておく。
の計算式を示す。まず、式(103)より、Hk は、次
のように表せる。
れる。
より、次式が得られる。
状態ベクトルpの各要素で偏微分した値を式(112)
へ代入することにより求めることができる。
1行12列の行列であり、添字は行と列の番号を示す。
ス(ある画像から次の画像へと移る場合のダイナミク
ス)を示す関数fを状態ベクトルpの各要素で偏微分し
た行列F(式(104)参照)の計算を示す。
測して、拡張カルマンフィルタにより状態ベクトルp更
新する場合は時間変化はないので、次式のようにpの更
新はなく、Fは単位行列となる。
た場合、状態ベクトルpのダイナミクスは自車の走行に
よる自車位置姿勢の変化と道路の曲率変化によって生じ
る。ダイナミクスの設定にはいろいろな考え方がある
が、本実施形態では比較的簡単な式で表現した。θとе
のダイナミクスを式(124)〜(125)で表現す
る。
26)で表現する。
は無視できると仮定し、式(123)で表現する。
することにより、行列Fの各要素が計算できる。
の変動分を予め見積って、適当な量を設定する。ただ
し、同時刻の画像上のレーン境界を連続的に観測して、
拡張カルマンフィルタに状態ベクトルp更新する場合
は、時間変化はない。このため、この場合にはQは、零
行列となる。また、観測ノイズの誤差共分散行列Rは画
素分解能に基づいて設定する。
ッジ線分抽出を実施する。そこで、これについて説明す
る。エッジとは画像中の濃淡値が急激に変化する部分で
ある。エッジ抽出は以下のステップで実施する。
算機に取り込む処理。1画面の画像情報がマトリックス
状に配列された画素毎デジタル値として取り込まれる。
淡勾配の方向と大きさを演算する。
る処理。
して表現する。
のとする。これらの情報は後の処理で利用される。
道路画像全体を一括してエッジ抽出を実施しているが、
高速化のために曲線照合43、45、47で設定された
照合範囲近傍のみを局所的に前処理してもよい。
算によるパターンマッチング等を利用してもよい。この
ような変形例のブロック図を図18に示す。このよう
に、各曲線照合43、45、47の前段にそれぞれ前処
理42、49、50が挿入配置される。
処理を以下に示す。
予測されたレーン境界位置(xp ,yp )を中心とし
て、後述する照合範囲内からレーン境界の候補の位置座
標(x,y)を求める。このとき、観測値dは式(9
3)より求められる。このときp^は式(102)で更
新しておく。
値として求められる。即ち、図17に示すように、接線
1より距離σ(dk )〜3σ(dk )の範囲内を照合範
囲と設定する。
ラメータの誤差共分散行列Pの撮像面上への投影の平方
根と考えられるため、式(142)と式(143)で計
算できる。このときPは式(105)で更新しておく。
で選択する。
り、照合範囲内のエッジ線分座標値(x,y)を得る。
り、撮像面上の座標上のエッジ線分の濃淡勾配の角度と
接線1に直交する角度とを比較し、その差が予め設定し
た値より大きい場合は除外する。
像面上の座標上のエッジ線分の始点終点間の長さを求
め、それが予め設定した値より小さい場合は除外する。
複数残っている場合は、各エッジ線分の座標値(x,
y)を式(93)に代入して距離dを求め、その大きさ
が最小の値を距離の観測値として採用する。
測した距離dにより、p^k/k とPk/k を式(106)
〜(108)により更新する。
できなかった場合、式(144)と式(145)に示す
ように、p^k/k とPk/k を更新する。この場合、誤差
共分散Pは減少しない。
更新が行われる。
路画像を車両の近傍から遠方に向けて細かく分け、近傍
から順次遠方に向けて処理を行う。従って、道路形状認
識おける誤認をより効率的に防止することができる。
は、前処理によってエッジ線分を抽出した後、前の演算
時のレーン形状パラメータとその分散値に基づいて画像
上に曲線の帯状の探索領域を設定し、その領域内のエッ
ジ線分をレーン境界候補として選択し、その選択エッジ
線分によりレーン形状パラメータとその分散を更新す
る。そこで、レーン形状パラメータの分散に基づいて、
探索領域の幅を適切に狭めることができ、紛らわしいエ
ッジ線分との誤認を防ぎ、精度が向上できる効果があ
る。さらに、曲線の帯状の探索領域を設定することによ
り、高速道路に比べてカーブの急な一般路での曲線エッ
ジ線分の照合が容易になるという効果がある。また、白
線を選択する機能を有する装置においては、一般的にレ
ーン境界が白線であるという情報を利用して、紛らわし
いエッジ線分との誤認を防ぎ、精度が向上できる効果が
ある。
両近傍の方がレーン境界と他の構造物(ガードレール、
車両)との誤認が少ないという性質を利用して、近傍曲
線照合手段と近傍レーン形状計算手段により車両近傍の
レーン境界から車両近傍に関わるレーン形状を優先的に
処理することにより、遠方曲線照合手段と遠方レーン形
状計算手段において遠方のレーン境界と紛らわしいエッ
ジ線分との誤認を防ぎ、精度が向上できる効果がある。
路画像を近郷から遠方にかけてより細分化して、自車近
傍から遠方に向けて順次処理を実施することにより、さ
らに誤認を減らすことができる。
ある。
ある。
ある。
探索範囲の例を示す図である。
る。
図である。
図である。
y’c)、道路端の接線角度ωm、観測される線分まで
の距離の標準偏差σmを示す説明図である。
に生じる照合の不具合を示す説明図である。
のエッジ線分が重なった場合を示す説明図である。
る。
る。
明図である。
説明図である。
ある。
る。
段、4 レーン形状計算手段。
Claims (3)
- 【請求項1】 道路画像を撮像する画像入力手段と、 得られた画像における濃淡の勾配の大きさと方向の少な
くとも一方に基づいて、曲線を含むエッジ線分を抽出す
る前処理手段と、 前回の演算時におけるレーン形状パラメータとその分散
に基づいてレーン境界の範囲を推定すると共に、推定さ
れた範囲に基づいて抽出されたエッジ線分の中からレー
ン境界候補を選択する曲線照合手段と、 そのレーン境界候補からレーン形状を特定するレーン形
状パラメータと、その分散を計算するレーン形状計算手
段と、 を備えたことを特徴とする走行レーン認識装置。 - 【請求項2】 道路画像を撮像する画像入力手段と、 得られた画像における濃淡の勾配の大きさと方向の少な
くとも一方に基づいて、曲線を含むエッジ線分を抽出す
る前処理手段と、 抽出されたエッジ線分の中から、その濃淡変化が白線に
対応するエッジ線分対である白線エッジ線分を選択する
白線選択手段と、 前回の演算時におけるレーン形状パラメータとその分散
に基づいてレーン境界の範囲を推定すると共に、推定さ
れた範囲に基づいて選択された白線エッジ線分の中から
レーン境界候補を選択する第1曲線照合手段と、 前回の演算時におけるレーン形状パラメータとその分散
に基づいてレーン境界の範囲を推定すると共に、推定さ
れた範囲に基づいて白線以外のエッジ線分の中からレー
ン境界候補を選択する第2曲線照合手段と、 第1および第2曲線照合手段において得られたレーン境
界候補の中で位置的に競合するものについてより確から
しいものを選択するレーン境界選択手段と、 選択されたレーン境界候補からレーン形状を特定するレ
ーン形状パラメータと、その分散を計算するレーン形状
計算手段と、 を備えたことを特徴とする走行レーン認識装置。 - 【請求項3】 道路画像を撮像する画像入力手段と、 得られた画像における濃淡の勾配の大きさと方向の少な
くとも一方に基づいて、曲線を含むエッジ線分を抽出す
る前処理手段と、 前回の演算時に得られたレーン形状パラメータとその分
散に基づいて、車両近傍のレーン境界の範囲を推定する
と共に、推定された範囲に基づいて抽出されたエッジ線
分の中から車両近傍のレーン境界候補を選択する近傍曲
線照合手段と、 得られた車両近傍のレーン境界候補から車両近傍のレー
ン形状を特定するレーン形状パラメータと、その分散を
計算する近傍レーン形状計算手段と、 近傍レーン形状計算手段で得られたレーン形状パラメー
タとその分散に基づいて、遠方におけるレーン境界の範
囲を推定すると共に、推定された範囲に基づいて抽出さ
れたエッジ線分の中から遠方のレーン境界候補を選択す
る遠方曲線照合手段と、 得られた遠方のレーン境界候補から遠方のレーン形状を
特定するレーン形状パラメータと、その分散を計算する
遠方レーン形状計算手段と、 を備えたことを特徴とする走行レーン認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29137395A JP3288566B2 (ja) | 1994-11-10 | 1995-11-09 | 走行レーン認識装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27659494 | 1994-11-10 | ||
JP6-276594 | 1994-11-10 | ||
JP29137395A JP3288566B2 (ja) | 1994-11-10 | 1995-11-09 | 走行レーン認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08261756A JPH08261756A (ja) | 1996-10-11 |
JP3288566B2 true JP3288566B2 (ja) | 2002-06-04 |
Family
ID=26552016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29137395A Expired - Fee Related JP3288566B2 (ja) | 1994-11-10 | 1995-11-09 | 走行レーン認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3288566B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3733875B2 (ja) | 2000-09-29 | 2006-01-11 | 日産自動車株式会社 | 道路白線認識装置 |
JP4787424B2 (ja) * | 2001-06-01 | 2011-10-05 | 財団法人エヌエイチケイエンジニアリングサービス | 映像オブジェクト検出・追跡装置 |
JP3729095B2 (ja) | 2001-06-29 | 2005-12-21 | 日産自動車株式会社 | 走行路検出装置 |
JP3997885B2 (ja) * | 2002-10-17 | 2007-10-24 | 日産自動車株式会社 | レーンマーカ認識装置 |
JP4990629B2 (ja) * | 2003-12-24 | 2012-08-01 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 道路曲率推定システム |
JP4162618B2 (ja) | 2004-03-12 | 2008-10-08 | 株式会社豊田中央研究所 | 車線境界判定装置 |
JP5028662B2 (ja) * | 2007-12-05 | 2012-09-19 | 振程 胡 | 道路白線検出方法、道路白線検出プログラムおよび道路白線検出装置 |
JP4661934B2 (ja) | 2008-10-09 | 2011-03-30 | 株式会社デンソー | 画像処理装置 |
JP2010164349A (ja) * | 2009-01-13 | 2010-07-29 | Equos Research Co Ltd | 制御装置 |
JP5304292B2 (ja) * | 2009-02-06 | 2013-10-02 | 日産自動車株式会社 | 車両用接近物検出装置 |
JP5372680B2 (ja) * | 2009-09-24 | 2013-12-18 | 日立オートモティブシステムズ株式会社 | 障害物検知装置 |
JP5258859B2 (ja) | 2010-09-24 | 2013-08-07 | 株式会社豊田中央研究所 | 走路推定装置及びプログラム |
JP5568029B2 (ja) * | 2011-02-09 | 2014-08-06 | 富士重工業株式会社 | 車両用白線認識装置 |
KR102006314B1 (ko) * | 2014-05-30 | 2019-08-02 | 주식회사 만도 | 시선 유도체 인식을 통한 차로 이탈 경고 시스템 및 방법 |
JP6105524B2 (ja) * | 2014-07-11 | 2017-03-29 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置及び走行区画線認識プログラム |
CN106407893B (zh) * | 2016-08-29 | 2019-11-22 | 东软集团股份有限公司 | 一种检测车道线的方法、装置和设备 |
CN112733231B (zh) * | 2020-12-31 | 2023-01-31 | 同济大学建筑设计研究院(集团)有限公司 | 道路三维模型生成方法、装置、计算机设备和存储介质 |
CN114724108B (zh) * | 2022-03-22 | 2024-02-02 | 北京百度网讯科技有限公司 | 车道线处理方法及装置 |
-
1995
- 1995-11-09 JP JP29137395A patent/JP3288566B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08261756A (ja) | 1996-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3288566B2 (ja) | 走行レーン認識装置 | |
CN106997688B (zh) | 基于多传感器信息融合的停车场停车位检测方法 | |
JP4420011B2 (ja) | 物体検知装置 | |
JP4162618B2 (ja) | 車線境界判定装置 | |
CN112132896B (zh) | 一种轨旁设备状态检测方法及系统 | |
CN105620489A (zh) | 驾驶辅助系统及车辆实时预警提醒方法 | |
JP6468136B2 (ja) | 走行支援装置及び走行支援方法 | |
CN109871787B (zh) | 一种障碍物检测方法及装置 | |
CN104573646A (zh) | 基于激光雷达和双目相机的车前行人检测方法及系统 | |
US11634124B2 (en) | Method of recognizing median strip and predicting risk of collision through analysis of image | |
US20160188984A1 (en) | Lane partition line recognition apparatus | |
US20180012083A1 (en) | Demarcation line recognition apparatus | |
KR101503473B1 (ko) | 차량의 주행 상황 판단 시스템 및 방법 | |
CN112124304B (zh) | 一种库位定位方法、装置及车载设备 | |
US10970870B2 (en) | Object detection apparatus | |
CN113432615B (zh) | 基于多传感器融合可驾驶区域的检测方法、系统和车辆 | |
JP2002334330A (ja) | 車両認識装置 | |
CN111325187A (zh) | 一种车道位置的识别方法及装置 | |
US11156466B2 (en) | Lane determination device | |
Park et al. | Vehicle localization using an AVM camera for an automated urban driving | |
KR101595317B1 (ko) | 차량의 정밀 측위를 위한 노면 표시 검출 방법 및 그 시스템 | |
JPH11259639A (ja) | 走行路認識装置 | |
JP4957021B2 (ja) | 車両用地図データ作成装置、及び、車両用地図データ更新装置 | |
CN113591673A (zh) | 用于识别交通标志的方法和设备 | |
JP5549468B2 (ja) | 地物位置取得装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080315 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090315 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100315 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110315 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |