JP2014203465A - 車線ベースの位置特定 - Google Patents

車線ベースの位置特定 Download PDF

Info

Publication number
JP2014203465A
JP2014203465A JP2014078539A JP2014078539A JP2014203465A JP 2014203465 A JP2014203465 A JP 2014203465A JP 2014078539 A JP2014078539 A JP 2014078539A JP 2014078539 A JP2014078539 A JP 2014078539A JP 2014203465 A JP2014203465 A JP 2014203465A
Authority
JP
Japan
Prior art keywords
lane
vehicle
road surface
data representing
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014078539A
Other languages
English (en)
Other versions
JP5941091B2 (ja
Inventor
エス.ジョシ アブダット
S Joshi Avdhut
エス.ジョシ アブダット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Toyota Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc, Toyota Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of JP2014203465A publication Critical patent/JP2014203465A/ja
Application granted granted Critical
Publication of JP5941091B2 publication Critical patent/JP5941091B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

【課題】車線ベースの位置特定のためのシステム,装置及び方法を提供すること。【解決手段】一つの実施例による計算機で実現される方法は,車両に配置された1又は複数のセンサから車両に近接する路面を表すデータを受信するステップと,路面を表すデータのうち,適応型しきい値未満のデータを除去して路面の境界を表すデータを分離するステップと,を含む。方法はさらに,1又は複数のフィルタを適用することによって路面の境界を表すデータに基づいて検出車線を生成するステップと,道路網定義ファイルに含まれるデータを用いて,車両に近接する推定車線を生成するステップと,検出車線と推定車線とを比較するステップと,検出車線と推定車線との比較に基づいて,位置特定された車両位置を生成するステップと,を含む。【選択図】図1

Description

本発明は,車線ベースの位置特定のためのシステム,装置及び方法に関する。
車両の自律走行(autonomous navigation)は、十分な精度を有する車両の位置に関して確実性が必要である。車両の正確な物理的位置を車両の周囲の表現に対して計算することを位置特定(localization)と呼ぶことができる。位置特定は,自律車両が,道又はほかの地理的特徴に対する車両の現在位置の表現を,同一の道路又は詳細な仮想地図に記録されている特徴の表現と比較することによって行うことができる。
一つの実施例においては,車線(lane)ベースの位置特定を用いた自律走行システムが開示される。このシステムは,車両に配置された1又は複数のセンサと,その1又は複数のセンサと通信する計算装置とを含む。計算装置は,計算装置の動作を制御する1又は複数のプロセッサと,その1又は複数のプロセッサが用いるデータ及びプログラム命令を記憶するメモリとを含む。1又は複数のプロセッサは,メモリ内に記憶された命令であって,1又は複数のセンサから車両に近接する路面を表すデータを受信し,路面を表すデータのうち,適応型しきい値未満のデータを除去して路面の境界を表すデータを分離し,1又は複数のフィルタを適用することによって路面の境界を表すデータに基づいて検出車線を生成し,道路網定義ファイルに含まれるデータを用いて,車両に近接する推定車線を生成し,検出車線と推定車線とを比較し,検出車線と推定車線との比較に基づいて,位置特定された車両位置を生成する命令を実行するように構成される。
別の実施例においては,車線ベースの位置特定を用いた自律走行のための計算機で実現される方法が開示される。この方法は,車両に配置された1又は複数のセンサから車両に近接する路面を表すデータを受信するステップと,路面を表すデータのうち,適応型しきい値未満のデータを除去して路面の境界を表すデータを分離するステップと,を含む。方法はさらに,1又は複数のフィルタを適用することによって路面の境界を表すデータに基づいて検出車線を生成するステップと,道路網定義ファイルに含まれるデータを用いて,車両に近接する推定車線を生成するステップと,検出車線と推定車線とを比較するステップと,検出車線と推定車線との比較に基づいて,位置特定された車両位置を生成するステップと,を含む。
別の実施例においては計算装置が開示される。この計算装置は,計算装置の動作を制御する1又は複数のプロセッサと,その1又は複数のプロセッサが用いるデータ及びプログラム命令を記憶するメモリとを含む。1又は複数のプロセッサは,メモリ内に記憶された命令であって,1又は複数のセンサから車両に近接する路面を表すデータを受信し,路面を表すデータのうち,適応型しきい値未満のデータを除去して路面の境界を表すデータを分離し,1又は複数のフィルタを適用することによって路面の境界を表すデータに基づいて検出車線を生成し,道路網定義ファイルに含まれるデータを用いて,車両に近接する推定車線を生成し,検出車線と推定車線とを比較し,検出車線と推定車線との比較に基づいて,位置特定された車両位置を生成する命令を実行するように構成される。
以降の説明は添付の図面を参照し,図面においては,いくつかの図を通して類似の参照符号は類似の部分を指す。
計算装置のブロック図である。 図1の計算装置を含む車両の概略図である。 図2の車両に近接する路面を表すデータの例示2次元表現を示す図である。 図3の路面を表すデータに基づく,車線境界を表すデータの例示2次元表現を示す図である。 図4から車線境界を表すデータを除去することに基づく検出車線の例示二次元表現を示す図である。 道路網定義ファイルの情報に基づく,図3の例示路面上の推定車線の例示2次元表現を示す図である。 図5の検出車線と,図6の推定車線との比較に基づいて,位置特定された車両位置を生成するステップの例示概略図を示す図である。
以降,車線ベースの位置特定を用いた自律走行システム及びその自律走行システムを実現する方法を説明する。システムは,車両に配置された1又は複数のセンサと通信する計算装置を含むことができる。システムを利用する方法においては,少なくとも一つのセンサが車両に近接する路面を表すデータを受信することができる。計算装置は,路面を表すデータのうち,適応型しきい値未満のデータを除去して路面の境界を表すデータを分離するように構成されたプロセッサを含むことができる。プロセッサはさらに,分離された路面の境界に1又は複数のフィルタを適用することによって検出車線を生成し,道路網定義ファイルに含まれるデータを用いて,車両に近接する推定車線を生成するように構成することができる。最後に,プロセッサは,検出車線と推定車線とを比較し,その比較に基づいて,位置特定された車両位置を生成するように構成することができる。
図1は計算装置100のブロック図である。計算装置100は,車両に設置された任意の種類の,手持ち型,デスクトップ型又はほかの形態の単一の計算装置であってもよいし,複数の計算装置からなっていてもよい。計算装置100内のCPU102は通常の中央処理ユニットであってもよいし,情報を操作又は処理できる,任意の他の種類の装置又は複数の装置であってもよい。計算装置100内のメモリ104はランダムアクセスメモリ(RAM)であってもよいし,任意のほかの適切な種類の記憶装置であってもよい。メモリ104はデータ106を含むことができ,データはCPU102がバス108を用いてアクセスすることができる。メモリ104はまた,オペレーティングシステム110及び組み込まれたアプリケーション112も含むことができ,組み込まれたアプリケーション112は,CPU102がここで説明する車線ベースの位置特定方法を実行できるようにするプログラムを含む。
計算装置100はまた,追加の記憶装置114,例えば,メモリカード,フラッシュドライブ,又は任意のほかの形態の計算機可読媒体も含むことができる。組み込まれたアプリケーション112は2次記憶装置に全体又は一部を記憶させ,処理のために必要なときにメモリ104にロードしてもよい。計算装置100はまた,1又は複数のセンサ116を含んでもよいし,結合されてもよい。センサ116は,慣性測定ユニット(IMU),走行距離測定システム,全球測位システム(GPS),光検出測距システム(LIDAR),又は車両及び/又は位置データを捕捉し,CPU102に信号を出力することができる任意のほかの種類のシステムによって処理するためのデータを捕捉することができる。
センサ116がIMUのデータを捕捉したとき,車両のx,y及びz軸の加速度及び回転加速度の変化が捕捉できる。センサ116が走行距離測定システムのデータを捕捉したときは,車輪回転速度及び操向(steering)角度に関するデータを捕捉することができる。センサ116がGPSのデータを捕捉したとき,受信器は1又は複数の衛星からの信号に基づいて,グローバル座標における車両位置推定値を取得することができる。センサ116がLIDARシステムのデータを捕捉したときは,車両を囲む領域の明度又は反射光(reflectivity returns)に関するデータを捕捉することができる。以降説明する例においては,センサ116は,自律車両の位置精度を改善するために少なくともGPS及びLIDARシステムのデータを捕捉することができる。
図2は,図1の計算装置100を含む車両200の概略図である。車両200は道路202に沿った経路を通過(traverse)している。道路202は中央破線204及び路肩206,208を含む。道路はまた,中央破線204の両側にいくつかの車線を含んでもよい。この例においては,中央破線204,車線境界線210及び路肩206によって,下側の2車線が特定されている。また,中央破線204,車線境界線212及び路肩208によって,上側の2車線が特定されている。このように,ここで示した例示道路202には合計4車線があるが,車両200は任意の数の車線を有する経路部分を体験することがある。
図1の計算装置100は図2に示すように車両200内に配置されることもあるし,車両200から離れて配置されることもある。計算装置100が車両から離れているときは,車両200は計算装置100と通信する機能を含んでもよい。車両200はまた,1又は複数の衛星からのデータに基づいて,グローバル座標内の車両位置を測定することができるGPS220を含んでもよい。GPS220は,車両位置に関するデータを計算装置100に送信することができる。
車両200はまた,複数のセンサ116を含んでもよい。一つの例示自立走行システムにおいては,図2に示すようにセンサ116を車両の周囲に配置してもよい。各センサ116は,LIDARシステムを用いて処理できるデータを捕捉することができる。LIDARシステムは,計算装置100に記憶されたアプリケーション112を含んでもよいし,計算装置100と通信する別個のシステム又はアプリケーションを含んでもよい。センサ116は,LIDARシステムと通信しているとき,車両200が道路202に沿って進行する際,車両200を囲む領域内の物理物体からのレーザ反射光,例えば,中央線204,車線境界線210,212及び路肩206,208からのレーザ反射光に関するデータを補足して送信することができる。レーザ反射光は,光源,例えば,車両200にあるセンサ116によって放射されたレーザ光によって照射された物体によって反射された後方散乱光を含んでもよい。光はまた,車両200上の別の光源によって放射されてもよい。光が周囲の物体によって反射されると,センサ116は,レーザ反射光の明るさを示す明度値,すなわち反射率測定値を捕捉することができる。
図3は,図2の車両に近接する路面を表すデータの例示2次元表現を示している。この例においては,データは,車両200が経路の一部を通過するとき,車両200から所定の距離内で補足された明度値の集合である。例えば,一群の明度値は,車両200が走行した最後の40mに渡って累積されたデータを含んでもよい。この距離は,センサ116の能力及び車線ベースの地図の一部と後で照合するために必要なデータ量に適合するように選択される。距離は40mであってもよいし,効率的な比較が可能な任意のほかの距離であってもよい。データはまた,障害物,例えば通常は経路に沿って存在することがない,ほかの車両,人又は動物を表すいかなる明度値も除去するように処理してもよい。図3に示す例においては,種々の障害物が路面を表すデータから既に除去されている。
図3から分かるように,車両200を囲む領域からのすべてのレーザ反射光を含む明度値からなるデータを収集することは,車両200が現在通過している経路の,明度値に十分な差異のない混乱した2次元表現につながることがある。例えば,車線の端300,302,中央破線304を表す明度値と,舗装又は周囲の草,砂利若しくは木の葉を表す明度値はすべて比較的似通っており,種々の条件,例えば,日光,日陰,舗装の色,などのために,明瞭に認知されないことがある。さらに,明度値は,周囲環境をより完全に捕捉するために,多重走査を用いて複数の走行に渡って収集されることがある。
図4は,図3から路面を表すデータに基づく車線境界を表すデータの例示2次元表現である。車線境界,例えば車線端300,302及び中央破線304を分離するために,砂利及び舗装などほかの物体から収集され,図3に示されている明度値からヒストグラムを生成してもよい。ヒストグラムを統合して,収集された明度値の一定割合が,例えば適応型しきい値未満になる明度値を規定してもよい。ここで示す例においては,適応型しきい値未満の明度値の95%が図3に示すデータから除去されて,図4に示す車線境界の例示2次元表現が生成された。
一般にしきい値を設定することによって,砂利及び舗装のような物体を表す背景明度値は残りの明度値から除去し,車線端300,302,カーブ,中央破線304,街路標識,路肩,等の所望の地理的特徴を表す最も明るい明度値だけを残すことができる。適応型しきい値を用いることは,固定明度値のような固定しきい値を用いることに対する改善である。これは,明度値が収集されたときの種々の照明のような種々の条件,車両200が通過する経路に沿って存在する種々の路面,又は種々の車両で用いられる種々のセンサ116を説明できないためである。適応型しきい値は,車両200が経路を通過する際に体験するこれら種々の条件を説明することができる。図4の経路の2次元表現は,車線端300,302及び中央破線304のような,図3と同一の特徴の多くを含むが,舗装及び周囲の木の葉の一部を表す明度値が除去されている。
図5は,図4から車線境界を表すデータを除去することに基づいて検出車線500,502の例示2次元表現を示している。この例における検出車線500,502の境界は,車線端300,302及び中央破線304である。図5に示す検出車線500,502を抽出するために,図4に示した車線境界を表すデータにいくつかの異なるフィルタを適用してもよい。進行の長手方向には,画像から車線境界を抽出するために差分フィルタを適用してもよい。横方向には,画像から車線境界を抽出するためにガウス平滑化フィルタを適用してもよい。これらのフィルタは,次の畳み込み関数を用いて構築することができる。
検出車線500,502の2次元表現はまた,連結成分分析を用いて処理することもできる。連結成分分析は,抽出された成分それぞれの点を用いるRansacベース3次スプライン当てはめを含んでもよい。すると,車線カーブ全体を4個のスプライン制御点を用いて定義することができる。検出車線500,502はまた,車線の種類,例えば実線か破線か,及び車線位置,例えば左又は右,を含む追加情報を含めるように分析してもよい。図5に示した例においては,二つの検出車線がある。第1の検出車線500は,車線端300と車線中央線304との間に延びる。第2の検出車線502は,車線中央線304と車線端302との間に延びる。ここで,車両200を囲む所与の位置における検出車線500,502を同一位置の推定車線と比較することができる。
図6は,道路網定義ファイルに基づく,図3の例示路面の推定車線600,602の例示2次元表現を示している。道路網定義ファイルは,複数の道路区間と,道路区間の車線位置と,道路区間ごとの所与の位置における所与の車線の推定幅と,道路区間ごとの所与の位置の車線間の関係と,車線境界設定に属するほかの関係する情報とに関するデータを含んでもよい。車両200に近接する検出車線500,502と比較するために,推定車線600,602を生成するために用いた道路網定義ファイルの下位部分は,車両200のGPS220によって供給されるグローバル座標における車両200の推定位置に基づいて選択してもよい。
図3〜6に示す例においては,車両200に近接する収集されたレーザ反射光を用いて生成された二つの検出車線500,502と,車両200のGPS201によって計算された位置に基づいて特定された,道路網定義ファイルの下位部分を用いて生成された二つの推定車線600,602がある。図6に示した第1の推定車線600は,車線端604と車線中央線606との間に延びる。図6に示した第2の推定車線602は,車線中央線606と車線端608との間に延びる。車両200の推定位置に基づいて推定車線600,602が生成されると,車両200を正確に位置特定するために指定車線600,602を検出車線500,502と比較することができる。
図7は,図5の検出車線500,502と,図6の推定車線600,602との比較に基づいて,位置特定された車両位置を生成するステップの例示概略図である。上述のとおり,推定車線600,602は,グローバル座標内の車両の推定位置と,推定位置に対応する道路網定義ファイルの情報とに基づいて生成することができる。図7において,グローバル座標に基づく推定車両位置が車両700を用いて示されている。そして,車両位置は粒子ベースの位置特定戦略を用いて位置特定することができる。
図7において適用された例示粒子ベース位置特定戦略においては,車両の初期姿勢が荷重粒子集合によって表され,粒子の加重平均が車両の最尤位置とみなされる。そして,センサが各粒子の所与の位置を観測する車線を抽出するように,各粒子を測定更新関数を用いて再加重してもよい。この例においては,粒子は次の式に従って再加重される。
粒子が再加重されると,抽出された車線600,602に基づく位置特定された車両位置を車両702を用いて示すことができる。車両702は車両700によって示したグローバル座標位置を示す車両700の上の同一距離にあり,車両702によって示した車線ベースの位置特定位置を適切に表していない。換言すれば,車両702で示す位置特定位置は,車両700によって示すグローバル座標ベースの位置より正確である。
上述のとおり,図1〜7で説明したシステムを用いた車線ベースの位置特定の一例示方法は,車両200に配置された1又は複数のセンサ116から,車両に近接する路面を表すデータを受信するステップを含む。上述のとおり,センサ116は,慣性測定ユニット(IMU),走行距離測定システム,GPS220,LIDARシステム,又は車両及び/又は位置データを捕捉することができる任意のほかの種類のシステムによって処理するためのデータを捕捉することができる。方法はさらに,路面を表すデータのうち,適応型しきい値未満のデータを除去して,路面の境界を表すデータを分離するステップを含んでもよい。ほかの路面の境界からの境界の分離は,図3の境界,例えば車線端300,302及び車線中央線304と,図4の境界とを比較することによって示される。
例示方法はさらに,1又は複数のフィルタを適用することによって路面の境界を表すデータに基づいて,検出車線,例えば図5に示す検出車線500,502を生成するステップを含む。上述のとおり,フィルタは,進行の長手方向の差分フィルタ,横方向のガウス平滑化フィルタ,又は検出車線500,502を生成するために適用可能な任意のほかの種類のフィルタを含んでもよい。方法はさらに,道路網定義フィアルに含まれるデータを用いて,車両に近接する推定車線,例えば図6に示す推定車線600,602を生成するステップを含んでもよい。上述のとおり,推定車線を生成するために用いられる道路網定義ファイルの情報は,グローバル座標における車両の推定一に基づいて選択してもよい。
例示方法はさらに,検出車線500,502を推定車線600,602と比較するステップと,検出車線500,502と推定車線600,602との比較に基づいて,位置特定された車両位置を生成するステップとを含む。上述のとおり,車両に姿勢は,検出車線500,502と推定車線600,602との比較を含む測定更新関数を用いて再加重される荷重粒子によって表される。
前述の説明は現在最も実践的な実施例であると考えられるものに関係する。しかし,本発明はこれらの実施例に限定されるものではなく,反対に,本願請求項の精神及び範囲に含まれる種々の変形物及び均等な構成も含むように意図されていることを理解されたい。本願請求項の範囲は,特許法で許されるすべての変形物及び均等な構造を含むように,最も広い解釈に従うものとする。
100 計算装置
102 CPU
104 メモリ
106 データ
108 バス
110 オペレーティングシステム
112 アプリケーション
116 センサ
200 車両
202 道路
204,304 中央線
206,208 路肩
210,212 車線境界線
220 GPS
300,302 車線端
500,502 検出車線
600,602 推定車線

Claims (20)

  1. 車線ベースの位置特定を用いた自律走行システムであって,
    車両に配置された1又は複数のセンサと,
    前記1又は複数のセンサと通信する計算装置であって,
    前記計算装置の動作を制御する1又は複数のプロセッサと,
    前記1又は複数のプロセッサが用いるデータ及びプログラム命令を記憶するメモリであって,前記1又は複数のプロセッサは,前記メモリに記憶された命令であって,
    前記1又は複数のセンサから前記車両に近接する路面を表すデータを受信し,
    前記路面を表す前記データのうち,適応型しきい値未満のデータを除去して前記路面の境界を表すデータを分離し,
    1又は複数のフィルタを適用することによって前記路面の境界を表す前記データに基づいて検出車線を生成し,
    道路網定義ファイルに含まれるデータを用いて,前記車両に近接する推定車線を生成し,
    前記検出車線と前記推定車線とを比較し,
    前記検出車線と前記推定車線との前記比較に基づいて,位置特定された車両位置を生成する,命令
    を実行するように構成されるメモリと,
    を備える計算装置と,
    を備えるシステム。
  2. 前記路面を表す前記データは,前記車両が経路を通過する際に収集した複数の明度値を含む,請求項1に記載のシステム。
  3. 前記適応型しきい値は,前記複数の明度値の一定割合が下回る明度値である,請求項2に記載のシステム。
  4. 前記1又は複数のフィルタは,車線境界を検出するための差分フィルタを含む,請求項1に記載のシステム。
  5. 前記1又は複数のフィルタは,ガウス平滑化フィルタを含む,請求項1に記載のシステム。
  6. 前記検出車線の生成は,前記路面の境界を表す前記のフィルタされたデータに連結成分分析を行うことを含む,請求項1に記載のシステム。
  7. 前記道路網定義ファイルは,前記路面の地理的位置情報と,前記路面の前記推定車線の幅と,前記路面の前記推定車線間の位置関係とを含む,請求項1に記載のシステム。
  8. 前記位置特定された車両位置は,前記車両の姿勢を表す再加重粒子に基づく,請求項1に記載のシステム。
  9. 車線ベースの位置特定を用いた自律走行のための計算機で実現される方法であって,
    車両に配置された1又は複数のセンサから,前記車両に近接する路面を表すデータを受信するステップと,
    前記路面を表す前記データのうち,適応型しきい値未満のデータを除去して前記路面の境界を表すデータを分離するステップと,
    1又は複数のフィルタを適用することによって,前記路面の境界を表す前記データに基づいて検出車線を生成するステップと,
    道路網定義ファイルに含まれるデータを用いて,前記車両に近接する推定車線を生成するステップと,
    前記検出車線と前記推定車線とを比較するステップと,
    前記検出車線と前記推定車線との前記比較に基づいて,位置特定された車両位置を生成するステップと,
    を有する方法。
  10. 前記路面を表す前記データは,前記車両が経路を通過する際に収集した複数の明度値を含む,請求項9に記載の方法。
  11. 前記適応型しきい値は,前記複数の明度値の一定割合が下回る明度値である,請求項10に記載の方法。
  12. 前記1又は複数のフィルタは,車線境界を検出するための差分フィルタを含む,請求項9に記載の方法。
  13. 前記1又は複数のフィルタは,ガウス平滑化フィルタを含む,請求項9に記載の方法。
  14. 前記検出車線を生成するステップは,前記路面の境界を表す前記のフィルタされたデータに連結成分分析を行うステップを含む,請求項9に記載の方法。
  15. 前記道路網定義ファイルは,前記路面の地理的位置情報と,前記路面の前記推定車線の幅と,前記路面の前記推定車線間の位置関係とを含む,請求項9に記載の方法。
  16. 前記位置特定された車両位置は,前記車両の姿勢を表す再加重粒子に基づく,請求項9に記載の方法。
  17. 計算装置であって,
    前記計算装置の動作を制御する1又は複数のプロセッサと,
    前記1又は複数のプロセッサが用いるデータ及びプログラム命令を記憶するメモリであって,前記1又は複数のプロセッサは,前記メモリ内に記憶された命令であって,
    車両に配置された1又は複数のセンサから,前記車両に近接する路面を表すデータを受信し,
    前記路面を表す前記データのうち,適応型しきい値未満のデータを除去して,前記路面の境界を表すデータを分離し,
    1又は複数のフィルタを適用することによって,前記路面の境界を表す前記データに基づいて検出車線を生成し,
    道路網定義ファイルに含まれるデータを用いて,前記車両に近接する推定車線を生成し,
    前記検出車線と前記推定車線とを比較し,
    前記検出車線と前記推定車線との前記比較に基づいて,位置特定された車両位置を生成する,命令
    を実行するように構成される,メモリと,
    を備える計算装置。
  18. 前記1又は複数のフィルタは,車線境界を検出するための差分フィルタ及びガウス平滑化フィルタを含む,請求項17に記載の計算装置。
  19. 前記道路網定義ファイルは,前記路面の地理的位置情報と,前記路面の前記推定車線の幅と,前記路面の前記推定車線間の位置関係とを含む,請求項17に記載の計算装置。
  20. 前記位置特定された車両位置は,前記車両の姿勢を表す再加重粒子に基づく,請求項17に記載の計算装置。
JP2014078539A 2013-04-08 2014-04-07 車線ベースの位置特定 Active JP5941091B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/858,410 US8972093B2 (en) 2013-04-08 2013-04-08 Lane-based localization
US13/858,410 2013-04-08

Publications (2)

Publication Number Publication Date
JP2014203465A true JP2014203465A (ja) 2014-10-27
JP5941091B2 JP5941091B2 (ja) 2016-06-29

Family

ID=51567680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014078539A Active JP5941091B2 (ja) 2013-04-08 2014-04-07 車線ベースの位置特定

Country Status (3)

Country Link
US (1) US8972093B2 (ja)
JP (1) JP5941091B2 (ja)
DE (1) DE102014104663B4 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US9405293B2 (en) * 2014-05-30 2016-08-02 Nissan North America, Inc Vehicle trajectory optimization for autonomous vehicles
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US9707961B1 (en) * 2016-01-29 2017-07-18 Ford Global Technologies, Llc Tracking objects within a dynamic environment for improved localization
JP6693496B2 (ja) * 2017-03-16 2020-05-13 株式会社デンソー 自己位置推定装置
US11016957B2 (en) * 2018-02-28 2021-05-25 Microsoft Technology Licensing, Llc Sensor data based query results
DE102018215055A1 (de) * 2018-09-05 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bestimmen einer Spurwechselangabe eines Fahrzeugs, ein computerlesbares Speichermedium und ein Fahrzeug
US20200240091A1 (en) * 2019-01-24 2020-07-30 Toyota Motor Engineering & Manufacturing North America, Inc. Grass surrogate
US11181922B2 (en) * 2019-03-29 2021-11-23 Zoox, Inc. Extension of autonomous driving functionality to new regions
US11620831B2 (en) * 2020-04-29 2023-04-04 Toyota Research Institute, Inc. Register sets of low-level features without data association

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
JPH05149756A (ja) * 1991-11-29 1993-06-15 Mazda Motor Corp 移動車の走行路認識装置
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JPH0916900A (ja) * 1995-04-25 1997-01-17 Matsushita Electric Ind Co Ltd 局地的位置把握装置
JP2003346278A (ja) * 2002-04-04 2003-12-05 Lg Industrial Syst Co Ltd 車両待機行列の長さ測定装置及びその方法
JP2010198119A (ja) * 2009-02-23 2010-09-09 Nissan Motor Co Ltd 道路白線認識装置及び道路白線認識方法
WO2010140578A1 (ja) * 2009-06-02 2010-12-09 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理用プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289654A (ja) * 2000-04-11 2001-10-19 Equos Research Co Ltd ナビゲーション装置、ナビゲーション装置の制御方法、及びそのプログラムを記録した記録媒体
JP4437714B2 (ja) * 2004-07-15 2010-03-24 三菱電機株式会社 車線認識画像処理装置
JP4793094B2 (ja) * 2006-05-17 2011-10-12 株式会社デンソー 走行環境認識装置
JP4687563B2 (ja) * 2006-05-23 2011-05-25 株式会社デンソー 車両用レーンマーク認識装置
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US8194927B2 (en) 2008-07-18 2012-06-05 GM Global Technology Operations LLC Road-lane marker detection using light-based sensing technology
US8055445B2 (en) * 2008-09-24 2011-11-08 Delphi Technologies, Inc. Probabilistic lane assignment method
US8364334B2 (en) 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US8775063B2 (en) * 2009-01-26 2014-07-08 GM Global Technology Operations LLC System and method of lane path estimation using sensor fusion
US8699755B2 (en) 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
JPH05149756A (ja) * 1991-11-29 1993-06-15 Mazda Motor Corp 移動車の走行路認識装置
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JPH0916900A (ja) * 1995-04-25 1997-01-17 Matsushita Electric Ind Co Ltd 局地的位置把握装置
JP2003346278A (ja) * 2002-04-04 2003-12-05 Lg Industrial Syst Co Ltd 車両待機行列の長さ測定装置及びその方法
JP2010198119A (ja) * 2009-02-23 2010-09-09 Nissan Motor Co Ltd 道路白線認識装置及び道路白線認識方法
WO2010140578A1 (ja) * 2009-06-02 2010-12-09 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015043467; 椎屋 和久 Kazuhisa Shiiya: 'OpenCVライブラリを用いた走行車線の検出' 平成24年電気学会全国大会講演論文集 [3] エレクトロニクス/情報工学システム/センサ・マイクロマ , 201203 *

Also Published As

Publication number Publication date
JP5941091B2 (ja) 2016-06-29
DE102014104663A1 (de) 2014-10-09
DE102014104663B4 (de) 2019-01-24
US20140303828A1 (en) 2014-10-09
US8972093B2 (en) 2015-03-03

Similar Documents

Publication Publication Date Title
JP5941091B2 (ja) 車線ベースの位置特定
CN110155053B (zh) 提供用于驾驶车辆的信息的方法和设备
US9037403B2 (en) Intensity map-based localization with adaptive thresholding
US20210208587A1 (en) All weather autonomously driven vehicles
US20210372808A1 (en) Collecting non-semantic feature points
US9298992B2 (en) Geographic feature-based localization with feature weighting
JP6401140B2 (ja) 交差点の構造の接合確率モデリング及び推定
US8428362B2 (en) Scene matching reference data generation system and position measurement system
CN104787045B (zh) 自动驾驶系统、计算机实现的自动驾驶的方法以及计算设备
US9576200B2 (en) Background map format for autonomous driving
EP2372310B1 (en) Image processing system and position measurement system
US20180120857A1 (en) Road sign recognition
US20110243455A1 (en) Scene matching reference data generation system and position measurement system
CN110866433A (zh) 用于确定道路标线的方法和设备
CN109425343A (zh) 本车位置推断装置
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
CN111177288A (zh) 用于导出自主车辆启用的可行驶地图的系统
CN113924459B (zh) 用于车辆导航的动态传感器范围检测
CN110119138A (zh) 用于自动驾驶车辆的自定位方法、系统和机器可读介质
JP2023508769A (ja) ナビゲーションのためのマップタイル要求を最適化するためのシステム及び方法
JP2023539868A (ja) マップベースの現実世界モデル化のシステム及び方法
CN112937582A (zh) 改进车道改变检测的系统、非暂态计算机可读介质和方法
KR101706455B1 (ko) 도로표지판 검출 기반 주행 차로 추정 방법 및 장치
CN109144052A (zh) 用于自动驾驶车辆的导航系统及其方法
US11460581B2 (en) Systems and methods for reducing LiDAR points

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150127

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150127

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160519

R150 Certificate of patent or registration of utility model

Ref document number: 5941091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350