JPH04205320A - 移動路データに対する評価方法 - Google Patents

移動路データに対する評価方法

Info

Publication number
JPH04205320A
JPH04205320A JP2335731A JP33573190A JPH04205320A JP H04205320 A JPH04205320 A JP H04205320A JP 2335731 A JP2335731 A JP 2335731A JP 33573190 A JP33573190 A JP 33573190A JP H04205320 A JPH04205320 A JP H04205320A
Authority
JP
Japan
Prior art keywords
data
road
line segment
travel path
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2335731A
Other languages
English (en)
Other versions
JP3200062B2 (ja
Inventor
Koji Tsujino
広司 辻野
Hiroshi Hasegawa
洋 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP33573190A priority Critical patent/JP3200062B2/ja
Priority to DE69121369T priority patent/DE69121369T2/de
Priority to EP91311210A priority patent/EP0488828B1/en
Priority to US07/801,708 priority patent/US5307419A/en
Publication of JPH04205320A publication Critical patent/JPH04205320A/ja
Application granted granted Critical
Publication of JP3200062B2 publication Critical patent/JP3200062B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は自律移動体の移動制御等における画像処理にお
いて得られた移動路データを評価する方法に関するもの
である。
〔従来の技術〕
自律的に自動走行する自律走行車において、道路データ
は非常に重要なものである。道路データが正しく得られ
れば得られるほど、そのシステムは安定して走行できる
。一方、道路を正しく認識することは非常に難しい。従
来、この自律走行車の研究において、いくつかの考え方
か道路認識に適用されて来た。米国防総省高等研究計画
局(DARPA)の推進する研究においては、フジモリ
とカナダ (Pujimori、T and T、Kanade 
)によるカラー領域処理(文献rknovledge−
Based InterpretationorOut
door Road 5cenesJ 、 1987 
Year EndReport ror Road F
ollowing at CarnegieMello
n、CMU−R1−TR−88−4,pp、45−45
−98(198、あるイハシャーマとデービス(Sha
rma、Ll、に、 andL、S、Davis )に
よるレーサーレンジファインダによる3次元情報処理(
文献r Road BoundaryDetectio
n in Range Imagery ror an
 AutonomousRobot j 、IEEE 
Journal orRobotics and^ut
omation、4(5) 、pp、5L5−523(
198g))により、道路エツジのもつ幾何学的性質を
用いて道路端を求めている。
また、道路モデルを用いて道路端を求める試みも行われ
た。つまり、道路は一定幅の平行線に記述することか出
来るという前提の下に、画像処理から得られるエツジデ
ータに対し、平行な線分の組み(リボン)や、−点て交
わる線分の組み(ペンシル、バニッンングポイント(v
anishingPoint))を取り出し、位置関係
などにより道路を認識するものである。リボン記述やペ
ンシル記述の技術は、ブルックス(Brooks、R,
A、、 rsymbolicReasoning am
ong 3−D Models and 2−D Im
ages J 。
^rtjficial Intelligence、1
7.pp、285−348(1981) )や、モイー
ネとワックスマンとデービス(Moigne、J、Le
、、A、M、 WaxIDan、and L、S、Da
vis。
rKnowledge−BaseReasoning 
 ror  roadfollowing J 、Pr
oc、19861CPR,I)p、244−247(1
986))等による道路認識処理で使用されている。ま
た、バニソンングポイントの技術は、上記のフジモリと
カナダや、リューとジェイン(Ijou、S and 
R’、C。
Jajn、   rRoad  Following 
 Llsing  VanishingPojntsJ
 、Co1puter Vision、 Graphi
cs and ImageProcessing、39
.pp、 116−130(1987) )による道路
認識処理で使用されている。
また、ファンとシャー7 (Kuan、D、 and 
U、K。
5harn+a)は高速に走行するための道路認識を行
った(文献rModel Ba5ed Geometr
ic Reasoningfor Autonoa+o
us Road Following J 、Proc
、1987IEEE ICRA、I)I)、416−4
23(1987))。彼等のシステムは19km/hの
速度で単調路を走行させている。
彼等は、道路認識に当たって道路モデルは必要だが、−
船釣なフェイルプルーフの道路追従システムを成立させ
るには莫大な知識か必要であり、現在の技術では不可能
として、単純な条件により道路モデルを導入した。その
条件としては、第1に、道路境界の対となるセグメント
は道路幅分離れて局所平行であること、第2に、道路境
界の向きは滑らかに変化すること、第3に、連続する画
像で道路境界は連続していることである。彼等はこれら
の条件を用いて道路境界を求めた。
この道路モデルによれば、大局的に記述できにくい構造
の道路に対しても、局所的線分レベルてみることにより
、道路端の平行性や道幅の測定が可能になる。
〔発明が解決しようとする課題〕
しかしながら、上記のフジモリとカナダによるカラー領
域処理あるいはシャーマとデービスによるレーザーレン
ジファインダによる3次元情報に基づく道路端の認識処
理は、対象としている道路は1車線の単調路のみである
。また、道路端の求め方が大局的であり、複雑な道を高
速で走行することが出来ない。つまり、第34図(a)
に示されるような単純な直線2本で示される単調路であ
れば、2本の直線の平行性と距離とを求めれることによ
り、道路端を認識することが出来る。しかし、同図(b
)や、同図(c)に示される単純でない道路形状の場合
には、道路端の各線分に対して直接平行性を求めたり、
道幅を求めることは困難である。さらに、同図(d)に
示されるように道路上に道路境界以外の白線等のマーク
か描かれていると、道路端の認識はますます困難になる
また、ブルックス等によるリボン記述やペンシル記述を
使用する道路モデルを用いた道路認識は、実画像に対し
てかなり抽象化した道路エツジについての仮説検証には
利用できるが、複雑に曲かったより細かいレベルでの道
路エツジについての仮説検証には実行速度等の点て十分
対応できす、単調路しか扱えなかった。
また、ファンとシャーマは、大局的に記述できにくい構
造の道路でも局所的にはある条件を満たしている点に注
目して前述の道路モデルの条件を考えたため、第34図
(e)に示されるカーブ路であっても道路端を認識する
ことが出来る。つまり、道路境界を3本の直線LO,L
l、L2によって局所的に近似することにより、平行性
や道幅の測定を可能にし、自律走行車の高速走行を可能
にした。しかし、やはり道路モデルの対象は1車線の単
調路の枠から出ることができず、分岐等のある複雑な道
路端は認識することが出来ない。さらに、道路境界の評
価単位か線分であるため、必要以上にデータが除外され
、安定した道路データが得られなかった。
〔課題を解決するための手段〕
本発明はこのような課題を解消するためになされたもの
で、複数の撮像装置により撮像された移動路データから
抽出され同一時刻データに補正された複数の点列データ
を入力し、該点列データを線および点のレベルに構造化
して保持し、移動路を構成する点および線が持つ条件を
モデルとして記述し、該モデルを検証基準とする所定の
ルールを以て入力点列データの移動路らしさを判断し、
該判断結果に基づいて入力点列データを1つの妥当な移
動路データに変換するものである。
〔作用〕
線分レベルでなく点レベルでデータ評価を行うため、複
雑な形状の移動路が識別される。また、複数の撮像装置
からの点列データを基に移動路らしさが判定されるため
、得られるデータの信頼性は向上する。
〔実施例〕
第13図は本発明の一実施例による自律走行車の制御装
置の概略を示す構成図である。
本装置は、画像処理部、ナビゲーションシステム部、デ
ータ管理部、データ評価部、環境記述作成部1行動運動
制御スーパーバイザ、軌跡推定部および走行制御部とに
大別される。
画像処理部は、1つ以上の撮像装置1画像以外の外界情
報取得手段および複数の画像処理手法を用いた画像処理
装置から構成されている。−船釣に1つ以上の撮像装置
としては、標準焦点距離撮像装置、望遠撮像装置、カラ
ー撮像装置、赤外線撮像装置または超高感度撮像装置等
を複数用いることにより構成される。本実施例では、カ
ラーカメラ101および白黒カメラ102を使用してい
る。また、画像以外の外界情報取得手段としてはレーダ
、超音波センサ等があり、本実施例ではレーダシステム
103を使用している。このレーダシステムは、走行車
の前方の遠距離にある障害物を発見することを目的とし
て使用しており、障害物の個数やその位置情報が取得さ
れる。取得された障害物情報はデータ管理部109へ出
力される。
また、画像処理装置における画像処理は道路データの抽
出を目的としており、その画像処理手段には、領域抽出
手段1局所的線分追跡手段、大局的線分抽出手段、立体
視手段、動画像処理手段等がある。本実施例では、カラ
ーカメラ101から入力した画像情報については領域抽
出手段104を使用して処理し、カラー画像に基づいて
道路領域を抽出する。抽出された道路領域境界データや
位置データはデータ管理部109へ出力される。
また、白黒カメラ102から入力した画像情報について
は、局所的線分追跡手段105および大局的線分抽出手
段106を使用する。局所的線分追跡手段105は、白
黒画像を処理して得られる道路エツジを小領域で抽出す
るものである。抽出した局所的線分データはデータ管理
部109へ出力される。大局的線分抽出手段106は大
局的に道路エツジを近似推定してガイドラインを得るも
のである。求めた大局的主要線分はデータ管理部109
へ出力される。
ナビゲーションシステム107はユーザ(人間)108
とのインターフェースを持ち、大局的走行計画の作成と
その指示とを目的としている。現在のところ、この目的
地等の大局的走行計画はユーザ108によってナビゲー
ションシステム107に入力される。ナビゲーションシ
ステム107は、内部に記憶された地図情報を基にし、
目的に応じた大局的な経路およびその周辺部の地図情報
といったグローバルなマツプ情報や、指示経路および法
定速度等を環境記述作成部112および行動運動制御ス
ーパーバイザ114に出力する。また、ユーザ108は
、行動運動制御スーパーバイザ114に対して走行モー
トの切り替えなどが出来る。
データ管理部109は各種の画像処理データを画像処理
装置から入力し、障害物情報をレーダーシステム103
から入力する。また、任意時刻での環境記述データを環
境記述作成部112から入力する。そして、データ管理
部109は、これら人力した各種データをデータベース
(D B)]]0に記憶し、データベース管理、つまり
、画像処理結果およびレーダによる障害物情報の時間管
理を行う。また、道路面に対し斜めに取付けられた撮像
装置により取得し、画像処理装置により処理した撮像平
面での道路端データを射影変換し、2次元道路平面上に
写像する。また、データに付随する時間と軌跡推定部1
15で計算された推定軌跡テーブルとを基にし、そのデ
ータを過去の任意時刻の座標系に座標変換する。また、
領域抽出手段104に候補領域などを指示し、局所的線
分追跡手段105に探索開始点や探索方向などを指示し
、大局的線分抽出手段106に候補線分なとを指示する
データ評価部111は、時刻と座標を合わせた画像処理
データをデータ管理部109から入力し、また、任意時
刻での環境記述データを環境記述作成部112から入力
する。そして、同一時刻に座標変換された複数の2次元
道路データに対し、道路モデルとの適合性および各道路
データ間の整合性から判断し、道路データとして誤った
データを除去する。また、道路データとして妥当と判断
された複数のデータを1つの道路データとして融合する
。融合されたデータ評価結果である道路データは、デー
タ管理部109および環境記述作成部1コ−2へ出力さ
れる。
環境記述作成部112は、障害物情報などの認識結果を
統合的に保持し、現在自車が置かれている環境を記述す
ることを目的とする。つまり、データ評価部111から
人力される道路データをベクトル表現し、環境記述デー
タベース113として保持管理する。また、既に保持さ
れている環境記述上に、入力される道路データを重ね、
過去のデータとの連結関係、車体位置との相対位置等に
より、そのデータ内の各線分の属性決定および排除を行
う。
行動運動制御スーパーバイザ114−は自律走行車の行
動計画を立案し、行動の指示をする。つまり、ドライバ
ー(ユーザ108)とのマン・マシンインターフェイス
により、自動走行とマニュアル走行、および走行開始と
走行中止等の切り替えを行う。そして、環境記述作成部
112からの環境記述データ、ナビゲーションシステム
107からの誘導情報、軌跡推定部115からの自車移
動量および車速制御部117からの車速情報を基にし、
障害物回避の必要性の有無、走行車線の選択等を行い、
経路計画を作成する。また、画像の視野距離、車速、環
境の認識に要した時間およびナビゲーションシステム1
07から得る法定速度等から、走行速度およびその走行
速度になるべき指定距離から成る速度計画を作成する。
さらに、経路計画、速度計画を基にし、制御部(軌跡制
御部116、車速制御部117)間の整合をとった行動
指示を行う。この行動計画は環境記述作成部112に出
力される。また、軌跡制御部116へ指示経路が出力さ
れ、車速制御部117へ指示速度か出力される。
軌跡推定部115は車速センサ118およびヨーレイト
センサ120からの情報を入力し、車体運動量から車体
の座標面上の軌跡を計算する。また、時刻と座標とを共
有メモリ上に書き込むことにより、システムの標準時計
の役目を果たす。この軌跡の計算から自車移動量を求め
、これをデータ管理部109、環境記述作成部112お
よび行動運動制御スーパーハイサ114へ出力する。
走行制御部は軌跡制御部116と車速制御部117とか
ら構成される。軌跡制御部116には、車速センサ11
8、舵角センサ119、ヨーレイトセンサ120からの
センサ情報が与えられる。
また、この軌跡制御部116は、前後輪の内の少なくと
も一方を制御する舵角制御手段を備えている。車速制御
部117には、車速センサ118および加速度センサ1
21からのセンサ情報か与えられる。また、この車速制
御部117は、アクセル開度やブレーキ圧力を調整して
エンジン出力、ブレーキ制動力を制御する手段を備えて
おり、車速情報を行動運動制御スーパーバイザ114に
出力する。
次に、自律走行車の制御部を構成する主要な装置につい
て以下に詳述する。
カラーカメラ101および白黒カメラ102について説
明する。撮像装置は、これを車両に搭載することを考え
ると、1台のカラーTVカメラで複数の処理に共用した
い。しかし、さまざまな変化のある自然画像を処理し、
しかも車両の走行速度も変化するといったことから、各
種状況に適した複数の画像入力手段を持つことが望まし
い。各種状況に適した画像入力手段としては、例えば、
望遠、広角といった異なる視野をカバーする場合には、
お互いのカメラで視野を補い合うことができる。また、
夜間走行の場合には、道路と路肩の温度差を検出でき、
しかも対向車の灯火の影響を受けにくい赤外線カメラが
適している。また、前走車との距離計測用に2眼立体視
を用いる場合なら、当然に2台以上のカメラを必要とす
る。以上のことから、本実施例では2種類の撮像装置(
カラーカメラ101、白黒カメラ102)を使用し、ま
た、この他にレーダーシステム103を採用し、各種状
況に適した情報を確保している。
次に、領域抽出手段104について説明する。
白線などの明確な境界線かなく、アスファルトと土や草
などで構成された道路では、線分の抽出は極めて不安定
になる。このような道路においてはカラー特徴(明度■
、彩彩度8包 域抽出処理が有効である。このため、本実施例では撮像
装置の1つとしてカラーカメラ101を採用し、領域抽
出手段104で色の特徴に基づいて道路領域を抽出して
いる。この道路領域の抽出は、車両のすぐ前方は道路領
域であるという仮定に基づき、道路領域内の色の特徴と
類似した部分を取り出すことにより行われる。なお、こ
の抽出処理と基本的に同様な手法を用い、赤外線カメラ
を使用することにより、夜間の赤外線映像から道路の温
度を判断し、道路領域を抽出することが可能である。
領域抽出処理は、環境記述作成部112からの環境記述
を利用して前回までの結果と比較することで高い信頼性
か得られる。この領域抽出処理により、大まかな道路(
走行可能領域)の輪郭か得られる。また、この処理は明
確な境界線が得られない場合の走行のためたけではなく
、局所的線分追跡手段105.大局的線分抽出手段10
6における線分抽出処理か、ガードレールや壁などを誤
って道路と認識しないための拠り所としても重要なもの
になる。
次に、大局的線分抽出手段106について説明する。本
手段によれば、高速自動車道なとの直線的で単純な道路
構造の場合には、画像中の広い範囲を1度に処理するこ
とが可能である。例えば、TVカメラの取り付は角度か
ら道路が存在するであろう領域が求められ、この領域に
対して優れた直線検出手段であるハフ(Hough)変
換を施す。領域が道路全体をカバーするほど大きくても
、直線的な道路ならばその境界線を抽出することができ
、しかも、たた1度のハフ変換処理により抽出すること
かできるため、極めて高速な処理が行える。なお、ハフ
変換は一般に多くの処理時間を要するとされるか、本出
願人は先の出願において高速ハフ変換ハードウェアによ
り、ビデオレートに近いハフ変換を可能にしている。本
実施例の大局的線分抽出処理により、大局的に道路を眺
めたときのような主要な道路境界線分のデータを受は取
って道路領域抽出処理の参考にすることにより、高い信
頼性を有する道路領域か抽出される。
次に、局所的線分追跡手段105について説明する。交
差点や複雑な分岐路、急なカーブなどの認識においては
、その道路境界線を細かく局所的に追跡してやる必要か
ある。境界線を1画素づつ逐次探索していく方法もある
か、ハフ変換などにより境界線を検出できる小さな領域
を用いて順次追跡したほうが、自然環境には強いようで
ある。
この局所的線分追跡処理により、複雑な構造の道路を走
行するために必要とされる精密な道路境界線分が出力さ
れる。前述の大局的線分抽出の処理結果や、領域抽出の
処理結果を利用して探索開始点と探索方向などの初期デ
ータを受は取ることにより、信頼性を向上させ、処理時
間を短縮することか出来る。
次に、データ管理部109について説明する。
自律走行車において、複数の画像処理手段およびレーダ
システム103などの距離情報獲得手段を持つことは、
様々な環境を認識するうえで非常に有利である。しかし
ながら、それら各処理の実行時間は同一ではなく、状況
に応じてそれぞれに変化していく。このため、本実施例
では、このデータ管理部109によって各処理データを
同一時刻において判断処理することを可能にしている。
例えば、これを第2図を用いて説明する。大局的線分抽
出手段106においては道路区分線抽出処理201が1
つの画像処理として実行されている。また、領域抽出手
段104においては道路領域抽出処理202が他の画像
処理として実行されている。また、レーダシステム10
3においては距離情報獲得処理203か実行されている
。なお、各処理における1回の処理時間は図示の1つの
矢印の長さで示されている。しかし、直線204に示さ
れる時点では、道路区分線抽出処理201は丁度3回目
の処理が終了した時点になる。また、道路領域抽出処F
!202は処理が1回終了し、2回目の処理を実行して
いる最中になる。また、距離情報獲得処理203は処理
か2回終了し、3回目の処理を実行している最中になる
このように、各処理の実行時間は同一ではなく、状況に
応じて変化していく。データ管理部109は、各処理結
果を最終的に同一の時刻、座標上で統一的に取扱えるよ
うにするための座標変換処理を実行する。つまり、デー
タ管理部109は、基準時計と時々刻々の自車の移動量
を測定する手段とを有する軌跡推定部から時刻と自軍の
移動量を得て、それに基づいて、非同期に実行される上
記の各処理結果を任意の同一座標上に変換する機能を有
する独立したモジュールと言うことかできる。
この結果、図示の直線204における時刻での各処理結
果をデータ管理部109において変換処理を実行すると
、同一の時刻、座標系に変換された処理結果か得られる
。つまり、道路区分線抽出処理201により得られた道
路線分205と、道路領域抽出処理202により得られ
た道路領域206と、距離情報獲得処理203により得
られた距離情報207が同一の時刻、座標系に変換され
て扱うことかできる。
本実施例のように、自律走行車の走行路認識のための複
数の画像処理手段、およびレーダシステム103などの
距離情報獲得手段を持つ場合において、このような独立
したモジュールは有効である。この機能により、以下の
ようなメリットか得られる。第1に、非同期、並列に実
行される各処理結果を効率良く同一の時刻、座標上に変
換することが出来る。第2に、座標変換などの同一処理
の集約化が出来る。第3に、画像処理、距離情報検出処
理、また、その後の統合評価段階での通信、演算処理の
負荷が軽減される。第4に、各処理間の通信の簡素化か
図れる。
複数の処理結果を同一の時刻、座標上で統合し、評価す
るためには、例えば、全ての処理を同時に開始して同一
地点て、入力した画像や距離データを処理してやれば良
い。つまり、第3図に示されるように、処理A301、
処理B502、処理C303という複数の各処理が同期
して動作している場合には、各処理301〜303を通
信により直線304に示される同一時刻に開始する。そ
して、直線305に示される同一時刻で、入力した画像
や距離データを処理してやれば良い。この場合には、直
線304と直線305とで挾まれた間隔か全体の処理サ
イクルになる。
しかし、この方法では、最も長い処理時間によって全て
の処理サイクルが拘束されてしまい、さらに開始時刻を
揃えるために各処理時間で緊密な通信を行う必要が生じ
る。第3図の例では、処理B502の処理時間により全
ての処理サイクルが拘束されてしまう。本実施例におけ
るデータ管理部109によれば、画像入力時刻などをそ
れぞれの処理結果に付すだけで、後は全く独立に処理し
ていくことが可能であり、例えば手前よりの走行路を短
い処理サイクルで認識可能ならば、遠方の走行路認識に
やや時間がかかっても、それぞれを並列に実行すること
により、高速な走行が可能になる。
また、複数の画像処理手段およびレーダシステム103
などの距離情報獲得手段を持つような自律走行車におい
ては、今までの走行路認識結果や、お互いの処理結果を
参照し、利用することで認識の信頼性を大きく向上させ
られる。しかしながら、これら各処理の実行時間は上記
のように同一ではなく、状況に応じてそれぞれに変化し
ていく。また、扱う座標系も異なっている場合がある。
このため、各処理が直接にデータをやりとりし、時刻、
座標を変換していては通信、演算時間共に大きくなり、
大きな処理負荷となる。本実施例におけるデータ管理部
109は、こうしたシステムにおいて、各処理が必要と
する情報を効率的に授受できるような処理手法を実現し
ている。
つまり、前述のように、データ管理部109は、基準時
計と時々刻々の自軍の移動量を測定する手段とを有する
軌跡推定部より時刻と自車の移動量を得、それに基づき
、非同期に実行される上記の各処理において必要とされ
る走行路認識結果や他の処理結果などを任意の時刻の任
意の座標上に変換する機能をもった独立したモジュール
である。
例えば、これを第4図を参照して以下に説明する。道路
区分線抽出処理401、道路領域抽出処理402および
距離情報獲得処理403が並列して実行されている。各
処理401〜403は、データ管理部109の時刻、位
置補正機能により、お互いの処理結果を参照し、利用し
ながら処理を進めている。なお、図示の各矢印の長さは
1回の処理時間を表している。今、道路領域抽出処理4
02において、道路区分線抽出処理401および距離情
報獲得処理403に対して記号の時刻にデータリクエス
トが有った場合を考える。道路区分線抽出処理401は
このデータリクエストに対してリクエストのあった時刻
の直前に処理を終えている最新の処理結果を出力する。
この処理の対象とされた画像の入力時刻は図の直線40
4の時点に示される。また、距離情報獲得処理403も
同様にリクエストのあった時刻の直前に処理を終えてい
る最新の処理結果を出力する。この処理の入力データが
得られた時刻は図の直線405の時点に示される。また
、リクエストを出した道路領域抽出処理402で処理対
象とされる画像の入力時刻は、図の直線406の時点に
示される。
データ管理部109は、各処理から出力された処理結果
を入力し、その時刻および位置をデータリクエストをし
た処理か自身の入力データを得た時刻およびその時刻で
の自車の推定位置に補正する。つまり、道路区分線抽出
処理401および道路領域抽出処理402から出力され
た各々の処理結果は、データリクエストされた処理が入
力データを得た時刻とデータリクエストをした処理が入
力データを得た時刻との時間的づれを、その間の自軍の
移動量に基づいて補正されて出力される。
また、これと同様にして、距離情報獲得処理403から
出力される処理結果も、同様の時間的づれを自車の移動
量を基にしてデータリクエストをした処理の入力データ
取得時刻に補正されて出力される。この結果、統一され
た時刻、座標系に変換された道路区分線および距離情報
データ407が得られる。
このようにデータ管理部109は、各処理データ間の時
刻合わせを自軍移動量に基づいて行い、過去に処理して
きた走行路認識結果や、お互いの処理結果を参照し利用
することを可能にしている。
つまり、このデータ管理部109により、並列に行われ
る各処理結果は当該モジュールにおいて整理、保存され
、さらに、任意の時刻、形態のデータを希望に応して算
出することか出来る。この機能により、以下のようなメ
リ・ソトが得られる。第1に、複数処理のさまざまな要
求に応じた時刻、座標変換を効率良く行える。第2に、
座標変換などの同一処理の集約化が行える。第3に、各
処理での通信および演算時間といった負荷が軽減される
。この結果、制御装置の通信、演算時間か大幅に減少す
るため、全体の処理サイクルの高速化か達成できる。
次に、このデータ管理部109のtM 造について第5
図を参照して説明する。複数の画像処理手段とレーダシ
ステム103などの距離情報獲得手段の処理結果を統一
的に管理し、様々な要求に応して任意の時刻の同一座標
上データに変換するといった機能を効率的に行うために
、同図に示されるような構造になっている。
道路領域抽出手段501は、第13図におけるカラーカ
メラ101からの色情報を基にした領域抽出手段104
に相当している。また、道路区分線抽出手段502は、
白黒カメラ102からの画像情報を元にした局所的線分
追跡手段105および大局的線分抽出手段106に相当
している。また、距離情報獲得手段503はレーダシス
テム103に相当し、軌跡推定部504は第13図にお
ける軌跡推定部115に相当している。道路領域抽出手
段501、道路区分線抽出手段502および距離情報獲
得手段50Bから出力される画像データや距離情報、並
びに軌跡推定部504から出力される自車の移動量デー
タは、まず、非同期にデュアルポートラム(Dual 
 PortRAM、D、P、RAM)505に書き込ま
れる。
この他にも、同図には示されてはいないが、環境記述作
成部112から出力されるデータ評価結果などもDPR
AM505の環境記述に記憶される。
データ管理部109は定期的にこのDPRAM505を
読みにいき、新しいデータかあればそれを各手段に対応
じたデータベース(D B)に格納する。この格納はデ
ータベースへの書き込み手段506によって実行される
。道路領域抽出手段501から出力されたデータは書き
込み手段506によってDB507に格納され、道路区
分線抽出手段502から出力されたデータはDB508
に格納され、距離情報獲得手段503から出力されたデ
ータはDB509に格納され、軌跡推定部504から出
力されたデータはDB510に格納される。
もし、他の装置からいずれかの内容についてデータリク
エストがあったならば、データ管理部109は希望に応
じたデータを各DB507〜510から検索し、データ
ベースからの読みたし手段511によってこれを読み出
す。読み出されたデータは時刻、位置補正手段512に
よって希望に応じた時刻、位置座標に変換される。この
際、軌跡推定部504から出力された軌跡推定データを
バラ−メータとして補正処理が実行される。また、道路
領域抽出手段501および道路区分線抽出手段502か
ら出力されたデータについては、射影変換手段513に
よって実際の道路面上の座標に変換され、時刻、位置補
正が行われる。
この後、射影変換された道路画像情報およびレーダシス
テム103からの距離情報は時刻、位置補正手段512
から出力用のDPRAM513に出力され、データ評価
部111に伝えられる。また、このデータ評価部111
から出力されるデータ評価結果はこのDPRAM513
に戻され、データベースへの書き込み手段506によっ
てDB5]4に格納される。なお、DB507〜510
およびこのDB514は第13図のデータベース110
に相当するものである。また、時刻、位置補正手段から
出力された各情報は、データ評価部]]1から出力され
たデータ評価結果と共に逆射影変換手段515に与えら
れ、画像処理を行うためのメモリ上の位置座標に変換さ
れる。さらに、変換された位置座標情報は入力用のDP
RAM505に与えられ、道路領域抽出手段501およ
び道路区分線抽出手段502における各処理に供される
次にこのデータ管理部109における各処理について、
フローチャートを参照しつつ詳細に説明する。
まず、メインループにおける処理について第6図を参照
して説明する。データ管理部109は各手段501〜5
04から新たに出力された処理結果があるか、あるいは
データリクエストがあるが否かを見出すため、定期的に
D P RA M 505からそれらを示す情報を読み
出す(ステップ601)。データリクエストが新たに出
力された処理結果かを判断しくステップ602)、デー
タリクエストではない場合には、各処理結果をDPRA
M505から読み出しDB507〜510に書き込む(
ステップ603)。この後、ステップ60]に戻って以
上の処理を繰り返し実行する。
また、ステップ602における判断結果がデータリクエ
ストである場合には、DB507〜510のうちの該当
するDBから必要なデータを読みだし、後述するリクエ
スト応答処理を実行する(ステップ604)。
次に、このステップ604におけるリクエスト応答処理
について第7図を参照して説明する。まず、このリクエ
スト応答かデータ評価部111からのリクエストである
か否かを判断する(ステップ701)。データ評価部1
11からのリクエストであれば、最新の画像処理データ
および獲得した最新の距離情報データをDB507,5
08およびDB509から読み出す(ステップ702)
読み出したデータが画像処理データであれば、射影変換
処理を実行して(ステップ70B)、位置情報を実際の
道路面上の座標に変換する。さらに、要望の時刻での自
車との位置関係に補正する(ステップ704)。ステッ
プ702〜704までの処理はリクエストのあった入力
処理数だけ繰り返し実行する(ステップ705)。そし
て、補正された処理結果はリクエスト元であるデータ評
価部111に出力される(ステップ706)。
また、ステップ701での判断結果がデータ評価部11
1からのリクエストでない場合には、まず、リクエスト
のあったデータを該当するDBがら読み出す(ステップ
707)。そして、射影変換処理を実行しくステップ7
o8)、要望時刻における位置座標に補正する(ステッ
プ7o9)。
次に、リクエスト要求が道路領域抽出手段501や道路
区分線抽出手段502といった画像処理装置からのもの
であるか否かを判断する(ステップ710)。画像処理
装置からのリフニーストであれば、逆射影変換処理を実
行しくステップ711)、位置情報を画像メモリ上の位
置座標に逆射影変換する。このため、画像処理装置にお
ける処理負荷は軽減されている。また、リクエストが画
像処理装置からのものでない場合には、この逆射影変換
処理は実行しない。この後、処理結果をリクエストのあ
ったリクエスト元へ出力する(ステップ706)。
次に、ステップ704およびステップ708における、
要望の時刻での自軍との位置関係に補正する処理につい
て、第8図のフローチャートおよび第9図のグラフを参
照して説明する。
まず、画像人力時刻などの該当データの入力時刻t1と
、要望のあった時刻t2とが等しいか否かを判断する(
ステップ801)。時刻tl。
t2が異なれば、次に、時刻t1ての軌跡推定データを
軌跡推定DB510から読み取る(ステ・ノブ802)
。この軌跡推定データは第9図のベクトル901に示さ
れ、時刻t1での絶対位置座標における車体の位置と向
きとを表現している。引き続いて、時刻t2での軌跡推
定データを軌跡推定DB510から読み取る(ステップ
803)。
この軌跡推定データは第9図のベクトル902に示され
、時刻t2ての絶対位置座標における車体の位置と向き
とを表現している。そして、各時刻tl、t2における
軌跡推定データから、時刻t1での該当データの各点を
位置補正し、時刻t2での自車との相対座標上の位置に
補正する(ステップ804)。
次に、ステップ804における位置補正について第10
図を参照して説明する。時刻tl、t2ての口車の位置
は同図(a)に示される絶対位置座標1001上の点1
002(X   Y  )。
11“   tl 1003(X   Y  )に示される。この絶対位t
2″  t2 置座標1001はX軸およびY軸で表される。また、時
刻t1ての相対位置座標1004上における点P (x
l、yl)は、この位置補正により、同図(b)に示さ
れる時刻t2ての相対位置座標1005上の点P’  
(x2.y2)に変換される。
時刻t1での相対位置座標1004はX軸およびy軸で
表され、時刻t2ての相対位置座標1005はX′軸お
よびy′軸で表される。ここで、各時刻tl、t2での
相対位置座標のX軸。
X′軸の向きは、各時刻t1.t2での口車の向きを示
しており、絶対座標のX軸とそれぞれθ1、θ2の角度
を持っている。また、上記の位置補正ここで、Δθ−θ
2−θ1である。
このように3種類の画像処理結果を統一的に管理し、各
道路記述データについて、時間・位置の補正を行うこと
により、過去の画像データが要望された現在の座標上に
おける画像データとして表現される。これを第11図を
参照して具体的に説明する。
同図は各処理の時間経過を示しており、同図゛(a)は
道路領域抽出手段501における領域抽出処理の時間経
過を示し、同図(b)は道路区分線抽出手段502にお
ける大局的線分抽出処理の時間経過を示し、同図(C)
は道路区分線抽出手段502における局所的線分追跡処
理の時間経過を示している。各時間軸はある時間で区切
られているが、この1区切りは1処理の時間を表してい
る。今、点線で示される現在時刻t4においてデータリ
クエストがあったとすると、各処理は最新の処理結果で
ある前回処理結果を出力する。つまり、領域抽出処理は
時刻t1に取込んだ画像の処理結果を出力し、大局的線
分抽出処理は時刻t2に取込んだ画像の処理結果を出力
し、局所的線分追跡処理は時刻t3に取込んだ画像の処
理結果を出力する。
例えば、道路が第12図(a)に示される形状の場合に
は、自律走行車の撮像範囲は各時刻t1〜t4で図示の
ように変化する。このため、カメラに撮像される画像は
時刻tl、12.t3において同図(b)、(c)、(
d)に示されるものとなる。データ管理部109は、現
在時刻と各時刻間の車の動きを軌跡推定により前述のよ
うに補正し、現在時刻t4での相対座標上において各時
刻におけるデータを表現する。このように画像処理アル
ゴリズム間での処理結果を相互利用することにより、種
々のメリットが生じる。例えば、大局的線分抽出の処理
結果を利用することにより、局所的線分追跡処理が容易
になる。ま1:、抽出した道路端を利用することにより
、領域抽出処理の精度が上がる。また、との画像処理ア
ルゴリズムも、自身の以前の処理結果を利用することも
てきる。
次にデータ評価部111について説明する。
ます、その概要について説明する。自律走行車において
、道路データは非常に重要なものである。
道路データが正しく得られるはと、そのシステムは安定
して走行することが出来る。このため、より柔軟、かつ
、強固なシステムをもってより高速走行を可能にするた
め、データ評価部111では以下の手法を用いている。
つまり、第1に、複数の画像処理結果を用いることによ
り、各処理の互いの弱点を補った出力を作成する。第2
に、各画像処理結果に対して、道路データとして妥当か
否かの検証を簡単な条件により行う。
この第1の手法により、多様に変化する環境に対し、よ
り柔軟に対処可能となる。つまり、白線のひいであるよ
うな道路においては、白線抽出を得意とする画像処理結
果を用いることができ、白線のないような道路では、カ
ラー領域処理等の結果を用いるこが出来る。また、第2
の手法により道路データを評価することで、より信頼性
のある道路データを作成することが出来る。この第2の
手法は、従来のクアン&ンヤーマ(Kuan、D、 a
ndU、K Sharma)の方法に類似している。し
かし、本実施例による方法は一般的な複雑な道路にも対
応することが出来、評価自体も、道路データを線分ては
なく点レベルで評価する手法や、領域データと線分デー
タとの整合を取る手法等を用いることにより、クアン&
シャーマの方法より優れた手法を可能にしている。
データ評価部111におけるデータ処理の流れは第1図
に示される。なお、このデータ処理は後に詳述する。
まず、データ管理部109から希望する同一時刻に補正
された射影変換後の3つの画像処理結果を入力する。同
一時刻に変換することにより各データ間の比較は容易に
なり、また、射影変換することにより、道路か平面であ
るという仮定のもとての道路データの幾何学的評価か容
易になっている。データ評価部1301はこの3つの画
像処理結果について、まず道路データとして妥当か否か
を後に詳述する条件により決定し、その結果から1つの
信頼できる道路データを作成し、環境記述作成部112
へ出力する。
ところで、このデータ評価部111は上記のように初め
に3つの画像処理結果について検証し、この検証結果を
用いて1つの道路データに融合しているか、この機能の
実現に際し、検証処理と各処理間の相互補完処理とを逆
の順に処理することも可能である。つまり、初めに3つ
の画像処理結果について融合し、その融合結果について
検証するという処理の流れにすることも可能である。し
かし、本実施例ではこの逆の順番の処理は以下の理由に
より採用しなかった。第1に、初めに検証を行うことに
より、どのデータが信頼できそうかの評価が出来る。第
2に、検証後のデータのみを元に出力データを作成する
ので、処理データ量が比較的少なくて済む。第3に、融
合が必ずしも必要でない時がある。第4に、道路データ
の検証について、独立に検証できるものを並列に処理す
ることが可能になるからである。
次に、環境記述作成部112について説明する。
このモジュールは大別して2つの部分から構成されてい
る。第1に、データ評価部から出力される道路区分線デ
ータやレーダシステム103等から出力される障害物位
置などから、自律走行車のおかれた環境を環境記述とい
う形で表現する部分である。他の1つは、作成された環
境記述を管理する部分である。ここで、環境記述とは、
自律走行車を原点に捕らえた地表面座標上に、道路区分
線や障害物位置などを写像した環境地図のことである。
単に、画像処理結果のみを用いて自律走行を行う方法に
比べて環境記述を持つ利点としては次の点などが挙げら
れる。
第1に、各種のセンサ系からの出力を統一的に取り扱う
ことが可能となる。第2に、−度の画像処理ではカメラ
視野の死角となって見えなくなる部分(曲がり角など)
を過去のデータを用いて補足することが可能となる。第
3に、環境記述をセンサ系のモジュールが参照すること
で、系の信頼度を向上させることが可能となる。
本実施例における環境記述は、基本的データとしてベク
トルデータを採用し、データ間の連結・接合関係を双方
向リストを用いて表現している。
また、複数の環境記述を作成・保持していることにより
、他のモジュールからのアクセス要求があった場合、す
てに処理の終わっている環境記述のデータを参照すれば
良く、現在処理中の環境記述の完成を待つ必要がないと
いう利点かあるだけでなく、排他制御の必要がないため
、アクセス管理か容易になるという利点を併せ持ってい
る。
次に、軌跡制御部116について説明する。この制御は
外部環境から送られた道路点列および目標点列に対し、
車体特性を考慮したスムーズな走行可能計画軌跡を発生
し、この計画軌跡に対し車両を追従させることにある。
その構成は第14図に示され、計画軌跡発生部1401
と、この計画軌跡への追従部1402と、舵角制御部1
403とから構成される。
計画軌跡発生部1401は、行動運動制御スーパバイザ
114から道路点列および目標点列を入力し、軌跡推定
部115から自己位置、絶対角。
横滑り角等を入力する。入力した道路点列および目標点
列に対し、計画軌跡発生部1401は軌跡推定部115
から送られた車両の位置や絶対角および横滑り角笥を考
慮し、現在の口車の位置と方向とに対する車体特性を考
慮した走行可能計画軌跡を発生させる。この発生された
計画軌跡に対し、現在の車両の状況(ヨーレート、車速
、舵角)を計画軌跡発生部1401にフィードバックし
、計画軌跡に追従させるべき現在の舵角を発生する。
舵角制御1403は、指示された舵角に対して舵角位置
制御を行う。
次に、車速制御部]17について説明する。車速制御部
117の構成は第15図に示され、車速計画発生部15
01、目標車速追従部1502およびアクチュエータ制
御部1503とから構成されている。
車速計画発生部1501は、行動運動制御スーパーバイ
ザ114から目標経路速度点列(目標距1Xref 、
 Yref 、目標速度Vrer)を入力し、また、自
律走行車の車体1504から実距離Xact、実速度v
 actを入力する。そして、与えられた各データから
目標を満足するような目標車速変化パターンをファジィ
推論により生成する。
目標車速追従部1502は車速計画発生部1501から
出力された目標速度V rel’に追従できるように、
目標スロットル開度や目標ブレーキ圧力を出力する。こ
の開度および圧力の計算は、車体1504から実速度V
actと実加速度Oactとを検出し、この車体の状態
量を基にしたファジィ推論により行われる。アクチュエ
ータ制御部1503は、目標車速追従部1502から出
力される目標スロットル開度や目標ブレーキ圧力になる
ように、スロットルモータ1505およびブレーキソレ
ノイドバルブ1506を制御する。この制御により車体
1504の走行制御が行われ、自律走行車は自動走行す
る。
次に、前述したデータ評価部111における処理につい
て詳述する。
データ評価部111においては、データの評価を効率良
く行うため、入力される各画像処理結果について第16
図に示される形式のデータを用いる。これらのデータは
、前述のようにデータ管理部109において全て射影変
換され、3つの画像処理結果は全て同一時刻に補正され
ている。また、同図では3つのデータ入力構造のうちの
領域抽出処理による入力データ構造についてのみ示され
ており、他の2つの処理による構造も同様に表現される
。つまり、領域抽出処理、局所的線分追跡処理および大
局的線分抽出処理の各処理から入力されるデータ構造は
共通に定義されている。
入力データは、各線分の接続状況を元にしてグループ分
けされている。このグループ分けは最大16グループ(
グループ0〜グループ15)になるように行われている
。これら各グループを構成する点列数は最大30まてに
止められる。そして、各線分について線の属性が付与さ
れ、さらに、各線分を構成する各点について座標(x、
y)か取られ、各点に属性が付与されている。
また、各点列について対向関係にあるものについてグル
ープ分けされており、各グループにID0、IDI・・
・という識別番号が付けられている。
この対向関係とは、線分どうしが互いに向き合っている
ものをいう。但し、この対向関係の情報がなくても、全
ての点列に対してデータ評価を行うことにより、対向関
係が識別される。つまり、ここでの対向関係は、評価の
際の探索領域を削減をするために用いられている。
また、対向関係にある各グループについてグループ間の
接続点数か求められている。この接続点数は最大5に止
められている。また、接続関係にあるグループ数も最大
5に止められている。そして、求められた各接続点にI
DO,IDI・・、という識別番号が付けられている。
ここでの接続関係とは自グループと異なる線分グループ
との接続関係を示している。
データ評価部111の内部でのデータ構造も、局所的線
分追跡処理、大局的線分抽出処理および領域抽出処理に
よる各データについて共通に定義している。次に、この
データ評価内部でのデータ構造を大局的線分抽出処理に
よるデータ構造を例にして、第17図の概略図を参照し
て説明する。
各データは、グループ、線、点と階層的に細分化される
ことにより表現されており、それぞれかポインタにより
相互に結ばれ、参照しやすいようになっている。また、
このデータ構造において、道幅フラグのようにフラグと
いう名前の付いた変数には、データ評価による検証結果
が入る。最終的にはこのフラグを見ることにより最も適
した評価データか作成される。
大局的線分抽出処理によるデータについて、まず、接続
関係にあるグループ数、データ入力時間、およびリジェ
クトフラグが定義される。このリジェクトフラグとは、
大局的線分抽出処理による処理の結果、入力データが妥
当なものであるか否かを示すフラグである。また、入力
データがグループg[0]・・g[1] ・・g [M
AX  G−1コと最大MAX  Gまでグループ分け
される。そして、各グループについて、識別番号ID、
点列数、線分数、線分属性、対向グループ数、対向グル
ープへのポインタ、隣接グループ数、道路端フラグおよ
び領域フラグが定義される。
さらに、各グループの点は、p [0]・・・p [j
]・・p [MAI  L] と最大MAIL+1に分
けられる。これら各点には、識別番号ID、魚屑性。
X座標、X座標、道幅、道幅フラグ、地平線フラグ、ク
ロスフラグ2領域外フラグ、重複フラグ。
所属グループの数および所属グループへのポインタが定
義される。
また、各グループの線は、N  [0]・・・i)  
[k]・・・Ω [MAI  L−1コと最大MAX 
 Lに分けられる。これら各線には、識別番号、開始点
、終了点、隣接線分の数および長さが定義される。さら
に、これら各線は、隣接線分NeytLine [O]
・・・NextLine Cm] −NextLina
 [MA X  N −1]と最大MAX  Nの隣接
線分をもつ。さらに、各隣接線分には、隣接線分へのポ
インタおよび隣接線分との角度が定義される。
次に、データ管理部109から出力されたデータか道路
データとして妥当であるか否かの妥当性の検証について
説明する。
データ評価部111では、道路データの局所的評価によ
り、道路データとしての妥当性を検証する。道路データ
の妥当性を検証するには、道路が一体どのようなものか
を記述する道路モデルが必要である。本実施例における
道路モデルは、以下の条件の下に作成される。つまり、
く道幅条件〉として道路はある道幅をもっていること、
く滑らかさ条件〉として道路を構成する線分は滑らかに
なっていることを必要とする。さらに、道路データから
異常なデータを除去するためのく異常点条件1〉として
、道路データの点数はある値以上必要であること、く異
常点条件2〉として道路データは測定範囲外に存在しな
いこと、く異常点条件3〉として道路データは道路領域
外には存在しないことが挙げられる。
この条件だけを見ると従来のファンとシャーマによる道
路モデルより単純であることに気付く。
つまり、道路条件に道路端の平行性の条件が入っていな
い。これは、道幅だけで平行性を推測することが可能だ
からである。また、道路境界の連続性の条件も入ってい
ない。これは環境記述作成部112において連続性はあ
る程度検証されるからである。さらに、本実施例のシス
テムは彼等のシステムと異なり3つの画像処理結果を用
いているため、前回のデータ評価結果と今回のデータ評
価結果は、全く異なる画像処理結果を元に生成されるこ
とがあり、単純にデータ評価結果を比較することはでき
ない。
次に、道幅条件により、道路データとしての妥当性を検
証する処理について説明する。
道幅の測定はファンとシャーマによる方法と異なり、点
のレベルで外積を用いて計算する。彼等も外積を用いて
いるか、彼等は線分の端点と対応線分との距離測定に用
い、端点の平均により線分間の距離を求めている。本実
施例では点と対応線分の距N測定に用いる。さらに、複
数の線分についての道幅を測定することで、多車線路へ
の対応を可能にしている。この3 fnを用いた道幅の
測定は以下のようにして行われる。
第18図において、X、Yはベクトルを表し、それぞれ
の始点座標は(x O,y O)である。また、ベクト
ルXの終点座標は点Pの座標(X、Y)であり、ベクト
ルYの終点座標は(x 1.  y 2)である。これ
らベクトルX、Yは以下の式に示される。
X= (X−xO,Y−yO) Y−(xl−xO,yl−yO) また、図におけるθはベクトルXとベクトルYとのなす
角であり、XxYはそれぞれの外積を示す。このとき、
点PとベクトルYのなす直線りとの距離ベクトルdは次
式に示される。
d −(XxY) / 11 Y IIまた、d=ll
Xllsinθなので、dはθか0〜180’のとき正
で、180〜360’のとき負になる。このため、dの
符号により、点Pと直線りとの位置関係が求められる。
この外積距離を用いて第19図に示されるデータについ
て道幅情報を求めると以下の表のようになる。なお、同
表の数値の単位はcmである。また、第1表の上段は該
当する点の右側に対向する線分との距離であり、下段は
、該当する点が領域の左側の境界線上に位置し、左側に
は線分が存在しないため、右側に対向する線分のさらに
右側に対向する線分との距離が示されている。第2表の
上段は該当する点の右側に対向する線分との距離であり
、下段は該当する点の左側に対向する線分との距離であ
る。第3表の上段は該当する点の左側に対向する線分と
の距離であり、下段は、該当する点か領域の右側の境界
線上に位置し、右側には線分が存在しないため、左側に
対向する線分のさらに左側に対向する線分との距離が示
されている。
第1表 第2表 第3表 第1表と第3表において対向する線分にさらに対向する
線分との距離が示されているのは、第19図に示された
道路データ例では、線分間の対向関係が両端の点列デー
タ中にないからである。
線分間の対向関係が正しく出ているならば、上記の各表
のうち、第1表および第3表の点pO*、 p2*(*
は任意の数字を示す)については下段の距離は計算され
ない。また、道幅の検証には、異常点を除いて各点につ
いて求まる道幅のうち最少のものを用いる。道幅を30
0cm以上400cm以下とすると、上記の6表のうち
最少道幅かこの範囲を外れているものは、点pot 、
 p02 、 p12の3点になる。この3点を除いた
線分は平行性を満たすことになる。なぜなら、外積距離
のほぼ等しいベクトルが残るからである。外積距離によ
り平行性か満たされることは、次の簡単な命題により証
明される。
(命題) ある−線分1が他の一線分mに平行で、かつ距離りを持
つための必要十分条件は、 d=線分1の始点と線分mの外積距離 −線分]の終点と線分mの外積距離、 かつ、 II d lI −D である。
(証明) 線分]の始点をp、終点をq、線分mの始点をr、終点
をSとする。このとき、ベクトルY=s−r、ベクトル
XI−q−r、  ベクトルX2−p−「とおくと、任
意の線分1について、次の関係が成立する。
線分1の始点と線分mの外積距離= 線分1の終点と線分mの外積距離 (XI XY) /il Y II =(X2xY) 
/ II Y II (X1xY)/1lYli= [(X2xkY)  xy コ /  11  Y  
IIここで、kは定数であり、また、ベクトルYは0ベ
クトルでないことから、次式が成立する。
Xl−X2+kY 従って、線分1と線分mとは平行である。また、外積距
離のノルムは2線分の距離と等しい(証明終わり)。
次に、データの滑らかさの検証をすることにより、道路
データとしての受話性を検証する処理について述べる。
この処理においては、道路は滑らかに連続することより
、隣接するベクトルのなす角か一定値以下であることを
条件としている。画像処理の結果が安定してきた場合に
は、この処理は不要かもしれない。
次に、道路データから異常なデータを除去する処理につ
いて説明する。
画像処理の結果は、時に異常な結果を出力する。
例えば、平面の対象のみを考え、すべてを射影変換して
いる場合、立体物を抽出した結果は射影変換すると異常
に遠方の点として出力されることがある。さらに、白黒
画像から道路構成線分を抽出する処理は、誤って道路領
域外の線分を抽出することもある。このような異常デー
タを除去するため、データ評価部111では以下のこと
を行っている。
■道路データの点数の少ないデータは用いない。
■あまりに遠方にある点は利用しない。
■白黒処理の結果については、カラー領域処理より求ま
る道路領域外の点を利用しない。
このうち、■、■については、単に最少点数、最遠方点
座標を判別線とする不等式処理により、異常な点にフラ
グをたてるのみである。■については、次の領域データ
と線分抽出データの整合性検証処理において説明する。
この整合性検証処理の概要は次のようである。
つまり、白黒処理による線分抽出処理は、道路を構成す
ると思える線分の抽出を白黒画像に基づいて行っている
が、しばしば、道路領域外の線分を抽出してしまう。こ
のため、データ評価部111では、領域抽出処理による
道路領域を用いて道路領域外の線分除去を行う。この機
能を実現するために、データ評価部111で取った手法
は、前述の外積を用いた距離測定による領域内判定であ
る。
この手法は、線分データの各点について領域データの各
線分との外積による距離を計算し、その値により点が領
域の内か外かを判定するというものである。
領域データに領域としての情報を付加するため、領域デ
ータはベクトルを用いて表現される。このベクトルとは
、道路領域内を常に右側に見るベクトルにより領域を表
現するというものである。例えば、道路領域が斜線部分
で示されている第20図を用いてこれを説明する。つま
り、ベクトル表現を用いての各点の領域内外の判定を以
下のように行う。同図において、点p、qについて調べ
ることにする。この2点について、領域データの各線分
、つまり、道路領域の境界線との距離を外積を取ること
により求める。この外積は境界線ベクトルと、この境界
線ベクトルの始点から各点p。
qに向かうベクトルとについて計算される。その最小値
をみると、点pの値は負になり、点qについては正とな
る。但し、外積距離の符号は、紙面上向きが正、下向き
が負である。このため、外積が負になる点pは領域外に
あるものと判定され、外積が正になる点qは領域内にあ
るものと判定される。
このように、各点は、領域データのベクトルから、領域
の内外に分類することが出来る。この手法の特徴は、領
域の内外についての判定に柔軟性を持たせられるという
ことである。つまり、領域の内か外かの2値でなく、距
離というノルムを用いた判定が可能となる。また、点に
対して、領域の内と外とにまたがる対象を扱うような場
合の意味付けに有用である。
次に、出力道路データの作成処理について説明する。
3つの画像処理から得る道路データに対して行われた検
証結果を用いて、1つの道路データを作成するにあたっ
て、以下の3つの基本的者えに基づき、出力ルールを第
4表のように設定した。
基本的な考えは次のよってある。
■検証の結果、妥当とされたデータはなるべく加工しな
いで出力する。
■妥当な結果が複数ある時は、優先順位により出力デー
タを決定する。
■妥当な結果か無い場合、複数のデータより融合データ
を作成し、出力する。
それぞれの考えの理由は、 ■については、リアルタイム性を求めるためである。つ
まり、妥当なデータならば加工せずとも第4表 走行には十分であり、システムとしては出力道路データ
は少しでも早く必要なことから、そのまま出力するのが
効率的だからである。
■については、データの性質の差によるものである。現
在、3つの画像処理の内、領域抽出処理は道路端量外の
データを出力していない。また、大局的線分抽出処理は
処理か大局的なため、複雑な道についてそのまま使用は
出来ない。
そこで、認識される道路構造が単調なときには、大局的
線分抽出処理を有用とし、大局的線分抽出処理からのデ
ータの検証結果が妥当なときは、これを出力する。道路
構造が単調か否かは、大局的線分抽出処理からのデータ
より推測する。現在は、局所的線分追跡処理の結果が妥
当 かつ、 大局的線分抽出処理のグループ数〈7 かつ、 隣接線分となす角く30度 の状況が3回以上連続した場合、単調としている。
一方、認識された道路構造が複雑な時は、優先順位を、 局所的線分追跡処理〉領域抽出処理〉大局的線分抽出処
理としく〉は左側の処理の方が優先順位が高いことを示
す)、複数のデータが妥当な場合、この順位により出力
データを決定する。
■については、データか単独で道路データとして妥当て
ない時、異種のデータを融合することにより、互いの欠
点を補う。異種のデータはそれぞれの内、評価により妥
当とされる点をもち、これらの点か融合される。この融
合の詳細は以下に述べる。
また、第4表における表の見方は次のようである。つま
り、領域抽出処理によるデータについての妥当性チエツ
ク結果が正常であり、局所的線分追跡処理によるデータ
についての妥当性チエツク結果か正常である場合には、
局所的線分追跡処理に基づくデータがデータ評価部11
1から出力される。他の列の妥当性チエツク結果も同様
にして同表から読み取れる。
次に、異種データの融合処理について説明する。
全てのデータの検証結果が異常となった場合、複数のデ
ータについて、検証において妥当とされた点をもとに融
合して1つのデータを作成する。異種データの融合処理
の主な処理の流れは以下のようになる。第1に、3つの
画像入力の検証後のデータについて、妥当な点が最も多
いものを基本データ、次に多いものを副データとする。
第2に、基本データの各線分グループについて、副デー
タの中で融合可能な点を見付け、融合する。
融合可能か否かは、副データの点か基本データの線に滑
らかに繋がるかとうがて決める。滑らかに繋がるか否か
の判定は、延長される線分と、その手前の線分とのなす
角により決まる。例えば、第21図において、直線りに
対して点Pが滑らかに繋がるとは、直線りの端点と点P
とを結ぶ線分2101が直線りの延長線分となす角θが
一定値以下である、ということである。本実施例による
自律走行車では、COS θ〉0.8としている。この
基準により、第22図のようなデータは、点P1のみが
融合される。つまり、既存の線分の端点と点P2とを結
ぶ線分が既存の線分の延長線となす角度か基準値以上だ
からである。これに対して点P1による線分が既存の線
分の延長線となす角度は基準値以内におさまっている。
この結果、点P1か既存の線分と融合され、第23図に
示される滑らかな繋がり状態の直線が得られる。
次に、データ評価部111におけるデータ評価アルゴリ
ズムについて説明する。
データ評価処理の主要フローチャートは第24図に示さ
れる。まず、初期化処理を行う(ステップ2401)。
この後、3つの画像処理結果を読み込む(ステップ24
02)。3つの画像処理結果は、データ評価で扱い易い
ように内部データ構造に変換される(ステップ2403
)。この後、それぞれ独立に道路データとしての妥当性
がチエツクされる(ステップ2404)。この際、妥当
か否かは前述した方法で点単位に検証され、妥当でない
点があまりに多いデータは異常とされる。
そしてこの妥当性チエツク結果から、全てのデータが異
常かどうかを判断する(ステップ2405)。全てのデ
ータが異常であった場合には、全てのデータの中から妥
当な点(データ自身が異常とされても、そのデータを構
成する点の中には妥当な点もある。)を見付け、この妥
当点に基づいてデータの融合を行う(ステップ2406
)。そして、1つの道路データとしてこれを出力する(
ステップ2407)。
ステップ2405における判断において、1つでも妥当
とされるデータが存在するならば、次に、大局的線分抽
出処理が正常で、かつ、道路が単調路であるか否かを判
断する(ステップ2408)。
この時の基準は出力道路データの作成処理でのものと同
じである。大局的線分抽出処理が正常で道路が単調路と
認識された時には大局的線分抽出処理結果を出力する(
ステップ2409)。その他のときは、優先順位により
妥当なデータが出力される(ステップ2410)。この
優先順位は局所的線分追跡処理に基づくデータの優先度
が一番高く、次に、領域抽出処理に基づくデータ、次に
、大局的線分抽出処理に基づくデータという順位になっ
ている。
それでは、簡単な例について説明する。入力データが第
25図のような場合を考える。同図(a)は局所的線分
追跡処理からの入力データ、同図(b)は大局的線分抽
出処理からの入力データ、同図(c)は領域抽出処理か
らの入力データである。まず、それぞれのデータは道路
としての妥当性か評価される。その結果、同図(a)に
示される局所的線分追跡処理からの入力データは、点Ω
p3.IIp6が道幅の基準で異常とされ、データ自身
も異常とされる。同図(b)に示される大局的線分抽出
処理からの入力データは、点gl)0゜gpiが道路領
域外にあるため異常とされ、データ自身も異常となる。
同図(C)に示される領域抽出処理からの入力データは
、点cp5.cp6が道幅の基準から異常とされ、領域
抽出処理の評価結果は異常となる。
こうして、全てのデータは異常となったため、第4表に
基づいてデータ融合が行われる、第26図はそれぞれの
データについての妥当性検証後に妥当とされた点である
。つまり、第25図(a)。
(b)、(C)に示された局所的線分追跡処理からの人
力データ、大局的線分抽出処理からのデータ、領域抽出
処理からの入力データの中の妥当な点は、第26図(a
)、(b)、CC)に対応して示されている。このよう
に、データ自身が異常と判断されたデータには、妥当と
思える点がいくつか残っている。そこで、この点を利用
している。
第26図において、妥当な点が多いのは局所的線分追跡
からの入力データ、次に多いのは領域抽出処理からの入
力データである。このため、基本データには局所的線分
追跡処理からの入力データ、副データには領域抽出処理
からの入力データか選ばれる。そして、この2つの基本
データおよび副データは、滑らかさの基準を以て融合さ
れ、第27図に示される1つの道路データか出力結果と
なる。
次に、本実施例による実験結果について説明する。
第28図から第33図は実験例を示す。実験は米国サン
マイクロシステムズ社製ワークステーション5UN4/
110および米国モトローラ社製68020CPUボー
ド MUME133XT上で行われた。使用言語はC言
語であり、処理時間は5UN4/110で20〜100
m5ec。
133XT上では40〜300m5ecかかる。
第35図に示すように、各図の(a)、(b)。
(c)は局所的線分追跡処理(局所的ハフ変換処理)か
らの入力データ、大局的線分抽出処理(大局的ハフ変換
処理)からの入力データ、領域抽出処理(カラー領域処
理)からの入力データを示し、各図の(d)、(e)、
’(f)は局所的線分追跡処理からの入力データについ
ての評価結果データ。
大局的線分抽出処理からの入力データについての評価結
果データ、領域抽出処理からの入力データについての評
価結果データを示す。また、各図の(g)、(h)は基
本データ、副データを示し、各図の(i)は出力データ
を示す。
第28図は曲線路に対し前記の3つの道路境界抽出処理
が行われ、それらから各々の入力データを受は取った例
である。同図(a)、(b)。
(C)に示された各入力データはデータ評価部111で
評価される。この評価の結果は同図(d)、(e)、(
f)に示され、これらを見ると3つとも正しそうである
。このため、3つの入力画像は皆正しいものと判断し、
前述の優先順位に従って局所的線分追跡処理による評価
データ、つまり、同図(d)に示されるデータを出力し
、出力結果は同図(i)に示されるものになる。
第29図から第31図は、各図の(a)に示された局所
的線分追跡処理によるデータのみを入力した例である。
第29図は、追跡処理の失敗により余分な線を抽出した
例である。同図(a)に示される左斜めに存在する余分
な線は同図(d)に示されるようにデータ評価により除
去される。この人力データは妥当でない点が多かったた
め、道路データとして妥当でないと判断され、データ処
理としてはデータ融合が行われる。しかし、この図に示
される場合には他の入力データが無いため、評価後の妥
当な点のみからなる道路データ、つまり、同図(d)に
示される評価データが同図(g)に示される基本データ
になり、これがそのまま同図(i)に示される出力デー
タになる。
第30図、第31図はいずれもT字路を局所的線分追跡
処理した結果を示す。第30図ではT字路の遠方の境界
線か抽出できていないが、第31図では抽出できている
。つまり、第30図においては、同図(a)に示される
入力データのT字路に境界線の一端に対応する線分が見
付からない。
このため、T字路の突き当たりの曲がり角以降の点か妥
当でないものと処理され、同図(d)に示されるデータ
評価結果になる。また、妥当でない点が多いため、デー
タの融合処理が行われる。しかし、入力データは局所的
線分追跡処理のものしかないため、同図(d)に示され
る評価データが同図(g)に示される基本データになり
、これがそのまま同図(i)に示される出力データにな
る。
また、第31図においては、T字路の全ての点が抽出さ
れているため、全ての点が妥当と評価されて同図(d)
に示される評価データが得られ、これが同図(i)に示
される出力データになる。
このように、本処理はボトムアップ型で、しかも、画像
処理結果以外のデータを用いていないので、道路構造の
予測はできない。しかし、ナビケーションシステム等を
用いてT字路の存在か予測8来れば、第30図の結果も
自ずと変わってくる。つまり、T字路の境界線の一端が
予測され、正しい道路データが得られる。
第32図は、道幅による道路構造の検証と、異種データ
の融合の働きが良く分かる処理例である。
同図(a)に示される局所的線分追跡処理からの入力デ
ータは道路遠方がかなり広がっているため、それらの点
が妥当でないと判断される。このため、データ評価によ
りこれらの点は除去され、同図(d)に示される評価デ
ータが得られる。また、同図(b)に示される大局的線
分抽出処理からの入力データは道路遠方の道幅が狭いた
め、それらの点が妥当でないと判断され、同図(e)に
示される評価データが得られる。また、同図(c)に示
される領域抽出処理からの入力データは、中距離の点に
ついて道幅が狭いため、それらの点が妥当でないと判断
され、同図(f)に示される評価データが得られる。
このように、すべての入力データが何等かの異常データ
を多く含んでいるため、データ出力は融合データを作成
することにより行われる。このとき、融合の基本データ
となるのは同図(g)に示される局所的線分追跡処理の
評価結果データであり、同図(g)に示されている。ま
た、同図(h)に示される副データは、同図(f)に示
される領域抽出処理からの入力データの内での妥当な点
の集まりである。データの融合により、基本データに対
して道路の右側の点列が融合され、同図(i)に示され
るデータが出力される。この際、道路の左側の点列が融
合されないのは、基本データの左側について、その遠方
端点がやや広がり、副データと滑らかに繋がらないため
である。
第33図は、領域抽出処理からの入力データと小領域追
跡処理による線分抽出データとの整合性の検証か良く表
現されている処理例である。同図(c)に示される領域
抽出処理からの入力データから同図(f)に示され評価
データが得られる。
また、同図(a)、(b)に示される2つの小領域追跡
処理からの入力データに対し、領域抽出処理の評価デー
タに表される道路領域外の点は、異常と判断される。こ
のため、小領域追跡処理による各線分抽出データは領域
抽出処理による道路領域外の点が除去され、同図(d)
、(e)に示される評価データになる。出力としては、
領域抽出処理からの入力データが異常点を含んでいない
ため、道路データとして妥当と判断され、同図(i)に
示されるデータとなって出力される。
以上のように本実施例においては、時間的に同一時刻に
補正された複数の道路データを入力し、各道路データを
点レベルでの道路モデルにより検証し、検証後の複数の
道路データより、1つの道路データを作成する。
このように、複数の画像処理結果を入力するため、出力
としてその中から最も道路らしいデータが得られる。従
って、従来の単一の画像処理結果を用いる場合に比較し
て、各画像処理の持つ弱点を補うことが出来る。また、
従来、ファンとシャーマとによる道路認識は、線分レベ
ルでの道路モデルにより検証し、その道路モデルも平行
関係を考え過ぎたものであったため、分岐路や多車線路
の複雑な道路形状を検証できなかった。しかし、本実施
例のように点レベルでの検証を行うことにより、結果と
して平行な道路内線分を得ることか出来、分岐路や多車
線路にも対応することか出来る。
〔発明の効果〕
以上説明したように本発明によれば、線分レベルでなく
点レベルでデータ評価を行うため、複雑な形状の移動路
が1別される。このため、従来は1車線の単調な道路し
か識別することが出来なかったが、分岐路等を有するよ
り現実的な道路をも認識することが可能になった。また
、複数の道路境界抽出処理から出力される点列データを
元に移動路らしさが判定されるため、得られるデータの
信頼性は向上する。このため、安定した道路データが得
られる。
この結果、本発明によれば、実走行に近い状態で自律走
行車を自動走行させることが出来る。
【図面の簡単な説明】
第1図は本発明の一実施例によるデータ評価部の処理の
流れを示すブロック図、第2図は本実施例におけるデー
タ管理部の1つの働きの概要を説明するための図、第3
図はこのデータ管理部を使用しなかった場合における不
都合を説明するだめの図、第4図は本実施例におけるデ
ータ管理部の他の働きを説明するための図、第5図は本
実施例におけるデータ管理部の内部構造を示すブロック
図、第6図、第7図および第8図のそれぞれはデータ管
理部における処理の流れを示すフローチャート、第9図
は第8図のフローチャートの説明において使用される車
体の位置と向きとを示すグラフ、第10図はデータ管理
部における位置補正処理を説明するためのグラフ、第1
1図はこの位置補正処理における各画像処理間の時間関
係を説明するための図、第12図はこの位置補正におけ
る各時刻における入力画像を説明するための図、第13
図は自律走行車の走行制御装置の全体構成を示すブロッ
ク図、第14図は軌跡制御部の構成を示すブロック図、
第15図は車速制御部の構成を示すブロック図、第16
図はデータ評価部に入力されるデータの構造を示す図、
第17図はデータ評価部内部におけるデータの構造を示
す図、第18図はベクトルの外積を用いた道幅の計算を
説明するためのグラフ、第19図はこのベクトルの外積
による道幅計算が適用される道路データの一例を示す図
、第20図は点が領域の内か外かのいずれにあるかの判
定を説明するための図、第21図は点が線分に滑らかに
繋がる条件を説明するための図、第22図は異種データ
の融合処理が施される前のデータ例を示す図、第23図
は異種データの融合処理が施された後のデータ例を示す
図、第24図はデータ評価部における処理の概略を示す
フローチャート、第25図は各画像処理装置がらデータ
評価部に入力されたデータ例を示す図、第26図は第2
5図に示された入力データのうちデー、夕評価部で妥当
と判断されたデータを示す図、第27図は第26図に示
されたデータが融合されデータ評価部から出力されるデ
ータを示す図、第28図、第29図、第30図、第31
図、第32図および第33図のそれぞれはデータ評価部
でのデータ処理の処理過程を示す実験データ例を示す図
、第34図は従来技術の課題の説明において使用される
道路データ例を示す図、第35図は第28図〜第33図
の各図を説明するための図である。 101・・・カラーカメラ、102・・・白黒カメラ、
103・・・レーダシステム、104・・・領域抽出手
段、105・・・局所的線分追跡手段、106・・・大
局的線分抽出手段、107・・・ナビゲーションシステ
ム、109・・データ管理部、110・・・データベー
ス、1301.111・・・データ評価部、112・・
・環境記述作成部、113・・・環境記述データベース
、114・・・行動運動制御スーパーバイザ、115・
・・軌跡推定部、116・・・軌跡制御部、117・・
・車速制御部。 代理人弁理士   長谷用  芳  樹デ′−/)訂価
部に加す3匁理の流汽 綿1図 デ°−タ管理部の働きの例 兜2図 115り8ξづにy天ff’)/i耳IILす動ブ1=
%3図 テ゛′−)9管理含陣イ位の1力き 売4図 メイ゛フループ拠理 喘6図 リクエスト昆、答偲理 亮7図 @望8壺ヌリで)位1岬甫正欠理 笥8図 亮9図 (dJ 位置精工によけ3各庁モ 莞]O図 (b) 県間9開保 軌跡体リイ卸邪の構が5゛ 莞14図 テ゛−タ入力1先I 屍16図 γx’( 男旧図 傷銘テ゛ニタの−り勺 %19図 男20図 ÷、Pの滑ら方さΦ条件 亮21図 テ゛−タ詳濠出の主要フロー 究24図 CO)   (t))      CC)  、 (d
)(e)      男34図 夷25図

Claims (1)

  1. 【特許請求の範囲】 1、1つ以上の撮像装置により撮像された移動路データ
    から抽出され同一時刻データに補正された1つ以上の点
    列データを入力し、該点列データを線および点のレベル
    に構造化して保持し、移動路を構成する点および線が持
    つ条件をモデルとして記述し、該モデルを検証基準とす
    る所定のルールを以て前記入力点列データの移動路らし
    さを判断し、該判断結果に基づいて前記入力点列データ
    を1つの妥当な移動路データに変換することを特徴とす
    る移動路データに対する評価方法。 2、モデルの条件は、移動路は所定の幅を持ち、移動路
    を構成する線分は滑らかに繋がり、移動路を構成する点
    数は所定数以上存在し、移動路データは測定範囲外に存
    在せず、移動路データは移動路領域外に存在しないこと
    を条件とすることを特徴とする請求項1記載の移動路デ
    ータに対する評価方法。 3、モデルを検証基準とする所定のルールは、移動路の
    境界の一端を構成する点と該移動路の他端を構成する線
    分との距離が所定の範囲内にあり、移動路の境界線分は
    滑らかに繋がるというルールを持つことを特徴とする請
    求項1または請求項2記載の移動路データに対する評価
    方法。 4、モデルを検証基準とする所定のルールは、移動路領
    域を表す点列データを領域を表現するベクトルに示し、
    移動路領域を構成すると思える点列データの点と該ベク
    トルとの外積を取り、この演算結果に基づいて該点が移
    動路領域内にあるか否かを判断し、前記移動路領域を構
    成すると思える点列データの移動路らしさを判定するル
    ールを持つことを特徴とする請求項1または請求項2ま
    たは請求項3記載の移動路データに対する評価方法。 5、複数の入力点列データを1つの妥当な移動路データ
    に変換する処理は、移動路らしい入力点列データが複数
    ある場合には、複数の撮像装置の撮像特性に応じた優先
    順位に基づき、出力データを決定することを特徴とする
    請求項1または請求項2または請求項3または請求項4
    記載の移動路データに対する評価方法。 6、複数の入力点列データを1つの妥当な移動路データ
    に変換する処理は、移動路らしい入力点列データが無い
    場合には、前記複数の入力点列データのうちの妥当な点
    を融合して出力データに変換することを特徴とする請求
    項1または請求項2まはた請求項3または請求項4また
    は請求項5記載の移動路データに対する評価方法。
JP33573190A 1990-11-30 1990-11-30 移動路データに対する評価方法 Expired - Fee Related JP3200062B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP33573190A JP3200062B2 (ja) 1990-11-30 1990-11-30 移動路データに対する評価方法
DE69121369T DE69121369T2 (de) 1990-11-30 1991-12-02 Steuervorrichtung für einen sich selbständig bewegenden Körper und Verfahren zur Auswertung der Daten davon
EP91311210A EP0488828B1 (en) 1990-11-30 1991-12-02 Control device of an autonomously moving body and evaluation method for data thereof
US07/801,708 US5307419A (en) 1990-11-30 1991-12-02 Control device of an autonomously moving body and evaluation method for data thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33573190A JP3200062B2 (ja) 1990-11-30 1990-11-30 移動路データに対する評価方法

Publications (2)

Publication Number Publication Date
JPH04205320A true JPH04205320A (ja) 1992-07-27
JP3200062B2 JP3200062B2 (ja) 2001-08-20

Family

ID=18291844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33573190A Expired - Fee Related JP3200062B2 (ja) 1990-11-30 1990-11-30 移動路データに対する評価方法

Country Status (1)

Country Link
JP (1) JP3200062B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315125A (ja) * 1995-05-12 1996-11-29 Honda Motor Co Ltd 車両の走行路区分線などの認識装置
JPH09218937A (ja) * 1996-02-08 1997-08-19 Nippon Soken Inc 区画線検出装置
JP2002170102A (ja) * 2000-12-04 2002-06-14 Nippon Telegr & Teleph Corp <Ntt> 撮影対象物の自動獲得・復元方法及び装置
JP2008230358A (ja) * 2007-03-19 2008-10-02 Honda Motor Co Ltd 表示装置
JPWO2007077682A1 (ja) * 2005-12-28 2009-06-04 本田技研工業株式会社 車両及びレーンマーク検出装置
JP2009140435A (ja) * 2007-12-10 2009-06-25 Sharp Corp 画像処理装置、画像表示装置、画像形成装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2018101437A (ja) * 2015-09-11 2018-06-28 富士フイルム株式会社 走行支援装置、走行支援装置による走行支援方法及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315125A (ja) * 1995-05-12 1996-11-29 Honda Motor Co Ltd 車両の走行路区分線などの認識装置
JPH09218937A (ja) * 1996-02-08 1997-08-19 Nippon Soken Inc 区画線検出装置
JP2002170102A (ja) * 2000-12-04 2002-06-14 Nippon Telegr & Teleph Corp <Ntt> 撮影対象物の自動獲得・復元方法及び装置
JPWO2007077682A1 (ja) * 2005-12-28 2009-06-04 本田技研工業株式会社 車両及びレーンマーク検出装置
JP4607193B2 (ja) * 2005-12-28 2011-01-05 本田技研工業株式会社 車両及びレーンマーク検出装置
JP2008230358A (ja) * 2007-03-19 2008-10-02 Honda Motor Co Ltd 表示装置
JP4615536B2 (ja) * 2007-03-19 2011-01-19 本田技研工業株式会社 表示装置
JP2009140435A (ja) * 2007-12-10 2009-06-25 Sharp Corp 画像処理装置、画像表示装置、画像形成装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP4510069B2 (ja) * 2007-12-10 2010-07-21 シャープ株式会社 画像処理装置、画像表示装置、画像形成装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2018101437A (ja) * 2015-09-11 2018-06-28 富士フイルム株式会社 走行支援装置、走行支援装置による走行支援方法及びプログラム
US10671859B2 (en) 2015-09-11 2020-06-02 Fujifilm Corporation Travel assistance device and travel assistance method using travel assistance device

Also Published As

Publication number Publication date
JP3200062B2 (ja) 2001-08-20

Similar Documents

Publication Publication Date Title
US5307419A (en) Control device of an autonomously moving body and evaluation method for data thereof
Kato et al. Autoware on board: Enabling autonomous vehicles with embedded systems
CN114384920B (zh) 一种基于局部栅格地图实时构建的动态避障方法
US11482014B2 (en) 3D auto-labeling with structural and physical constraints
Thorpe et al. Vision and navigation for the Carnegie-Mellon Navlab
CN109887033A (zh) 定位方法及装置
Moosmann et al. Motion estimation from range images in dynamic outdoor scenes
Chen et al. Milestones in autonomous driving and intelligent vehicles—part ii: Perception and planning
US20220222889A1 (en) Monocular 3d vehicle modeling and auto-labeling using semantic keypoints
Jaspers et al. Multi-modal local terrain maps from vision and lidar
CN110986945B (zh) 基于语义高度地图的局部导航方法和系统
Shan et al. LiDAR-based stable navigable region detection for unmanned surface vehicles
Manivannan et al. Vision based intelligent vehicle steering control using single camera for automated highway system
Hartmann et al. Towards autonomous self-assessment of digital maps
Gao et al. Autonomous driving of vehicles based on artificial intelligence
Park et al. Nonparametric background model-based LiDAR SLAM in highly dynamic urban environments
JPH04205320A (ja) 移動路データに対する評価方法
Carneiro et al. Mapping road lanes using laser remission and deep neural networks
CN116817891A (zh) 一种实时多模态感知的高精地图构建方法
Wullschleger et al. A flexible exploration framework for map building
Rangan et al. Improved localization using visual features and maps for Autonomous Cars
Lawton et al. Knowledge based vision for terrestrial robots
Yan Vehicle safety-assisted driving technology based on computer artificial intelligence environment
JP2836949B2 (ja) 自律移動体の制御装置
JP2923664B2 (ja) 自動走行装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080615

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090615

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090615

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees