JP2012185011A - 移動体位置測定装置 - Google Patents

移動体位置測定装置 Download PDF

Info

Publication number
JP2012185011A
JP2012185011A JP2011047714A JP2011047714A JP2012185011A JP 2012185011 A JP2012185011 A JP 2012185011A JP 2011047714 A JP2011047714 A JP 2011047714A JP 2011047714 A JP2011047714 A JP 2011047714A JP 2012185011 A JP2012185011 A JP 2012185011A
Authority
JP
Japan
Prior art keywords
feature
area
information
unit
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011047714A
Other languages
English (en)
Other versions
JP5714940B2 (ja
Inventor
Zhencheng Hu
振程 胡
Chenhao Wang
臣豪 王
Sukeyuki Hirokawa
祐之 廣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto University NUC
Renesas Electronics Corp
Original Assignee
Kumamoto University NUC
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto University NUC, Renesas Electronics Corp filed Critical Kumamoto University NUC
Priority to JP2011047714A priority Critical patent/JP5714940B2/ja
Publication of JP2012185011A publication Critical patent/JP2012185011A/ja
Application granted granted Critical
Publication of JP5714940B2 publication Critical patent/JP5714940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】車載カメラを利用した実時間測位の技術に係わり、安価かつ高精度な測位を実現できる技術を提供する。
【解決手段】本移動体位置測定装置の特徴検出部20は、実画像の領域から、道路領域(A)、路側領域(B)、及び他領域(C)を分割により検出し、当該A,B,Cを含む情報を出力する処理を行う領域分割部21と、実画像の領域から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行う特徴抽出部22と、実画像における道路領域(A)または路側領域(B)の少なくとも一方から、測位計算で用いないようにするための不要物に対応する特徴部を検出して除去し、当該除去後の特徴情報を出力する処理を行う不要物除去部23と、を有する。
【選択図】図8

Description

本発明は、自動車(移動体)の測位技術に関する。特に、車載情報システム、マイコン、カーナビゲーションシステム等において、車載カメラ(その画像・映像)を用いて自動車(移動体)の現在位置を実時間で測位を行う技術に関する。更に、GPS等の手段による位置情報、車載カメラの実画像(実時間での走行時の撮影画像)、及び地図DB(データベース)などを用いて、現在位置の推定・補正などの処理を行う技術に関する。
本発明に係わる自動車の測位技術に関し、背景技術及びその問題点などは以下である。
(従来手法1) 主流の手法としてGPS+自律航法がある。GPS衛星等から自車現在位置情報(誤差有り)を取得し、そのデータに対し、車載のセンサ(ヨーレイトセンサ、ジャイロセンサ、加速度センサ等)や車速計(車速信号)による自律航法によって補正をかけ、カーナビ等のデジタル地図上でマップマッチング(道路などから外れないように自車位置を補正して表示する等)を行う。しかしながらこの手法では、単独の測位精度は15メートル、出力頻度は1Hzであり、そして周囲道路ネットワーク状況によって1〜2秒の出力遅延などの問題点が存在する。
(従来手法2) 特開2005−265494号公報(特許文献1)の路面マーク比較方式がある。この方式では、路面マーク及び道路標識などをランドマークとし、各ランドマークの絶対位置(3次元空間位置座標)をデータベース(地図DB)に逐一登録しておく。実時間測位の際には、車載カメラの撮影画像から、車線境界線(白線など)とランドマークを抽出し、地図DBの情報と比較(整合性判定)して、車線位置を確定する(車線領域での自車の位置を推定する)。
(従来手法3) 特開平10−300493号公報(特許文献2)のレーザースキャン方式がある。この方式では、レーダ装置によって検出された静止物のデータと道路周囲環境記憶装置に記憶された静止物のデータに基づいて、ナビゲーション装置で求めた自車現在位置を修正することにより、自車現在位置の誤差を数10m程度から10cm程度〜数10cm程度の誤差にすることができ、精度を向上することができる。
(従来手法4) また、高精度RTK(Real Time Kinematic)−GPS方式などがある。この方式では、誤差2〜3cm程度の測位精度が得られるようになった。しかし、従来手法3,4等の方式による測位装置は非常に高価であり、また、例えば高速移動体に関する測位を実時間で実施するには不得意である。
(従来手法5) また、本発明者の提案によるハイブリッド法(特許文献3)もある。この手法では、既存のカーナビションシステムに加え、3次元慣性ジャイロスコープセンサ、車速センサ、及び白線検出結果を統合して正確な車両位置を実時間に推定する。この手法では、実時間の測位速度を達成しているが、平均測位精度は3〜5メートルにとどまっている。
(従来手法6) また、車載カメラを利用した測位の手法として、本発明者の提案による、特開2010−151658号公報(特許文献4)(「移動体位置測定装置」等)がある。この手法では、移動体(自車)に搭載したカメラ(撮像部)の実画像(走行方向の路面や景観)から抽出した特徴部(特徴情報)と、地図DB(地図情報)に含まれる特徴部(特徴情報)とをマッチング処理することにより、移動体の位置を測定(推定)する。なお、本発明と特許文献4では、大きな枠組みは共通するが、技術的特徴は異なる。
特許文献4では、具体的には、自車の走行方向の路面の白線(車線境界線)などを撮像・認識し、移動体の白線からのオフセット距離を検出して移動体の位置を補正する(例えば複数の車線から適切な車線を選択する)等の処理により、自車位置の精度を高める。また、所定間隔で設けられた交差点などの参照地点において、複数の位置から走路方向を臨んで撮像した画像を、当該地点に関連付けて記憶しておくことができる(3次元画像の不要による処理短縮化)。また、事前に、3次元画像(実画像データ)ではなくその特徴部データ(特徴情報)のみを記憶しておくことで、抽出処理の省略による高速化、及び必要な記憶容量の削減ができる。また、地図情報をもとに複数の車線がある場合など、自車が存在可能な複数の位置を想定し、各々の存在可能位置(車線)から例えば前方の画像の特徴部の情報と、対応する実時間処理で抽出した実画像の特徴部の情報とを比較して差分を演算する(マッチング処理)。
一方、カメラ画像を利用した測位技術に係わり、SFM(Structure from Motion)と呼ばれる手法がある。例えば非特許文献1,2に記載されている。SFM手法では、カメラを搭載したロボット(移動体)において、カメラで撮像した画像情報のみから、3次元環境の復元と同時にロボットの移動の前後の相対的な位置・姿勢などを推定する。
また、画像から特徴量(特徴部、特徴情報)を抽出する画像解析処理については、例えば非特許文献3などに記載されている。
特開2005−265494号公報 (路面マーク比較) 特開平10−300493号公報 (レーザースキャン) 特開2008−175786号公報 (ハイブリッド) 特開2010−151658号公報 (カメラ利用)
C. Tomasi and T. Kanade, "Shape and motion from image streams under orthography-A factorization method," Int. J. Comput. Vision, 9-2, pp. 137-154, Nov. 1992. 金出武雄, コンラッド・ポールマン, 森田俊彦, "因子分解法による物体形状とカメラ運動の復元," 電子情報通信学会論文誌D-II, J74-D-II-8, pp. 1497-1505, Aug. 1993. David G. Lowe, "Distinctive image features from scale-invariant keypoints", International Journal of Computer Vision,60, 2 (2004), pp. 91-110.
課題として、例えば従来手法6(特許文献4)のように車載カメラを利用した測位技術において、安価(高価な装置を使用しないこと)、かつ高精度(少なくとも一般的なGPS等の手段よりも高精度)な測位を実現したい。
ただ、従来手法6(特許文献4)のような測位技術は、完全な実時間測位を実現する技術ではなく、仮想画像処理(3次元CG処理)を用いた測位技術である。例えば特許文献4は、3次元ナビ用の仮想景観画像の自動生成機能を用いる技術であり、路上の複数の各々の車両存在可能位置(車線)から各々の仮想景観画像(3次元CG)を生成・取得し、この仮想景観画像と現時点で撮影した実画像とから、特徴部を抽出する処理を行い、特徴マッチング処理により、最適な位置を決定している(特許文献4の例えば段落[0004],[0006],[0032]等)。
しかしながら、上記仮想画像処理を用いた測位技術では、例えば3次元CGナビ用の都市地図DBの製作と維持に大きなコストがかかる。また、地図DBに収録するすべての道路には適応できないし、新築など道路景観が変わる際にも、柔軟に対応することはできない。
よって、課題として、上記仮想画像処理を用いない(または必要としない/削減できる)実時間測位を実現し、地図DBの製作と維持を効率化・低コスト化したい。また、地図DBに収録する多くの道路等に適応でき、道路景観の変化にも柔軟に対応できるようにしたい。
仮想画像処理無しの実時間測位を行う場合、カメラの実画像(道路景観)から抽出する特徴部(特徴情報)に関して、測位計算で有効になるように、適切な抽出及び判定などが必要になってくる。しかし、測位時(撮像時)の道路周囲状況・時間経過などの要因によって、実画像の内容(景観)が大きく変化するため、上記適切な抽出及び判定などが難しくなるという問題点がある。上記要因は、例えば、走行時の時期(季節)・天候・照明条件や、道路混雑状況(車両、歩行者などを含む)や、建築環境(道路、路側の建物、樹木、看板などを含む)の変動などが挙げられる。例えば景観(実画像)内に含まれている車や木などに相当する特徴部を検出して測位計算で用いてしまうと、処理速度や測位精度が下がってしまう。
以上のように、本発明の主な目的は、車載カメラを利用した実時間測位の技術に係わり、安価かつ高精度な測位を実現できる技術を提供することであり、特に、仮想画像処理を用いない実時間測位を実現し、地図DBの製作・維持を効率化・低コスト化できること、及び、測位時(撮像時)の道路周囲状況などの要因・変動に対しても適応できる、ロバストな特徴検出等の手法を含む測位技術を提供することである。
上記目的を達成するため、本発明の代表的な形態は、自動車などの移動体及びそれに搭載される情報システム等に係わる移動体位置測定装置などであって、以下に示す構成を有することを特徴とする。
本装置は、移動体の位置を測定ないし推定する移動体位置測定装置であって、(a)移動体の走行時に実時間でGPS等の手段を用いて移動体の現在の概略の位置と方位を第1の位置情報として検出する位置検出部と、(b)前記移動体に搭載され移動体の走行時に実時間で移動体の周囲の少なくとも1つの第1の方向(例えば前方)を撮影して第1の画像(実画像群)を得る1つ以上の撮像部(カメラ)と、(c)前記第1の画像として、地図上の参照地点(RP)の付近で撮影された複数の実画像の中から、直線や角点(特徴点)を含む特徴部を抽出して第1の特徴情報とする第1の特徴抽出部と、(d)地図上の所定の参照地点の付近の第2の画像(実画像群)の中から、直線や角点を含む特徴部を抽出して第2の特徴情報とし、当該第2の特徴情報を含むデータが事前に登録された地図データベースと、(e)前記移動体の走行時に、前記第1の位置情報をもとに、前記地図データベースから、前記参照地点の付近の該当する第2の特徴情報を読み出して取得する第2の特徴抽出部と、(f)前記第1の特徴情報と前記第2の特徴情報とを入力してそれぞれの特徴部を比較してマッチングすることにより、前記参照地点の付近の複数の特徴部の位置を推定し、当該複数の特徴部の位置をもとに、SFM手法を用いて、移動に伴う各時点の前記移動体の位置と上記複数の各特徴部の位置との相対的な位置関係を演算することにより、前記移動体の現在の位置を推定して第2の位置情報として出力する、特徴マッチング部と、(g)前記第1の位置情報に対して前記第2の位置情報を用いて補正することにより、前記移動体の現在の位置を第3の位置情報として出力する位置補正部と、を有する。
更に、本装置は、前記特徴抽出処理に係わり、ロバストな特徴検出部を有する。本特徴検出部は、カメラ撮像による実画像データを入力し、領域分割部と、特徴抽出部と、不要物除去部とで処理を行い、結果、特徴情報を出力する。領域分割部は、道路領域検出部と、路側領域検出部と、を含む。不要物除去部は、道路不要物除去部と、路側不要物除去部と、を含む。
道路領域検出部は、入力の実画像の領域から、道路領域(A)を検出する。例えば、道路領域検出部は、実画像の領域から白線などの路面マークを検出し、検出した路面マークの形状に基づき、車線を含む道路領域(A)を推測し確定する。路側領域検出部は、入力の実画像の領域から、路側領域(B)を検出する。例えば、路側領域検出部は、実画像の領域から、道路領域検出部で検出した道路領域(A)の形状に基づき、路側領域(B)を推測し確定する。領域分割部は、上記実画像の領域における道路領域(A)、路側領域(B)、及び他の領域(C)の情報を出力する。
特徴抽出部は、画像解析処理により、実画像における各領域(道路領域(A)、路側領域(B)、他領域(C))から、特徴部群(角点、線分、色領域などの特徴部)を抽出する。
道路不要物除去部は、実画像の道路領域(A)に対し、密集横線領域(複数の横線が高密度で集まっている領域)を検出し、検出した領域に対応する特徴部群を削除する。路側不要物除去部は、実画像の路側領域(B)に対し、密集角点領域(複数の角点が高密度でで集まっている領域)を検出し、検出した領域に対応する特徴部群を削除する。不要物除去部は、上記除去(削除)後の特徴情報(特徴部群の情報)を出力する。
本発明の代表的な形態によれば、車載カメラを利用した実時間測位の技術に係わり、安価かつ高精度な測位を実現できる。特に、仮想画像処理を用いない実時間測位を実現し、地図DBの製作・維持を効率化・低コスト化でき、測位時(撮像時)の道路周囲状況などの要因・変動に対しても適応できる、ロバストな特徴検出等の手法を含む測位技術を提供できる。
本発明の一実施の形態のシステム(移動体位置測定装置)である自動車及び車載情報システムの構成例を示す図である。 ある時・位置における地図上のRP付近の特徴部などの例を模式的に示す図である。 ある時・位置で撮像した実画像における特徴点などの例を示す図である。 移動前後の時・位置の実画像の間における自車位置と特徴点位置との相対関係の例を示す図である。 事前登録処理の詳しい処理例を示す図である。 実時間測位処理の詳しい処理例を示す図である。 SFM手法を用いた位置推定等について概略的に示す図である。 詳細な実施の形態として、ロバストな特徴検出手法を実装した特徴検出部の構成例を示す図である。 道路上の各領域や物の例を示す図である。 実画像における領域分割・不要物除去の前の例を示す図である。 実画像における領域分割・不要物除去の後の例を示す図である。 実画像における限定処理の例を示す図である。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一符号を付し、その繰り返しの説明は省略する。略称として、RP:参照地点(Reference Point)、等とする。説明上の記号として、T:時点、K:自車位置(≒カメラ撮像位置)、G:画像・実画像、P:特徴点(及び特徴点位置)、等とする。
本実施の形態の主な特徴として、移動体(自動車)の実時間測位の際、SFM手法を利用した特徴マッチング処理などを行い(図1、図5,図6等)、特に、道路景観の変動に適応できるロバストな特徴検出手法(図8等)を有する。これにより自車現在位置を安価かつ高精度で推定する。特に、図8のように、道路景観(実画像)から、道路や路側を含む各種領域を検出して、測位に悪影響な不要物(対応する特徴部)を除去する処理機能を有する。
[システム]
図1において、本発明の一実施の形態のシステム(移動体位置測定装置)である自動車及び車載情報システム100の構成例を示している。自動車及び車載情報システム100は、実時間測位部1、制御部2、センサ類3、カメラ(撮像部)4、地図DB(データベース)5、等を備える。制御部2は、例えばCPU,ROM,RAM等を含んで成り、回路やプログラムの処理により、システム全体の制御、及び実時間測位部1を含む処理機能を実現する。
なお本自動車(100)はユーザが利用するが、後述する計測車両の場合は、実時間測位部1に対応した事前登録処理部などを備え、地図DB5への事前登録(a2)の処理(d2登録処理を含む)を行う。またユーザの自動車(100)に事前登録処理部を搭載する形態(地図DB5内容(d2)を随時更新する形態)も可能である。
センサ類3は、GPSユニット31、ジャイロセンサ32、走行センサ33、等の公知の要素である(他の手段を有してもよい)。GPSユニット31により、複数のGPS衛星からの搬送波(例えば1回/1秒)を受信し、到達時間差などから緯度・経度による位置を検出する。ジャイロセンサ32は、自車の角速度変化から、自車の方位角(向き)を検出する。走行センサ33(車速計など)は、自車の走行の距離や速度を検出する。
カメラ4は、1台の自動車(100)に対して1つ以上が搭載される。カメラ4の搭載の位置や向き、及び詳細な機能などは各種の形態が可能である。例えば図3のように、自動車(100)の前方の路面や景観を含むフレームを撮像する位置・向きで搭載される。実時間測位の際、カメラ4は、自車の移動に伴い、走行方向(カメラ4の向きに対応)の道路や景観等を撮像し、それによる複数の実画像のフレームを得る。その実画像データは適宜記憶手段に一時記憶してもよい。カメラ4は、例えばリアビューカメラやドライブ・レコーダー用カメラなど、安価な単眼カメラが適用可能である。
1台の自動車に対して2つ以上(複数)のカメラ4を搭載する場合は、それら複数のカメラ4で同時に撮像した複数の実画像を特徴抽出処理(画像解析処理)などで用いる。これにより、コストが増える代わりに測位精度を高めることができる。上記複数の実画像については、例えば、同じ撮像位置(カメラ位置)から複数の方向の景観を撮像する形、あるいは、複数の撮像位置(カメラ位置)から同じ対象を撮像する形、などが可能である。
地図DB5は、地図情報(d0)、RP情報(d1)、第2の特徴情報(d2)、等のデータを格納する。地図DB5は、図示しない記憶手段(例えばHDD,DVD等)や通信ネットワーク上のサービス(地図DB5内容を自動更新する)等により実現される。地図DB5への事前登録(a2)の処理では、所定のRP付近での実画像から特徴部を抽出し、RP情報(d1)、第2の特徴情報(d2)、等として関連付けて登録する。所定のRPとして少なくとも道路の交差点を含む。
地図情報(d0)は、公知の道路情報・景観情報、等を含み、本例ではカーナビ6のデジタル地図で使用されるデータを想定している。また、本発明に係わる要素として、地図情報(d0)には、特に、所定のRPに関する情報(d1)を含み、RP情報(d1)は、当該RPに関連付けられる第2の特徴情報(d2)を含む。
RP情報(d1)は、地図上における、実時間測位の際の参照対象とする交差点などのRPやランドマーク等に関する情報であり、当該RP等に関する識別情報や属性情報、3次元空間(地図)内の位置座標(3次元座標{X,Y,Z}または対応する緯度・経度などの所定の形式の情報)などの情報を有する。
第2の特徴情報(d2)は、RP情報(d1)で識別されるRPの付近の景観(実画像)内に含まれる標識や建物などのランドマーク等に関して、事前登録(a2)の際の処理で抽出された特徴部(特徴点(P)など)に関する特徴量や位置座標(画像内の2次元座標{x,y}及び対応する3次元座標{X,Y,Z})などの情報を含む。
カーナビ6は、実時間測位部1による自車現在位置の情報を利用・出力するカーナビゲーションシステムやディスプレイ等である。カーナビ6は、地図DB5のデータ、及び第3の位置情報(L3)等を用いて、ナビゲーション用の地図等のデータを随時に生成し、画面表示処理などを行う。また前述のように、車両制御のためのマイコンやECUへ車両現在位置と方位角の情報などを転送する形態としてもよい。
[実時間測位部、処理概要]
図1を用いて、本実施の形態(自動車及び車載情報システム100)における実時間測位部1の構成、及びその実時間測位などの際の処理概要を以下(0)〜(5)等で説明する。実時間測位部1は、制御部2により、センサ類3、カメラ4、地図DB5、カーナビ6等と連携して、実時間測位に係わる処理を行う。実時間測位部1は、位置検出部10、第1の特徴抽出部11、第2の特徴抽出部12、特徴マッチング部13、位置補正部14、等を備える。その他必要に応じて、画像データ記憶部、マップマッチング部、等の公知の要素を備えてもよい。なおユーザが一般車両で本システムを利用する際の各部の処理については基本的に実時間(リアルタイム)での処理であり、地図DB5のデータ{d0,d1,d2}については、事前登録(a2)による処理(例えば本システム提供者、計測車両による処理)である。
(0) 位置検出部10は、随時、実時間でのGPSユニット31等を含むセンサ類3からの検出情報(b0)を入力し、そのデータを用いて自車の概略の現在位置と方位角など(一般的なGPSによる測位誤差を持つ概略の第1の位置)を検出し、この検出情報を第1の位置情報(L1)とする。例えば図2に状況を示す。
(1) 第1の特徴抽出部11は、実時間(a1)での入力によるカメラ4で撮像した実画像(カメラ4毎の時間軸上の複数の各々の画像フレーム)のデータ(b1)を入力し、その実画像(例えば図3)の中から、自車周囲環境の道路を含む景観に関する特徴部を抽出する処理を行い、第1の特徴情報(c1)として出力する。特徴部及び第1の特徴情報(c1)は、上記実画像(2次元景観画像)に含まれる角点(特徴点(P))の座標({x,y})、及び、その角点の形状・色・明度変化などの特徴を表す特徴量(例えばSIFT特徴量;例えば非特許文献3を参照)など、所定の画像解析処理などにより抽出できる各種の情報を含む(後述、図3等)。実時間測位は、少なくとも、交差点などのRPの近く(手前など)の位置から開始される。第1の特徴抽出部11は、第1の位置情報(L1)に従って、視野範囲内にあるRPの近くの位置から、上記特徴抽出処理(時間軸上の複数の実画像フレームの処理)を行う。
(2) 第2の特徴抽出部12は、上記第1の特徴抽出部11の動作に並行して、自車の移動に伴う第1の位置情報(L1)をもとに、事前登録(a2)による各データ(d0,d1,d2)が登録済みの地図DB5から、自車の第1の位置の付近の地図情報(d0)、RP情報(d1)、及び第2の特徴情報(d2)を逐次に取得する。第2の特徴抽出部12は、地図DB5からデータ(b2)を読み出して入力する形で、該当RP付近の景観(実画像)の中から特徴部を抽出し、第1の特徴情報(c1)に対するマッチングの対象(参照元)とするための第2の特徴情報(c2)として出力する。上記データ(b2)は、該当RP付近の特徴部の情報にあたる第2の特徴情報(d2)を含む。地図DB5内に、対応する第2の特徴情報(d2)が事前登録(a2)済みの場合は、単にそのデータを読み出して取得すればよい。第2の特徴情報(c2)は、第1の特徴情報(c1)と同様の形式であり、特徴点などについての特徴量や位置座標などの情報を含む。
上記(1),(2)における実時間(a1)及び事前登録(a2)の際のそれぞれの特徴抽出処理では、地図上のRP(例えば図2の交差点など)付近の道路や景観を対象とした画像の中から、ランドマーク等(路面の白線、標識、建物など)に関する特徴部(特徴点など)を抽出する画像解析処理を行う(後述、図5,図6)。
(3) 特徴マッチング部13は、第1の特徴情報(c1)と第2の特徴情報(c2)とを入力し、SFM手法を用いた特徴マッチング処理を行うことにより、逐次で自車現在位置を推定し、この結果(推定の自車現在位置)を、第2の位置情報(L2)として出力する。自車の移動に伴う複数の時点(T)・位置(K)の複数の実画像(G)のフレーム中における複数の各々の特徴部(特徴点(P)など)との相対的な位置関係(相対的な自車の位置・方位)を、SFM手法を用いて演算することにより、自車現在位置(K)を推定する(後述、図4等)。
(4) 位置補正部14は、第1の位置情報(L1)と第2の位置情報(L2)とを入力し、L1に対してL2を用いて自車現在位置を補正し、その結果を第3の位置情報(L3)として出力する。L3は、車両現在位置と方位角の情報を含む。
なお、位置補正部14を設けずに、第2の位置情報(L2)を最終結果の位置情報として出力する形態としてもよい。少なくともL2はL1よりも高精度な値が得られる。RP付近以外の場所では、位置補正部14による補正を行うことが好適である。
またマップマッチング処理などを行う場合は、例えば、第1の位置情報(L1)等をもとに、地図内の道路から自車が外れないように補正する。例えばL1とその付近の地図情報(d0)から、自車の存在可能位置を選択する。また、L1をもとに、道路の車線数や車線幅、路面上のマークや標識・信号といった地図情報(d0)を取得して、自車の存在可能位置などを把握してもよい。
(5) 自動車及び車載情報システム100では、上記第3の位置情報(L3)を用いて処理を行う。例えばカーナビ6で、L3等を用いて自車現在位置を表示する。また、車両制御のためのマイコンやECUへ上記L3による車両現在位置と方位角の情報を転送して利用する形態などとしてもよい。
[事前登録処理]
地図DB5への事前登録(a2)の際の処理は、例えば、計測車両(カメラ及び事前登録処理部などを備える)で行われる。事前登録処理部は、第1の特徴抽出部11等と同様の処理部を含む構成である。計測車両により実際に対象の道路を走行して、対象のRP付近の景観を撮像する。その実画像データを一旦記憶し、その実画像データから、第1の特徴抽出部11での処理と同様に、特徴部を抽出する処理を行い、この結果を第2の特徴情報(d2)とし、地図DB5内にRP情報(d1)に関連付けて登録する。この処理は、実時間測位の際の第1の特徴抽出部11での処理内容と概略的には共通である。なおこの処理では、実時間測位の際とは異なり、すべてを実時間で処理する必要は無い。例えば予め収集・蓄積した実画像データを対象としてまとめて特徴抽出処理を実行する形態などとしてもよい。
[RP、ランドマーク]
図2において、地図、道路、RP、ランドマーク、特徴点(P)、等の例を、2次元平面によって模式的に示す(なお説明用であってカーナビ6で表示する地図とは異なる)。自車200、交差点201、道路202、道路/車線203、白線(車線境界線)204、建物205、路側206、等の例を示す。Kは、自車200の現在位置を示し、3次元座標{X,Y,Z}及び方位角(矢印)などによって表現される。
RPは、測位に役立つ景観特徴を持つ測位参考点であり、201のような道路交差点や、分岐・合流部、そしてランドマーク地点などを指している。RPとしては、現実(地図)に存在するうちの主なもの(測位に役立つもの)がRP情報(d1)として事前登録(a2)される。RPは、交差点201に限らず、例えば所定間隔での複数の地点や、ランドマークとなる建物205などを対象としてもよい。またRPの3次元位置情報は、地図DB5を構築する際(a2)に計測車両によって計算されてRP情報(d1)に登録される。なおこのRPの3次元位置情報の計算過程については別に記述される(図5の事前登録処理にて記述されている)。また本実施の形態では登録しないが、事前に撮像されるRP付近の実画像データを関連付けて登録してもよい。
図2では、交差点201(RP)付近の道路202・車線203において、自車200が当該RPに進入しようとしている時の自車200の現在位置(K)を示している。ある時点(T)の位置(K)の情報として、事前に地図に登録されたRPの3次元位置座標({X,Y,Z})と方位角、そして当該位置データの誤差範囲(後述の推定精度)、等の情報を有する。なお座標だけでなく方位角も含めて位置情報と略称している。丸印は、実画像よりランドマーク等に関して抽出される特徴部の例として特徴点(P)を示し、例えば、自車200の進行方向の路面の白線204の角点や、進行方向の両側の建物205の角などを示している。破線は、自車200の現在位置(K)(≒カメラ4の撮像位置)と、複数の各々の特徴点(P)との間の距離(相対的な位置関係)を示している。なお特徴点(P)の位置は、図2では地図上の座標({X,Y,Z})で示しているが、対応する実画像内の画素の座標({x,y})の情報などを有する。
[実画像、特徴抽出処理]
図3は、ある時点(T)及び位置(K)におけるカメラ4で撮像した実画像(G)の例を模式的に示している。交差点(RP)の手前から前方を撮像した場合である。丸印は特徴点(P)の例である。わかりやすくするため他車の存在などは省略している。301は道路領域(走行車線領域)、302は白線(白線領域)を示す。各特徴点(P)は、実画像内の画素の位置座標情報({x,y})などを有する。
地図DB5に第2の特徴情報(d2)を事前登録するための実画像(特徴部を抽出する対象)は、例えば図3のように、RPの手前などから走行方向・RPを臨んで撮像した画像とする。図2の交差点201の場合であれば、当該RPに進入する4方向からの各画像を用いる。
特徴点(P)などを抽出するための特徴抽出処理では、基本的には公知の各種の技術(画像解析処理)を適用可能である。画像解析処理では、例えば、実画像を構成する画素の明度・輝度などの差分値を演算することで、路面の白線(204,302)や建物(205)の輪郭などに対応する線分や角点などの形状・色・明度変化などを表す特徴量を抽出することができる。なお、抽出する特徴部としては、適用する処理手法などに応じて、線分や角点などに限らず、所定の図形(円弧など)とすることも可能である。
[自車と特徴点との関係、特徴マッチング処理]
図4は、自車の移動による自車位置(K)と特徴点(P)との相対的な位置関係の例を示す。自車の移動に伴う複数の時点(T)・位置(K)の各実画像(G)における複数の特徴点(P)などがあるとき、SFM手法によって、自車現在位置(K)を推定する。例えば、自車の移動の前後の2つの時点(T1,T2)を考える。対応する各位置(K1,K2)及び実画像(G1,G2)を有する。それぞれに対応して、複数の特徴点P(例えばP1〜P4)の位置と自車の位置(K)との相対的な距離がある。401(破線)はT1等に対応した距離、402(実線)はT2等に対応した距離である。
特徴部は、実画像(G)の撮像時の位置(K)によって変化する。言い換えると、特徴部の情報は、上記撮像時の位置(K)の情報が含まれている。よって、SFM手法を利用した演算により、自車現在位置(K)を推定することができる。
特徴マッチング処理では、例えば、実時間測位の際に抽出された複数の特徴点P(第1の特徴情報(c1))と、対応して地図DB5から読み出された複数の特徴点P(第2の特徴情報(c2))とにおいて、複数の特徴点Pの位置が比較され、一致・類似の度合いが判定される。例えばよく使う手法としては、ユークリッド距離を計算し、距離が一番小さいものを、一致する特徴点とする。
[SFM手法を用いた位置推定]
図7は、SFM手法を用いた位置推定(特徴抽出・特徴マッチング処理)等について概略的に示す。本内容は、実時間測位部1及び事前登録処理部における特徴抽出処理や特徴マッチング処理の内容に対応する。
特徴点(P)は、2次元画像(例えば図3)より抽出され、その2次元座標({x,y})に基づいて、SFM手法によって特徴点(P)の3次元空間位置({X,Y,Z})(例えば図2)が推定される。事前登録(a2)のプロセスでは、特徴点(P)における形状・色・明度変化などの特徴を表す特徴量(例えばSIFT特徴量)と、推定されたP位置、及びその推定精度(誤差の共分散行列)などの情報が、地図DB5(d2)へ登録される(後述、図5)。一方、実時間測位のプロセスでは、実時間(a1)の処理で抽出した各特徴点(P)の特徴量(c1)と、地図DB5(d2)に登録されている各特徴点(P)の特徴量(c2)とのマッチングが行われる。この対応付けができた場合は、この結果(各P配置)を用いて、SFM手法によって自車現在位置(K)を推定し(例えば図4)、その推定精度(誤差の共分散行列)も同時に計算できる。
[詳細]
以上に基づき、以下、本実施の形態における詳細な処理例などについて説明する。本システム(実時間測位部1)では、SFM手法を活かして、車載のカメラ4から撮像した複数枚の実画像(G)の特徴部(c1,c2)のマッチングにより、高精度な3次元相対位置(K)を推定の計算により決定する。
本手法の一環である特徴量(第2の特徴情報(c2))の事前登録(a2)の処理として、交差点(201)等のRPの付近で事前に撮像された複数枚の実画像(G)から、特徴点Pなどの特徴部(特徴量及び3次元位置座標など)を抽出し、自車位置(K)を推定する。RP付近の特徴量を最適化処理し、自車位置(K)の測定誤差(推定精度)を所定範囲内に抑えられるまでは逐次に最適な特徴量を選択する。自車位置(K)の測定誤差(推定精度)を最小とするように最適な特徴量を選択すると同時に、特徴量の3次元空間位置と推定精度を求めることができる。最終的に選択された特徴部の情報を、第2の特徴情報(c2)として地図DB5に登録する。
一方、実時間測位部1では、カメラ4の実画像(b1)から抽出した特徴部の特徴量などの情報(第1の特徴情報(c1))と、対応する地図DB5から読み出した情報(第2の特徴情報(c2))とで特徴マッチング処理を行い、SFM手法によって自車現在位置(K)とRP付近の特徴部(複数の特徴点P)との相対的な位置と方位を計測することにより、自車現在位置(K)の高精度な測位が実現される。実時間測位部1では、自車の移動に伴い、少なくとも交差点などのRPの近くの位置から上記特徴マッチング処理などを実行し、各時点(T)の実画像(G)の処理を経ながら、逐次に自車現在位置(K)の測位誤差を最小化し、所定の許容精度(範囲)内に達した時点で当該測位結果を出力する。
本システムでは、SFM手法を用いた処理の際、公知の拡張カルマンフィルタの原理に基づいて、特徴量の最適化(連続で撮影された複数の実画像の中から最適な特徴部を選択するプロセス)と同時に3次元の測位(3次元位置座標の計算)を行う。本処理に関して、事前登録処理(図5)と実時間測位処理(図6)とで分けられる。違いとしては例えば図5では各特徴点位置を推定するが図6では登録済みゆえ推定しない。
[事前登録処理(詳細)]
事前登録(a2)の際の処理では、所定のRP付近の実画像内の特徴部の情報(d2)を含む地図DB5を作成するために、計測車両(事前登録処理部)では、例えば所定のRPの手前の位置から計測を開始する。計測車両の例えば前方に搭載された1台以上のカメラからRP・走行方向を撮像し、それら時間軸上の複数の実画像に対する特徴抽出処理(画像解析処理)を行う。
図5を用いて、事前登録処理部での詳しい構成・処理例として、SFM手法を用いた処理などについて説明する。500は、入力である実画像などのデータ情報である。
(1)まず、道路領域検出処理501では、入力画像(500)の中から、道路領域(及び非道路領域)などを検出する。道路領域(走行車線領域など)は、例えば図2の203、図3の301のような領域であり、図2の204、図3の302のような白線などで区画される領域などである。本処理501の詳細は後述する。
(2)不要物除去処理502では、上記(1)の結果に対して、不要物の特徴点など(測位計算に悪影響な変動物に対応する特徴部群)を除去する所定の処理を行う。本処理502の詳細は後述する。
上記(1),(2)を経て、各時点(T)・位置(K)の実画像(G)に関係付けられた複数の各々の特徴点(P)などの特徴部(図2〜図4)に関する特徴量及び位置座標情報などを特徴情報として得る。
(3)計測処理503(SFM処理)では、上記(2)の結果を対象(入力)として、拡張カルマンフィルタ(予測式、及び初期値)を用いて、それぞれの特徴点(P)の3次元空間位置({X,Y,Z})、及び自車現在位置(K)を推定しながら、それぞれの推定精度(誤差の共分散行列)を計算する。図5のように、(a)自車現在位置(K)、及び(b)各々の特徴点(P)の位置、及び(c)それら各々の推定精度(誤差の共分散行列)、等を推定する計算処理を行う。aの自車位置については動き(変動量)を用いる。詳しい計算式については後述する。
(4)初期値設定504: 上記(3)の初期値については、本システムで予め設定された値が入力される。初期値は、初期特徴点位置、初期自車位置(動き)、等である。初期値の設定の仕方としては、例えば、経験値によるか、あるいは、地図DB5の地図情報(d0)から大まかな位置を設定する、等である。また、例えば2台のカメラ4を使用する場合では、ステレオ計算による奥行き情報から求めて設定することができる。
(5)逐次変動入力505: 上記(3)の予測式に対しては、次の時点(T)の実画像(G)のフレームを取り込むまでに、センサ類3による自車速度・方向変化などの逐次変動情報が入力される。
(6)判定処理506では、上記(3)の推定の結果(a〜c)をもとに、当該時点(T)・位置(K)・実画像(G)における上記cの推定精度(誤差の共分散行列)の値が、例えば所定の範囲内(閾値以下)になったかどうかを判定する。c値が範囲外である場合は、最初に戻り、続けて次の時点(T)の実画像(G)のフレームを入力して、上記同様の計算処理等(501〜503)を繰り返す。c値が範囲内になった場合は、その時点で、当該推定値(a〜c)を最適なものとして選択して計測処理を終了する。
上記(6)の処理では、自車位置(K)の推定精度(c)が所定範囲内に抑えられるまでは、次の実画像(G)のフレームを入力して新しい特徴量を導入しながら、前後のフレーム間で追跡できなかった特徴量を削除する。自車位置(K)の推定精度(c)から新しい特徴量を選択して取り入れることができる。例えば、自車進行方向(例えば図2のY方向)の位置(K)の精度(c)が低い場合では、遠い所にある新しい特徴点を選択することができ、自車進行方向に対する横方向(例えば図2のX方向)の位置(K)の精度(c)が低い場合では、近い所にある新しい特徴点を選択することができる。
(7)出力処理507では、上記(6)の選択の結果(a〜c)の情報(最適な特徴部のリストを含む)を、当該RP位置に関する、自車位置(K)の推定値(対応する地図上の位置)及び特徴情報(c2)として出力する。そして、事前登録(a2)の際は、上記出力情報を地図DB5に登録する。
[実時間測位処理(詳細)]
実時間測位の際の処理では、一般車両(100)のカメラ4からRP・走行方向を撮像し、第1の位置情報(L1)に基づいて地図DB5(RP情報(d1))からカメラ4の視野範囲内のRPを検索し、当該RPの手前の位置から実時間測位処理を開始する。
図6を用いて、実時間測位部1での詳しい構成・処理例として、SFM手法を用いた処理などについて説明する。なお図6の処理は、図1では主に第1の特徴抽出部11と特徴マッチング部13の処理に対応する。600は、入力である実画像のデータ(b1)などである。以下、図5と重複する処理内容については簡略に説明する。
(1)まず、道路領域検出処理601では、入力画像(600)の中から、道路領域(及び非道路領域)などを検出する(501と同様)。本処理601の詳細は後述する。
(2)不要物除去処理602では、上記(1)の結果に対して、不要物の特徴点(P)などを除去する所定の処理(502と同様)を行う。本処理602の詳細は後述する。
上記(1),(2)を経て、各時点(T)・位置(K)における実画像(G)に関係付けられた複数の各々の特徴点(P)などの特徴部(図2〜図4)に関する特徴量及び位置座標情報などを特徴情報として得る。
(3)計測処理603(SFM処理)では、上記(2)の結果を対象(入力)として、拡張カルマンフィルタ(予測式、及び初期値)を用いて、それぞれの特徴点(P)の3次元空間位置、及び自車現在位置(K)を推定しながら、それぞれの推定精度(誤差の共分散行列)を計算する。図6のように、(a)自車現在位置(K)、及び(c)現在位置の推定精度(誤差の共分散行列)、等を推定する計算処理を行う。詳しい計算式については後述する。
(4)初期値設定604: 上記(3)の初期値については、第1の位置情報(L1)と地図DB5の地図情報(d0)に関連付けて登録された第2の特徴情報(c2)から各特徴点(P)の目標位置を推定し、上記(3)の初期値を設定する。
(5)逐次変動入力605: 上記(3)の予測式に対しては、次の時点(T)の実画像(G)のフレームを取り込むまでに、センサ類3による自車速度・方向変化などの逐次変動情報が入力される。
(6)判定処理606では、上記(3)の結果(a,c)をもとに、当該時点(T)・位置(K)・実画像(G)における上記cの推定精度(誤差の共分散行列)の値が、所定の範囲内(閾値以下)になったかどうかを判定する。上記c値が範囲外である場合は、最初に戻り、続けて次の実画像(G)のフレームを入力して、上記同様の計算処理等(601〜603)を繰り返す。上記c値が範囲内になった場合は、その時点で、当該推定値(a,c)を選択して終了する。
(7)出力処理607では、上記(6)の選択の結果(a,c)の情報を、自車現在位置(K)の推定値(L2に対応)として出力する。
[計算式]
前記(3)の計測処理(SFM処理)における計算式などは以下である。
拡張カルマンフィルタの予測式は、下記の式(1)である。
ここでは、上記状態ベクトルX,計測誤差の共分散行列(予測誤差)Qは下記の式(2)で定義される。
Xは、計測対象である車両(カメラ)の相対位置・姿勢を表す車両状態ベクトルVと景観画像の特徴点の2次元座標ベクトルPとの接合ベクトルであり、VとPはそれぞれ6個(回転分量Rと並進分量T)と2N個(N:特徴点数)の要素で構成される。
カルマンフィルタの逐次ループでは、下記の式(3)である。
ここでは、上記Gvは車両状態(位置と向き)のジャコビアン行列、Gpは特徴点のジャコビアン行列であり、上記Gv,Gpは下記の式(4),(5)である。
カルマンフィルタの更新処理では、下記の式(6)である。
ここでは、上記のu,vは、下記の式(7)である。
prediction point:予測した特徴点の画像投影位置、matched point:マッチングした特徴点の2次元画像検出位置、Mc:カメラ内部行列、Rα,β,γ:カメラ回転行列、P:特徴点の3次元絶対位置、V:車両の現在位置を示す。
[ロバストな特徴検出手法]
次に、図8〜図12を用いて、上記構成に基づく詳細な実施の形態として、道路景観の変動に適応できるロバストな特徴検出手法について説明する。本構成では、変動する道路景観の実画像(例えば図3)から特徴部(群)を適切に抽出して有効な測位計算(特徴マッチング部13でのSFM処理(図5,図6の計測処理503,603))を行うために、実画像から道路領域及び路側領域を含む各領域を検出(分割)する処理(21)と、それら各領域から「不要物」を除去する処理(23)とを行う。
「不要物」とは、道路周囲環境の変動・時間経過などの要因により、景観(実画像)内の特徴部が大きく変動するような存在物(対応情報)であり、測位計算に用いる特徴情報としては有用でない情報である。なお、本測位計算以外の目的(例えば安全のための車両制御)では、上記「不要物」であっても有用な情報になり得るため、検出して利用してもよい。
図8は、ロバストな特徴検出手法を実装した特徴検出部20の構成例を示す。なお本特徴検出部20は、前述した形態との対応関係としては、図1の特徴抽出部11,12、図5の501〜503の処理、図6の601〜603の処理、等を修正した構成である。特徴検出部20の処理はソフトウェアプログラム処理やハードウェア回路処理などにより実現できる。また特徴検出部20の処理に関する設定が可能である。
図8で、特徴検出部20は、領域分割部21、特徴抽出部22、不要物除去部23を有する構成である。領域分割部21は、道路領域検出部21A、路側領域検出部21Bを有する。道路領域検出部21Aは、路面マーク検出部21a、車線検出部21bを有する。路側領域検出部21Bは、路側帯検出部21cを有する。不要物除去部23は、道路不要物除去部23A、路側不要物除去部23Bを有する。道路不要物除去部23Aは密集横線削除部23aを含む。路側不要物除去部23Bは密集角点削除部23bを含む。また例えば領域分割部21と特徴抽出部22との間に限定部24を設けてもよい(後述)。
[各種の領域・物]
図9は、道路上の各領域や物の例を示す。片側2車線の道路の場合である。大別すると、道路領域51と路側領域52がある。31は車線境界線(白線など)、32は路面交通標識(例えば白線矢印)である。41は自車(走行状態)、42は他車(走行状態、先行車)、43は他車(走行状態、対向車)、44は他車(駐停車状態)である。51は道路領域(全車線を含む)である。52は、道路領域51の隣(横)の路側領域(非道路領域)である。53は、中央分離帯(ないし中央境界線)である。54は、自車41を含んだ走行車線領域(2車線分)である。55は、対向車線領域(2車線分)である。56は、自車41の走行車線(自車線)である。57は、56の隣の他車線である。58,59はそれぞれ対向車線(他車線)である。61は、57(外側の車線)の隣・外側にあり得る路側帯や歩道などである。62は、路側の非道路領域(52との区別のため「路側物領域」と称する)である。
また、71は、路側(62)に存在する建物である。なお建物71は、測位に有用なランドマークとして特徴部の検出対象とする場合としない場合とがある(ここでは検出対象の場合とする)。72は、路側(62)に存在する樹木である。73は、路側(62)に存在する看板(広告)である。74は、路側帯61などに存在する人(歩行者など)である。75は、路側(62)に存在する交通標識や信号機などである。
本構成では、道路領域検出部21Aで検出する「道路領域」とは、例えば図9の51,54,56等である。路側領域検出部21Bで検出する「路側領域」とは、例えば図9の52(61,62)等である。
本構成では、「不要物」として検出・削除したい対象物として、車(42等)、樹木72、看板73、人74など(対応する特徴部)がある。一方、測位に有用な対象物(対応する特徴部)としては、路面の白線(31)・交通標識(32)、道路領域(51等)、ランドマークとなる建物71、路側の交通標識(75)などがある。
[実画像例]
図10は、ある時・位置の実画像の例における領域分割・不要物除去の前の状態、図11は、その実画像における領域分割・不要物除去の後の状態を簡略的に示す。片側1車線の道路の場合である。図9と同様に、31は白線(白線領域)、32は交通標識である。81は自車線(自車の走行車線)である。82は対向車線である。83は、自車線81の隣の路側帯である。84は、自車線81の前方の他車(先行車)である。なお72は樹木であるが、輪郭などを簡略的に示す。
aの破線は、白線31を検出した場合のラインを示す。白線31(a)で区画される領域を車線(81)としている。A(A1)の領域は、検出した道路領域51を示す。B(B1,B2)の領域は、検出した路側領域52を示す。Cの領域は、A,B以外の領域である。
なお図9では路側領域52の中に路側帯61を含める定義としており、図10では、道路領域51の中に路側帯83を含める定義としている。これらはいずれの定義とすることも可能である。
[特徴検出処理]
図8の特徴検出部20の処理は以下のような流れとなる。特徴検出部20は、道路景観が撮像された実画像800のデータを入力する。
(1) 領域分割部21は、入力の実画像(例えば図10)のフレームの全領域を、各種の領域(例えば図10のA,B,C)に分割する処理を行う。領域分割部21は、道路構造、及びカメラ4の透視変換関係に基づき、各領域への分割を行う。なお領域分割の際に地図DB5の情報を併用(参照)してもよい。
まず、道路領域検出部21Aでは、入力の実画像の領域から、路面マーク検出部21aにより、白線(車線境界線)31や路面交通標識32を含む路面マーク(交通上の有用な情報)を検出する処理を所定アルゴリズムにより行う。例えば、路面マーク検出部21aは、実画像データにおける画素の差分値の演算で、Hough変換などを用いて、白線領域(31)などのエッジ(線分や角点)を検出する。これにより、路面上の白線31及び交通標識32を検出する。
車線検出部21bは、路面マーク検出部21aによる検出結果をもとに、自車線を含む車線(道路)を検出する。図10の例では、主な白線31のライン(a)で区画される領域を自車線81として検出できる。また自車線81の隣の領域についても、対向車線82または路側帯83として検出することができる。図9のように複数車線が存在する場合は、各白線31の検出により複数の各車線を検出することができる。
また、道路領域検出部21Aは、道路構造やカメラ4の透視変換関係など(実画像におけるカメラ4視点から3次元空間を眺めた遠近構造)に応じて、Aのような道路領域を区画する。なお図10の例では、遠方の焦点付近の領域については他領域Cに含めるように区画している。
道路領域検出部21Aは、上記処理結果により、例えば図10のA(A1)のような道路領域51を確定(分割)する。そして道路領域検出部21Aから、道路領域A情報(r1とする)を出力する。
また、路側領域検出部21Bでは、道路領域検出部21Aの結果(r1)を用いて、入力の実画像の領域から、所定アルゴリズムにより、路側物領域62を含む路側領域52を推定により検出する処理を行う。例えば、r1による道路領域Aの形状の情報(白線31(a)等の形状を含む)を用いて、道路領域A(または白線31(a)等)の形状に沿って、例えば図10のB(B1,B2)のような路側領域52を確定(分割)する。ここで、路面からの高さに対応するZ方向(y方向)に関しては、路面から所定の高さ制限(例えば4メートルまで)によって路側領域Bを区画する。高さ制限値は設定可能である。また、路側領域検出部21Bは、道路構造や透視変換関係などに応じて、Bのような路側領域を区画する。高さ制限により処理効率化が図れる。
また、路側領域検出部21B内(道路領域検出部21A内でもよい)に、路側帯検出部21cを備えてもよい。路側帯検出部21cで所定アルゴリズム(例えば一番外側の白線31に基づき推定する)により、図9の61、図10の83のような路側帯領域を検出するようにし、当該路側帯領域を、道路領域51内または路側領域52内に含めるように決定する。
路側領域検出部21Bは、上記処理結果により、例えば図10のB(B1,B2)のような路側領域52を確定(分割)する。そして路側領域検出部21Bから、路側領域B情報(r2とする)を出力する。
また、領域A,B以外の領域C(図10)は、例えば信号機、交通標識、ランドマークとなる建物の角、陸橋、街灯など、測位に有用・重要な情報が検出される領域になる。よって、以降の処理では、(不要物以外の)特徴情報をそのまま保持し、測位計算で入力として用いるようにする。領域分割部21(路側領域検出部21B)から、他領域C情報(r3とする)も出力する。
(2) 特徴抽出部22では、実画像800データ、及び領域分割部21による処理結果情報{道路領域A情報(r1)、路側領域B情報(r2)、他領域C情報(r3)}を入力する。特徴抽出部22は、前述した処理(特徴抽出部11、計測処理503,603等)と同様に、角点や線分や色領域などを含む特徴部群(各特徴部の特徴量及び位置座標情報を含む)を抽出する処理を行う。例えば、SIFT特徴検出器(回転変化及びスケール変化に強い)、Cannyエッジ検出器、HSLカラーモデル変換による色塊領域を検出するフィルタ(色塊領域検出フィルタ)、等を用いる。特徴抽出部22は、抽出した特徴部群の情報801を出力する。なおこの情報801には、各領域(r1,r2,r3)から抽出された特徴部群の情報を含むものとする。
また特に、特徴抽出部22では、各領域(A,B,C)ごとに適用する処理アルゴリズム(フィルタ等)を変えることによって、効果的な特徴抽出をしてもよい。
(3) 不要物除去部23では、特徴抽出部22の処理結果情報(801)及び各領域の情報(r1,r2)を入力する。なおここでは領域C情報(r3)を入力しない場合を示している。領域Cから抽出された特徴部群は、そのまま保持され、出力の特徴情報810内に含まれることになる。
道路不要物除去部23Aは、特徴部群情報801及び道路領域A情報(r1)を入力し、道路領域Aにおける不要物(対応する特徴部)を削除する処理を行う。この不要物(道路不要物)として、例えば図9の他車42〜44、人74、図10の他車84などがある。密集横線削除部23aは、所定アルゴリズムにより、道路領域Aから、密集する横線(横エッジ線分)群の領域を検出する。密集横線削除部23aは、特徴部群として、横方向(x方向)の線分が多数存在する領域に関して、それらの密度が例えば閾値よりも大きい場合、当該領域として検出する。そして、この検出した領域は、図10の他車84のような領域である可能性が高いと推測できるため(本発明者等による実験・検討に基づく)、不要物除去部23は、当該領域を不要物として除去(対応する特徴情報を削除)する。
路側不要物除去部23Bは、特徴部群情報801及び路側領域B情報(r2)を入力し、路側領域Bにおける不要物(対応する特徴部)を削除する処理を行う。この不要物(路側不要物)として、例えば図9(図10)の他車44、人74、樹木72、看板73などがある。密集角点削除部23bは、所定アルゴリズムにより、路側領域Bから、密集する角点(エッジ点)の領域を検出する。密集角点削除部23bは、特徴部群として、角点が多数存在する領域に関して、それらの密度が例えば閾値よりも大きい場合、当該領域として検出する。そして、この検出した領域は、図10の樹木72(その輪郭)や看板73(その文字列)のような領域である可能性が高いと推測できるため(本発明者等による実験・検討に基づく)、不要物除去部23は、当該領域を不要物として除去(対応する特徴情報を削除)する。
不要物除去部23では、上記処理のように、入力の特徴部群の情報801から、不要物に相当する特徴部群を削除して情報・データ量を減らし、出力の特徴部群の情報802とする。この情報802が特徴検出部20の出力の特徴情報810となる。言い換えると、本構成(特徴検出部20)では、実画像(800)、特徴部群(801)の中から、状況変動等の要因に依存しない、測位計算に有用な特徴情報(810)を判断・選定することを行っている。
図11は、図10の実画像から不要物を除去した後の例を示す。領域A内の白線31や交通標識32に対応する特徴部や、路側領域B内の建物71や交通標識75に対応する特徴部や、他領域C内の特徴部など、測位計算に有用な特徴情報は残されており、各領域A,B内の他車や樹木や看板など、状況に応じて大きく変動する不要物(測位計算に有用でない特徴情報)は除去されている。1101等は、不要物の領域として削除された箇所の例である。
そして例えば特徴マッチング部13で特徴検出部20の出力の特徴情報810を入力として用いて測位計算を行う。これにより、不要物除去により測位計算への悪影響を大きく抑制(低減)することができ、高精度の測位が実現できる。また、測位計算の入力の情報・データ量が削減されているため、処理速度も高くなる。
なお上記構成例(不要物除去部23)では、道路領域Aに対してのみ23aの削除処理を適用し、路側領域Bに対してのみ23bの削除処理を適用する、といったように領域に対する適用処理をある程度限定することにより、処理効率化を図っている。これに限らず、各種領域に対して各削除処理を適用する形態とすることもできる。
[限定部]
更に応用的な形態として、図8の限定部24を備えた構成について説明する。限定部24は、特徴情報あるいはその処理の際に用いる情報(領域や特徴部)を限定する処理を行う。理論的には測位計算に用いる特徴部(特徴点P)の数が多いほど測位精度が高くなるが、処理効率(処理時間)が悪く(長く)なる傾向がある。よって、本形態では、以下のような手法に基づき、限定部24により、情報を限定する処理を行い、出力の特徴情報810(測位計算に用いる特徴情報)における情報・データ量を削減し、処理高速化などを図る。
(1)第1の手法として、限定部24は、実画像(1フレーム毎)に含まれる特徴部(特徴点P)の数を一定数(最大上限値)までに制限する。例えば、限定部24は、特徴抽出部22で特徴部群を抽出する処理の際における、1フレーム毎の実画像の領域から抽出される特徴点Pの数を、一定数(最大上限値)までに制限する。この一定数は例えば50個とする。この一定数は設定可能である。一定数を越える場合の特徴部については、当該情報を削除する。
(2)第2の手法として、限定部24は、入力の実画像800の領域内において、以降の処理(22,23等を含む)での対象とする領域を特定の種類の領域に限定する。言い換えれば、特定の領域以外を処理対象外としてマスクする。
図12の実画像において、1200は地平線、1201はカメラの焦点を示す。1202は、地平線1200よりも上の領域、1203は、地平線1200よりも下の領域である。限定部24は、上領域1202を処理対象領域として限定し、下領域1203をマスクする。これにより、特徴抽出部22、不要物除去部23、及び、測位計算で用いられる情報・データ量が削減されるため、処理が効率化される。
上記以外にも、限定部24により実画像の処理対象領域の限定の仕方を各種変えてもよい。例えば、[道路領域A+他領域C]に限定(路側領域Bを除外)する形にしてもよい。例えば、図12の1204の範囲(領域)のように、焦点1201の周りの所定のサイズの矩形に限定する形にしてもよい。
[効果等]
以上説明したように、本実施の形態によれば、自動車及び車載情報システム100において、車載のカメラ4を利用した仕組みにより自車現在位置(K)の測位を安価に実現でき、かつ、GPS等の手段よりも高精度な推定(計算)を実現できる。従来の一般的な測位精度(10〜15メートル)に比べて、安価なカメラ4(リアビューカメラ等)及び既存の安価なナビゲーション用のハードウェア・ソフトウェア等でも、実時間(出力更新:10〜60Hz)でのサブメートル測位精度(平均測位誤差:1メートル以下)を達成でき、先進的なナビ連動システムを実現して一般車両への普及が可能となる。
特に、仮想画像処理を用いない実時間測位を実現し、事前登録・更新処理の容易化・自動化により、地図DB5の製作・維持を効率化・低コスト化できる。測位時(撮像時)の道路周囲状況などの要因・変動に対しても適応できる、ロバストな特徴検出等の手法を含む測位技術を提供できる。実時間測位の処理速度に関しても、画像入力を含め1フレームの平均計算時間を従来よりも短縮することができる。
特に、実時間測位部1の高精度な測位の結果(L3)を利用して、例えばカーナビ6で、運転で必要とされている要素として、どの交差点で曲がるべきか、どの車線に進むべきか、等を効果的にナビゲートすることができる。また、車両へのシフト制御やエンジン噴射制御、さらにACCにおける車間距離制御などの車両協調システムなどに応用できる。
本発明では、従来手法2等と同様に、2次元の実画像(G)を利用するが、個々のマーク等(特徴点P等)の高精度な絶対位置の情報を地図DB5等へ事前登録する必要は無い(SFM手法による推定の位置情報を登録する)。また本発明では、路側に存在する物(建物、看板、標識など)も、RP景観特徴を多く取り入れるため、前述の不要物除去処理により、先行車両などの遮蔽物による影響(測位精度への悪影響)を最小に抑制できる。
本発明では、従来手法3のように高価な手段・装置を必要とせずに高精度を実現できる。また実画像内の特徴は2次元情報であり、レーザーによる1次元情報よりも精度が高い、及び曖昧さが低い。また、カメラ4の視野が大きいため、先行車両や他の障害物による影響を受け難い。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
本発明は、自動車及び車載情報システム、カーナビ、ナビ連動システム、車両先進安全システム、等に利用可能である。
1…実時間測位部、2…制御部、3…センサ類、4…カメラ、5…地図DB、6…カーナビ、10…位置検出部、11…第1の特徴抽出部、12…第2の特徴抽出部、13…特徴マッチング部、14…位置補正部、20…特徴検出部、21…領域分割部、22…特徴抽出部、23…不要物除去部、21A…道路領域検出部、21B…路側領域検出部、21a…路面マーク検出部、21b…車線検出部、21c…路側帯検出部、23A…道路不要物除去部、23B…路側不要物除去部、23a…密集横線削除部、23b…密集角点削除部、24…限定部、100…自動車及び車載情報システム。

Claims (10)

  1. 移動体位置測定装置であって、
    地図上で撮影された実画像のデータを入力して当該実画像から特徴を検出して測位計算で用いる特徴情報を出力する処理を行う特徴検出部を有し、
    前記特徴検出部は、領域分割部、特徴抽出部、不要物除去部を有し、
    前記領域分割部は、画像解析処理により、前記実画像の領域から、道路領域(A)、路側領域(B)、及び他領域(C)を分割により検出し、当該道路領域(A)、路側領域(B)、及び他領域(C)を含む情報を出力する処理を行い、
    前記特徴抽出部は、画像解析処理により、前記実画像の領域から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行い、
    前記不要物除去部は、前記実画像における前記道路領域(A)または路側領域(B)の少なくとも一方から、前記測位計算で用いないようにするための不要物に対応する特徴部を検出して除去し、当該除去後の特徴情報を出力する処理を行うこと、を特徴とする移動体位置測定装置。
  2. 請求項1記載の移動体位置測定装置において、
    前記領域分割部は、画像解析処理により、前記入力の実画像の領域から、自車の走行する車線を含む道路領域(A)を検出し、当該道路領域(A)を含む情報を出力する処理を行う道路領域検出部を有し、
    前記特徴抽出部は、画像解析処理により、前記実画像における前記道路領域(A)から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行い、
    前記不要物除去部は、前記実画像における前記道路領域(A)から、前記測位計算で用いないようにするための不要物に対応する特徴部を除去し、当該除去後の特徴情報を出力する処理を行う道路不要物除去部を有すること、を特徴とする移動体位置測定装置。
  3. 請求項1記載の移動体位置測定装置において、
    前記領域分割部は、画像解析処理により、前記入力の実画像の領域から、前記道路領域(A)の横にある路側領域(B)を検出し、当該路側領域(B)を含む情報を出力する処理を行う路側領域検出部を有し、
    前記特徴抽出部は、画像解析処理により、前記実画像における前記路側領域(B)から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行い、
    前記不要物除去部は、前記実画像における前記路側領域(B)から、前記測位計算で用いないようにするための不要物に対応する特徴部を除去し、当該除去後の特徴情報を出力する処理を行う路側不要物除去部を有すること、を特徴とする移動体位置測定装置。
  4. 請求項2記載の移動体位置測定装置において、
    前記道路領域検出部は、
    前記実画像の領域から白線を含む路面マークを検出する処理を行う路面マーク検出部と、
    前記実画像の領域から前記路面マークの形状に基づき1つ以上の車線を検出する処理を行う車線検出部と、を有すること、を特徴とする移動体位置測定装置。
  5. 請求項3記載の移動体位置測定装置において、
    前記路側領域検出部は、前記実画像の領域から、前記道路領域(A)の形状に基づき、及び路面からの高さの制限に基づき、前記路側領域(B)を検出する処理を行うこと、を特徴とする移動体位置測定装置。
  6. 請求項2記載の移動体位置測定装置において、
    前記道路不要物除去部は、前記実画像の道路領域(A)から、複数の横線が高密度で集まっている領域を検出し、当該検出した領域に対応する特徴部群を削除する処理を行うこと、を特徴とする移動体位置測定装置。
  7. 請求項3記載の移動体位置測定装置において、
    前記路側不要物除去部は、前記実画像の路側領域(B)から、複数の角点が高密度で集まっている領域を検出し、当該検出した領域に対応する特徴部群を削除する処理を行うこと、を特徴とする移動体位置測定装置。
  8. 請求項1記載の移動体位置測定装置において、
    前記特徴検出部は、前記測位計算で用いるための前記特徴情報を限定する処理を行う限定部を有し、
    前記限定部は、前記特徴抽出部での処理における、前記実画像の領域から抽出される特徴部の数を、一定数までに制限する処理を行うこと、を特徴とする移動体位置測定装置。
  9. 請求項1記載の移動体位置測定装置において、
    前記特徴検出部は、前記測位計算で用いるための前記特徴情報を限定する処理を行う限定部を有し、
    前記限定部は、前記実画像の領域における地平線より上の領域を処理対象領域として限定し、地平線より下の領域を処理対象外として削除する処理を行うこと、を特徴とする移動体位置測定装置。
  10. 請求項1〜9のいずれか一項に記載の移動体位置測定装置において、
    実時間で移動体の位置を測定ないし推定する実時間測位部を有し、
    前記実時間測位部は、
    前記移動体に搭載され移動体の走行時に実時間で移動体の周囲の少なくとも1つの第1の方向を撮影して第1の画像を得る1つ以上の撮像部から前記第1の画像を入力し、
    前記第1の画像として、地図上の参照地点の付近で撮影された複数の実画像の中から、直線や角点を含む特徴部を抽出して第1の特徴情報とする第1の特徴抽出部と、
    地図上の所定の参照地点の付近の第2の画像の中から、直線や角点を含む特徴部を抽出して第2の特徴情報とし、当該第2の特徴情報を含むデータが事前に登録された地図データベースから、前記移動体の走行時に、前記参照地点の付近の該当する第2の特徴情報を読み出して取得する第2の特徴抽出部と、
    前記第1の特徴情報と前記第2の特徴情報とを入力してそれぞれの特徴部を比較してマッチングすることにより、前記参照地点の付近の複数の特徴部の位置を推定し、当該複数の特徴部の位置をもとに、SFM手法を用いて、移動に伴う各時点の前記移動体の位置と上記複数の各特徴部の位置との相対的な位置関係を演算することにより、前記移動体の現在の位置を推定して第2の位置情報として出力する、特徴マッチング部と、を有し、
    前記第1の特徴抽出部または第2の特徴抽出部において、前記特徴検出部の処理を行うこと、を特徴とする移動体位置測定装置。
JP2011047714A 2011-03-04 2011-03-04 移動体位置測定装置 Active JP5714940B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011047714A JP5714940B2 (ja) 2011-03-04 2011-03-04 移動体位置測定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011047714A JP5714940B2 (ja) 2011-03-04 2011-03-04 移動体位置測定装置

Publications (2)

Publication Number Publication Date
JP2012185011A true JP2012185011A (ja) 2012-09-27
JP5714940B2 JP5714940B2 (ja) 2015-05-07

Family

ID=47015230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011047714A Active JP5714940B2 (ja) 2011-03-04 2011-03-04 移動体位置測定装置

Country Status (1)

Country Link
JP (1) JP5714940B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440626A (zh) * 2013-08-16 2013-12-11 北京智谷睿拓技术服务有限公司 照明方法和照明系统
JP2014174159A (ja) * 2013-03-06 2014-09-22 Electronics And Telecommunications Research Institute イメージ基盤データベース構築方法、イメージ基盤データベースを利用したルート検索サービス提供方法及び装置
JP2015155903A (ja) * 2014-02-20 2015-08-27 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 自動運転システム、自動運転の方法及びコンピューティング装置
WO2016093028A1 (ja) * 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 自車位置推定装置
JP2016109650A (ja) * 2014-12-10 2016-06-20 株式会社デンソー 位置推定装置、位置推定方法、位置推定プログラム
JP2017054494A (ja) * 2015-08-11 2017-03-16 本田技研工業株式会社 標示ベースの位置測定
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2017219329A (ja) * 2016-06-03 2017-12-14 株式会社Soken 自車位置特定装置、自車位置特定方法
JP2018128386A (ja) * 2017-02-09 2018-08-16 株式会社デンソー 位置推定装置
JP2018180728A (ja) * 2017-04-06 2018-11-15 矢崎エナジーシステム株式会社 ハザードマップ作成システム、ハザードマップ作成装置及びハザードマップ作成方法
JP2018194417A (ja) * 2017-05-17 2018-12-06 株式会社Soken 位置推定装置、移動装置
JP2018206038A (ja) * 2017-06-02 2018-12-27 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
DE112017006904T5 (de) 2017-01-24 2019-10-02 Fujitsu Limited Informationsverarbeitungsvorrichtung, Merkmalspunkteextraktionsprogramm undMerkmalspunkteextraktionsverfahren
JP2020017198A (ja) * 2018-07-27 2020-01-30 パイオニア株式会社 情報処理装置
JP2020194263A (ja) * 2019-05-27 2020-12-03 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム
US10929695B2 (en) 2017-03-28 2021-02-23 Denso Corporation Obstacle detection apparatus
CN112486158A (zh) * 2019-09-11 2021-03-12 株式会社东芝 位置推定装置、移动体控制系统、位置推定方法以及程序
JP2021512297A (ja) * 2018-01-24 2021-05-13 錐能机器人(上海)有限公司Zhuineng Robotics (Shanghai) Co., Ltd. 可変シーンでの複数の設備による視覚ナビゲーション方法及びシステム
JP2021517680A (ja) * 2018-04-03 2021-07-26 モービルアイ ビジョン テクノロジーズ リミテッド ナビゲーションパラメータを決定するためのシステム及び方法
WO2023188262A1 (ja) * 2022-03-31 2023-10-05 本田技研工業株式会社 地図生成装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018180245A1 (ja) * 2017-03-28 2020-05-14 パイオニア株式会社 出力装置、制御方法、プログラム及び記憶媒体
KR102420568B1 (ko) 2018-04-27 2022-07-13 삼성전자주식회사 차량의 위치를 결정하는 방법 및 이를 위한 차량
JP7120130B2 (ja) * 2019-04-04 2022-08-17 株式会社デンソー 車両位置決定装置および車両位置決定方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138142A (ja) * 1997-07-23 1999-02-12 Denso Corp 車両用障害物認識装置
JP2005173748A (ja) * 2003-12-09 2005-06-30 Zenrin Co Ltd 電子地図データを利用した風景画像の撮像位置の特定
JP2005301603A (ja) * 2004-04-09 2005-10-27 Denso Corp 走行車線検出装置
JP2005326168A (ja) * 2004-05-12 2005-11-24 Fuji Photo Film Co Ltd 運転支援システム、車両、および運転支援方法
JP2006054681A (ja) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology 移動体周辺監視装置
JP2009237845A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138142A (ja) * 1997-07-23 1999-02-12 Denso Corp 車両用障害物認識装置
JP2005173748A (ja) * 2003-12-09 2005-06-30 Zenrin Co Ltd 電子地図データを利用した風景画像の撮像位置の特定
JP2005301603A (ja) * 2004-04-09 2005-10-27 Denso Corp 走行車線検出装置
JP2005326168A (ja) * 2004-05-12 2005-11-24 Fuji Photo Film Co Ltd 運転支援システム、車両、および運転支援方法
JP2006054681A (ja) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology 移動体周辺監視装置
JP2009237845A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014174159A (ja) * 2013-03-06 2014-09-22 Electronics And Telecommunications Research Institute イメージ基盤データベース構築方法、イメージ基盤データベースを利用したルート検索サービス提供方法及び装置
CN103440626A (zh) * 2013-08-16 2013-12-11 北京智谷睿拓技术服务有限公司 照明方法和照明系统
JP2015155903A (ja) * 2014-02-20 2015-08-27 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 自動運転システム、自動運転の方法及びコンピューティング装置
EP3232159A4 (en) * 2014-12-08 2018-08-15 Hitachi Automotive Systems, Ltd. Host vehicle position estimation device
JPWO2016093028A1 (ja) * 2014-12-08 2017-09-07 日立オートモティブシステムズ株式会社 自車位置推定装置
WO2016093028A1 (ja) * 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 自車位置推定装置
US10718628B2 (en) 2014-12-08 2020-07-21 Hitachi Automotive Systems, Ltd. Host vehicle position estimation device
JP2016109650A (ja) * 2014-12-10 2016-06-20 株式会社デンソー 位置推定装置、位置推定方法、位置推定プログラム
JP2017054494A (ja) * 2015-08-11 2017-03-16 本田技研工業株式会社 標示ベースの位置測定
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2017219329A (ja) * 2016-06-03 2017-12-14 株式会社Soken 自車位置特定装置、自車位置特定方法
DE112017006904T5 (de) 2017-01-24 2019-10-02 Fujitsu Limited Informationsverarbeitungsvorrichtung, Merkmalspunkteextraktionsprogramm undMerkmalspunkteextraktionsverfahren
US10997449B2 (en) 2017-01-24 2021-05-04 Fujitsu Limited Information processing system, computer-readable recording medium recording feature-point extraction program, and feature-point extraction method
JP2018128386A (ja) * 2017-02-09 2018-08-16 株式会社デンソー 位置推定装置
US10929695B2 (en) 2017-03-28 2021-02-23 Denso Corporation Obstacle detection apparatus
JP2018180728A (ja) * 2017-04-06 2018-11-15 矢崎エナジーシステム株式会社 ハザードマップ作成システム、ハザードマップ作成装置及びハザードマップ作成方法
JP2018194417A (ja) * 2017-05-17 2018-12-06 株式会社Soken 位置推定装置、移動装置
JP2018206038A (ja) * 2017-06-02 2018-12-27 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
JP7032062B2 (ja) 2017-06-02 2022-03-08 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
JP2021512297A (ja) * 2018-01-24 2021-05-13 錐能机器人(上海)有限公司Zhuineng Robotics (Shanghai) Co., Ltd. 可変シーンでの複数の設備による視覚ナビゲーション方法及びシステム
JP2021517680A (ja) * 2018-04-03 2021-07-26 モービルアイ ビジョン テクノロジーズ リミテッド ナビゲーションパラメータを決定するためのシステム及び方法
JP7125214B2 (ja) 2018-04-03 2022-08-24 モービルアイ ビジョン テクノロジーズ リミテッド プログラムおよびコンピューティングデバイス
US11580660B2 (en) 2018-04-03 2023-02-14 Mobileye Vision Technologies Ltd. Using mapped elevation to determine navigational parameters
JP2020017198A (ja) * 2018-07-27 2020-01-30 パイオニア株式会社 情報処理装置
JP2020194263A (ja) * 2019-05-27 2020-12-03 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム
CN112486158A (zh) * 2019-09-11 2021-03-12 株式会社东芝 位置推定装置、移动体控制系统、位置推定方法以及程序
WO2023188262A1 (ja) * 2022-03-31 2023-10-05 本田技研工業株式会社 地図生成装置

Also Published As

Publication number Publication date
JP5714940B2 (ja) 2015-05-07

Similar Documents

Publication Publication Date Title
JP5714940B2 (ja) 移動体位置測定装置
JP7349792B2 (ja) 車両走行のための情報を提供する方法
US11900627B2 (en) Image annotation
US11204253B2 (en) Method and apparatus for displaying virtual route
US11200433B2 (en) Detection and classification systems and methods for autonomous vehicle navigation
US20230382422A1 (en) Systems and methods for vehicle navigation
CN112105893B (zh) 用于自动驾驶车辆的实时地图生成系统
JP2012127896A (ja) 移動体位置測定装置
US11573090B2 (en) LIDAR and rem localization
CN112923930B (zh) 用于自主车辆导航的众包和分发稀疏地图以及车道测量
US10127461B2 (en) Visual odometry for low illumination conditions using fixed light sources
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
CN111771206A (zh) 用于自动驾驶车辆的地图分区系统
CN112105890A (zh) 用于自动驾驶车辆的基于rgb点云的地图生成系统
JP2022535351A (ja) 車両ナビゲーションのためのシステム及び方法
CN112055805A (zh) 用于自动驾驶车辆的点云登记系统
CN111771229A (zh) 用于自动驾驶车辆的点云重影效果检测系统
US11680801B2 (en) Navigation based on partially occluded pedestrians
JP2006105661A (ja) ステレオ画像による平面推定方法
JP2023106536A (ja) 画像分析に基づく車両ナビゲーションのためのシステム
US20230136710A1 (en) Systems and methods for harvesting images for vehicle navigation
CN116524454A (zh) 物体追踪装置、物体追踪方法及存储介质
NL2016718B1 (en) A method for improving position information associated with a collection of images.
Belaroussi et al. Vehicle attitude estimation in adverse weather conditions using a camera, a GPS and a 3D road map
CN113196341A (zh) 用于对道路的表面上的对象进行检测和建模的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150312

R150 Certificate of patent or registration of utility model

Ref document number: 5714940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250