JP6881464B2 - 自己位置推定方法及び自己位置推定装置 - Google Patents

自己位置推定方法及び自己位置推定装置 Download PDF

Info

Publication number
JP6881464B2
JP6881464B2 JP2018541754A JP2018541754A JP6881464B2 JP 6881464 B2 JP6881464 B2 JP 6881464B2 JP 2018541754 A JP2018541754 A JP 2018541754A JP 2018541754 A JP2018541754 A JP 2018541754A JP 6881464 B2 JP6881464 B2 JP 6881464B2
Authority
JP
Japan
Prior art keywords
target
moving body
self
position data
target position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018541754A
Other languages
English (en)
Other versions
JPWO2018061084A1 (ja
Inventor
泰仁 佐野
泰仁 佐野
千加夫 土谷
千加夫 土谷
卓也 南里
卓也 南里
博幸 ▲高▼野
博幸 ▲高▼野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2018061084A1 publication Critical patent/JPWO2018061084A1/ja
Application granted granted Critical
Publication of JP6881464B2 publication Critical patent/JP6881464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Description

本発明は、自己位置推定方法及び自己位置推定装置に関するものである。
自立移動可能なロボットの自己位置を推定する技術が知られている(特許文献1参照)。特許文献1では、移動ロボットが移動可能な領域をセンサで検出した結果(周囲環境情報)を、移動ロボットを基準として予め定めた領域内に限定し、この限定した周囲環境情報と予め移動ロボットが保持している環境地図とを照合することにより自己位置を推定している。
特開2008−250906号公報
ところで、車両の自己位置を推定するために、車両の車幅方向の両側に位置する白線を用いる場合がある。一般的に、双方の白線が同時に検出される場合、白線の検出位置には誤差が含まれている。特に、車両に対する白線の車幅方向の位置は、キャリブレーション誤差などで定常的にオフセットされている。このため、自己位置の推定結果が不安定になったり、或いは、自己位置の推定精度が低下したりする。
本発明は、上記課題に鑑みて成されたものであり、その目的は、相対位置の誤差が多いと推定される物標位置データを排除することにより自己位置の推定精度を向上させる自己位置推定方法及び自己位置推定装置を提供することである。
本発明の一態様に係わる自己位置推定方法は、移動体の周囲に存在する物標と移動体との相対位置を検出し、検出した相対位置を移動体の移動量だけ移動させた位置を物標位置データとして蓄積し、物標位置データの移動体との相対位置の信頼性に基づいて物標位置データを選択し、選択した物標位置データと、道路上又は道路周辺に存在する物標の位置情報を含む地図情報とを照合することにより、移動体の現在位置である自己位置を推定し、相対位置から得られる移動体から物標までの移動体の車幅方向の距離と、移動体が走行する走路から想定される移動体から物標までの移動体の車幅方向の想定距離との差が小さいほど、前記した信頼性が高いと判断する。
本発明の他の一態様に係わる自己位置推定方法は、移動体の周囲に存在する物標と移動体との相対位置を検出し、検出した相対位置を移動体の移動量だけ移動させた位置を物標位置データとして蓄積し、物標位置データの移動体との相対位置の信頼性に基づいて物標位置データを選択し、選択した物標位置データと、道路上又は道路周辺に存在する物標の位置情報を含む地図情報とを照合することにより、移動体の現在位置である自己位置を推定し、移動体が走行する走路を特定する走路境界を示す複数の物標位置データを近似した線と複数の物標位置データとの誤差が小さいほど、走路境界を示す物標位置データの移動体との相対位置の信頼性が高いと判断する。
本発明の一態様に係わる自己位置推定方法によれば、相対位置の誤差が多いと推定される物標位置データを排除できるので自己位置の推定精度を向上させることができる。
図1は、実施形態に係わる自己位置推定装置の構成の一例を示すブロック図である。 図2は、周囲センサ群1が車両Vに搭載された状態を示す斜視図である。 図3は、図1の自己位置推定装置を用いた自己位置推定方法の一例を示すフローチャートである。 図4は、自己位置推定を行う際に車両Vが走行する環境を示す斜視図である。 図5(a)〜図5(d)は、図4に示す例において、時刻t1〜t4の間に物標位置検出部31により検出された、車両座標系における縁石61の位置71及び白線62、63の物標位置データ72、73を示す図である。 図6は、図5(a)〜図5(d)に示す例において、車両センサ群5による検出結果に基づいて算出された車両Vの移動量を積分した結果を示す図である。 図7は、図5及び図6に示す例において、オドメトリ座標系に変換された物標位置データを示す図である。 図8は、物標位置データ(71a〜71d、72a〜72d、73a〜73d)から抽出される直線情報(N1、N2、N3)を示す概念図である 図9は、走路境界を示す物標位置データ(72、73)に対して近似した直線(N2、N3)を示す図である。 図10は、車両Vが走行している走路を特定する走路境界を示す、直線近似が可能な走路境界(72j、72k、73j、73k)が検出されている様子を示す図である。 図11は、車両Vが走行している走路を特定する走路境界を示す、曲線近似が可能な走路境界(72m、72n、73m、73n)が検出されている様子を示す図である。
図面を参照して、実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
図1を参照して、本実施形態に係る自己位置推定装置の構成を説明する。本実施形態に係る自己位置推定装置は、周囲センサ群1と、処理装置3と、記憶装置4と、車両センサ群5とを備える。本実施形態に係る自己位置推定装置は、車両V(図2参照)に搭載され、車両Vの自己位置を推定する。
本実施形態では、推定する車両Vの自己位置として、東西方向(X軸方向)の位置(X座標[m])、南北方向(Y軸方向)の位置(Y座標[m])、姿勢角情報として車両の方位角θ(ヨー角[rad])の二次元平面上における合計3自由度の位置及び姿勢角を推定する。
周囲センサ群1は、例えば、複数のレーザレンジファインダ(LRF)101、102と、複数のカメラ201、202とを備える。レーザレンジファインダ(LRF)101、102は、それぞれ照射したレーザ光の物標による反射光を受光することにより物標までの距離及び方位を検出する。カメラ201、202は、車両Vの周囲を撮像し、画像処理可能なデジタル画像を取得する。このように、周囲センサ群1は、車両Vの周囲に存在する物標をそれぞれ検出する複数のセンサからなる。周囲センサ群1には、このほかに、ソナー、レーダーが含まれていてもよい。車両Vの周囲に存在する物標には、車両Vの周囲の走路上に存在する白線、縁石、中央分離帯、ガードレール、リフレクタ等の走路境界を示す物標、停止線、横断歩道、制限速度等の路面標示、標識、信号機、電柱など道路構造物が含まれる。
図2は、周囲センサ群1が車両Vに搭載された状態を図示した一例である。LRF101、102は、例えば、車両Vの左右両側のフロントフェンダー近傍にそれぞれ搭載可能である。LRF101、102は、例えば、車両Vの前後方向Dに沿う回転軸として、照射するレーザ光の軌跡が路面に対する垂直面をなすように所定の走査角(例えば90°)でレーザ光を走査する。これにより、LRF101、102は、車両Vの左右方向に存在する縁石等の物標を検出することができる。LRF101、102は、逐次、検出した物標の形状を検出結果として処理装置3に出力する。
カメラ201、202は、例えば、車両Vの左右両側のドアミラーにそれぞれ搭載可能である。カメラ201、202は、例えば、CCD、CMOS等の固体撮像素子により画像を撮影する。カメラ201、202は、例えば、車両Vの側方の路面を撮影する。カメラ201、202は、逐次、撮影した画像を処理装置3に出力する。
図1に戻り、記憶装置4は、道路上又は道路周辺に存在する物標の位置情報を含む地図情報41を記憶する地図情報格納部である。記憶装置4は、半導体メモリ、磁気ディスク等から構成可能である。地図情報41に記録される物標(ランドマーク)は、例えば、停止線、横断歩道、横断歩道予告、区画線等を示す道路標示や、縁石等の構造物の他、周囲センサ群1により検出可能な種々の設備等を含む。地図情報41は、縁石等、実際は高さを有する物標であっても、二次元平面上の位置情報のみで記述される。地図情報41において、縁石、白線等の位置情報は、両端点の二次元位置情報を有する直線情報の集合体で定義される。地図情報41は、実環境の形状が曲線の場合、折れ線で近似された二次元平面上の直線情報として記述される。
車両センサ群5は、GPS受信機51、アクセルセンサ52、ステアリングセンサ53、ブレーキセンサ54、車速センサ55、加速度センサ56、車輪速センサ57、及びヨーレートセンサ等のその他のセンサを備える。各センサ51〜57は処理装置3に接続され、逐次、各種の検出結果を処理装置3に出力する。処理装置3は、車両センサ群5の各検出結果を用いて、地図情報41における車両Vの位置を算出したり、単位時間における車両Vの移動量を示すオドメトリを算出したりすることができる。例えば、車両Vの移動量は、タイヤの回転数によるオドメトリ計測、ジャイロ、加速度センサを用いた慣性計測、GNSS(汎地球航法衛星システム)など衛星からの電波を受信する方法、さらに外界センサの計測値の変化から移動量の推定を行なうSLAM(Simultaneous Localization and Mapping)などさまざまな方策が考えられるが、いずれの方法を用いても構わない。
処理装置3は、物標位置検出部31と、移動量推定部32と、物標位置蓄積部33と、直線抽出部34と、物標位置選択部35と、自己位置推定部36と、物標属性推定部37とを有する。処理装置3は、例えば、中央演算処理装置(CPU)、メモリ、及び入出力I/F等を備える集積回路であるマイクロコントローラにより構成可能である。この場合、マイクロコントローラに予めインストールされたコンピュータプログラムをCPUが実行することにより、処理装置3を構成する複数の情報処理部(31〜37)が実現される。処理装置3を構成する各部は、一体のハードウェアから構成されてもよく、別個のハードウェアから構成されてもよい。マイクロコントローラは、例えば自動運転制御等の車両Vに関わる他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。「自己位置推定回路」には、移動量推定部32と、物標位置蓄積部33と、直線抽出部34と、物標位置選択部35と、自己位置推定部36と、物標属性推定部37とが含まれる。
物標位置検出部31は、LRF101、102及びカメラ201、202の少なくともいずれかの検出結果に基づいて、車両Vの周囲に存在する物標と車両Vとの相対位置を検出する。物標位置検出部31が検出する相対位置は、車両座標系における位置である。車両座標系は、例えば、車両Vの後輪車軸中心を原点とし、前方向をx軸の正方向、左方向をy軸の正方向、上方向をz軸の正方向とすればよい。また、LRF101、102及びカメラ201、202の座標系(センサ座標系)から車両座標系への変換式は予め物標位置検出部31に設定される。「物標検出センサ」には、車両センサ群5と物標位置検出部31とが含まれる。
移動量推定部32は、車両センサ群5が備える少なくともいずれかのセンサの検出結果情報に基づいて、単位時間における車両Vの移動量であるオドメトリを検出する。車両Vの移動量は、オドメトリ座標系における移動量として検出される。物標位置蓄積部33は、物標位置検出部31により検出された物標の相対位置を、移動量推定部32により検出された車両Vの移動量だけ移動させた位置を、物標位置データとして処理装置3内の一次記憶装置または記憶装置4に蓄積する。
直線抽出部34は、物標位置蓄積部33により蓄積された物標位置データから直線情報を抽出する。物標属性推定部37は、LRF101、102及びカメラ201、202の少なくともいずれかの検出結果に基づいて、物標の属性を推定する。物標位置選択部35は、物標位置データの車両との相対位置の信頼性に基づいて物標位置データを選択する。物標位置選択部35は、直線抽出部34により抽出された直線情報、及び物標属性推定部37により推定された物標の属性に基づいて、物標位置データの車両Vとの相対位置の信頼性を判断する。自己位置推定部36は、選択した物標位置データと、道路上又は道路周辺に存在する物標の位置情報を含む地図情報とを照合することにより、車両Vの現在位置である自己位置を推定する。
図3を参照して、図1の自己位置推定装置を用いた自己位置推定方法の一例を説明する。先ず、ステップS01において、自己位置推定装置は、周囲センサ群1を用いて車両Vの周囲を計測する。
ステップS03に進み、周囲センサ群1は、車両Vの周囲に存在する物標をそれぞれ検出する。ステップS05に進み、物標位置検出部31は、LRF101、102及びカメラ201、202の少なくともいずれかの検出結果に基づいて、LRF101、102及びカメラ201、202に対する物標の位置、即ち、センサ座標系における物標の相対位置を推定する。例えば、カメラ201、202の場合、画像内位置と距離の関係をあらかじめ計測しておいてもよい。或いは、モーション・ステレオ方式を活用することもできる。これに限らず、その他の既知の方法を用いてもよい。また他の距離情報を取得可能なセンサー(ソナー、LRF、レーダー)などであれば、その値をそのまま活用すればよい。
図4は、自己位置推定を行う際に車両Vが走行する環境を図示した一例である。図4に示す例において、LRF101から射出されたレーザ光は、縁石61含む路面にライン64のように照射される。物標位置検出部31は、照射されたレーザ光の方向及び距離から形状の変化が大きい場所を縁石61の位置として抽出し、センサ座標系における位置を検出する。LRF101、102の鉛直下方向には常に路面があると仮定できるため、路面と高さを比較した場合に大きな変化ある点を抽出することで縁石61の検出を行うことができる。
また、物標位置検出部31は、カメラ201、202により撮像された画像の輝度情報から、車両Vの両側方に存在する白線62、63を検出する。例えば、物標位置検出部31は、カメラ201、202により撮像されたグレースケール画像から、暗、明、暗と順に輝度が変化するパターンを検出することで、明部の中央を白線62、63として検出することができる。カメラ201、202及び路面の位置関係から、センサ座標系における白線62、63の位置を検出することができる。ステップS05において検出されたセンサ座標系における位置は、高さ情報が除外され、以降、二次元データとして扱われる。
ステップS07に進み、物標位置検出部31は、予め設定した変換式を用いて、センサ座標系における物標の相対位置を、車両座標系における物標の相対位置へ変換する。
図5(a)〜図5(d)は、図4に示す例において、時刻t1〜t4の間に物標位置検出部31により検出された、車両座標系における縁石61の位置71及び白線62、63の物標位置データ72、73を示す図である。t1が最も過去の時刻であり、t4が最も新しい時刻である。
次に、ステップS07において、移動量推定部32は、車両センサ群5による検出結果に基づいて算出した車両Vの移動量を積分することにより、オドメトリ座標系における車両Vの位置を算出する。オドメトリ座標系は、例えば、自己位置推定装置に電源が投入された時点や処理がリセットされた時点の車両Vの位置を原点とし、車両Vの方位角を0°とすればよい。車両Vの移動量の積分は、オドメトリ座標系において行われる。
図6は、図5(a)〜図5(d)に示す例において、車両センサ群5による検出結果に基づいて算出された車両Vの移動量(M1、M2、M3、M4)を積分した結果を示す図である。移動量には、二次元座標上における位置及び姿勢(θ:ヨー角)の変化が含まれる。このように、移動量推定部32は、オドメトリ座標系における車両Vの位置(Xo、Yo)を算出する。
ステップS07において、物標位置蓄積部33は、物標位置検出部31により検出された車両座標系における物標の相対位置を、移動量推定部32により検出された車両Vの移動量だけ移動させた位置を、物標位置データとして蓄積する。
図7は、図5及び図6に示す例において、オドメトリ座標系に変換された物標位置データ(71a〜71d、72a〜72d、73a〜73d)を示す図である。このように、物標位置蓄積部33は、過去(t1、t2、t3、・・・)に計測されたセンサ座標系における物標の位置を、車両Vの移動量(M1、M2、M3、M4)に基づいて、オドメトリ座標系における物標の位置へ変換し、これを物標位置データとして蓄積する。
ステップS09に進み、物標位置選択部35は、蓄積された複数の物標位置データから走路境界を示す物標位置データ(71a〜71d、72a〜72d、73a〜73d)を抽出し、抽出された物標位置データ(71a〜71d、72a〜72d、73a〜73d)に対して、車両Vとの相対位置の信頼性を計算する。
先ず、図8に示すように、直線抽出部34は、物標位置蓄積部33により蓄積された物標位置データ(71a〜71d、72a〜72d、73a〜73d)から直線情報(N1、N2、N3)を抽出する。白線検出結果(物標位置データ)に対して線形近似を実施する。そして、物標位置選択部35は、物標の相対位置から得られる車両Vから物標までの距離と車両Vから物標までの想定距離との差に応じて物標位置データの車両Vとの相対位置の信頼性を判断する。当該差が小さいほど、信頼性が高いと判断する。
例えば、直線抽出部34は、図9に示す走路境界を示す物標位置データ(72、73)に対して直線(N2、N3)を近似する。物標位置選択部35は、車両Vから直線(N2、N3)までの車幅方向の距離を計測する。走路幅が4mであり、車両Vが走路の中央を走行している場合、車両Vの中心から白線までの想定距離は2mである。走路に対する車両Vの位置のずれや、検出誤差等を含めて、車両Vから直線(N2、N3)までの距離と想定距離(2m)との差の絶対値が1m以上である場合、車両Vから直線(N2、N3)までの距離が不正確である可能性が高いと判断する。図9に示す例では、距離WLと想定距離(2m)との差の絶対値は1m未満であるが、距離LRと想定距離(2m)との差の絶対値は1m以上であった。よって、物標位置選択部35は、右側の走路境界を示す物標位置データ73の信頼性を低く評価し、左側の走路境界を示す物標位置データ72の信頼性を高く評価する。物標位置選択部35は、信頼性を低く評価した物標位置データ73を排除し、信頼性を高く評価した物標位置データ72のみを選択する。
上記した想定距離との差に基づく信頼性の判断手法は、白線、縁石などの走路境界に限らず、他の物標にも適用することができる。例えば、標識、信号機、電柱など道路構造物は路側帯に存在する。よって、走路幅から想定距離を設定することができ、車両Vから検出された道路構造物までの相対距離と想定距離の差を算出することができる。
物標位置選択部35は、上記した想定距離との差に基づいて選択された物標位置データ72に対して、更に、物標の属性に基づく信頼性を判断する。具体的には、物標位置選択部35は、物標属性推定部37により推定された物標の属性に基づいて、物標位置データ72の信頼性を判断し、自己位置推定に用いる物標位置データを更に絞り込む。
例えば、同じ白線であっても、破線よりも実線の方が検出できる領域が大きいため、その相対位置の検出精度、即ち信頼性は高いと判断することができる。地図情報を参照することにより、検出された白線が実線であるか破線であるかを予め特定することができる。車両Vの一方側に位置する白線は実線であるのに対して、他方側に位置する白線が破線であることが判明した場合、検出誤差や車両Vからの距離が同程度であったとしても、一方側に位置する白線を示す物標位置データの信頼性が高いと判断する。そして、一方側に位置する白線を示す物標位置データを選択する。
白線の種類は、物標の属性の一例であって、それ以外の属性についても適用することができる。例えば、区画線の色について、黄色線より白色線のほうが検出しやすいので、白色線の信頼性を高く判断する。また、異なる物標同士で、信頼性を判断してもよい。例えば、停止線と横断歩道では、横断歩道の特徴箇所が停止線のそれよりも多いので、横断歩道の信頼性を高く判断する。
物標位置選択部35は、上記した物標の属性に基づいて選択された物標位置データに対して、更に、物標位置データが連続して検出できた時間に基づいて、物標位置データの信頼性を判断する。
白線に限らず、一般的な環境に存在する物標は、経年劣化やオクルージョンなどの影響により、常に一定の信頼性をもって継続して検出できるとは限らない。また、複数のセンサが異なる方向をカバーするセンサーフュージョン方式を採用する場合では、常にある方向のみ検出が不確かになることも考えられる。そこで、白線や走路境界の情報については、その検出時間を合わせて評価し、ある一定時間(例えば10秒)以上連続して検出された場合に限り、信頼性が高いと判断し、この物標位置データを選択する。
物標位置選択部35は、上記した連続検出時間に基づいて選択された物標位置データに対して、更に、走路境界の物標位置データを線形近似したときの誤差分布に基づいて、物標位置データの信頼性を判断する。換言すれば、物標位置選択部35は、直線抽出部34により抽出された直線情報(近似直線)に基づいて、物標位置データの信頼性を判断し、自己位置推定に用いる物標位置データを更に絞り込む。
物標位置選択部35は、車両Vが走行している走路を特定する走路境界(例えば、白線)を示す物標位置データとして、平行した複数の走路境界が検出されているか否かを判断する。そして、平行した複数の走路境界が検出されている場合、白線検出結果(物標位置データ)のうち、直線で近似できる範囲の物標位置データの信頼性を高く評価し、自己位置推定に用いる物標位置データとして選択する。例えば、図10に示すように、車両Vが走行している走路を特定する、平行した複数の走路境界を示す物標位置データ(72j、72k、73j、73k)が検出されている。直線抽出部34は、走路境界を示す物標位置データに対して線形近似を実施する。物標位置選択部35は、物標位置データ(72j、72k、73j、73k)のうち、直線で近似できる範囲LAに含まれる物標位置データ(72j、73j)を選択する。このときに、物標位置選択部35は、車両Vを基準として、直線で近似できる範囲LAを広げていく。例えば、近似線に対する物標位置データの最小距離が−15cm以上15cm以下である物標位置データの数が80%以上となる区間を、直線で近似できる範囲LAとして設定する。一方、直線で近似できる範囲LAに含まれない物標位置データ(72k、73k)は排除する。
なお、図11に示すように、車両Vが走行している走路がカーブ区間である場合、近似線は必ずしも直線とはならない。そこで、直線抽出部34は、線形近似(直線近似)の代わりに曲線近似を実施する。物標位置選択部35は、曲線(N2、N3)で近似できる範囲LBに含まれる物標位置データ(72m、73m)の信頼性を高く評価し、自己位置推定に用いる物標位置データとして選択する。一方、曲線(N2、N3)で近似できる範囲LBに含まれない物標位置データ(72n、73n)は排除する。
本実施形態では、物標位置選択部35が、(1)車両Vから物標までの想定距離との差、(2)物標の属性、(3)連続検出時間、(4)走路境界を示す物標位置データを線形近似したときの誤差分布、の順番で、物標位置データの車両Vとの相対位置の信頼性を判断する例を示した。本発明はこれに限定されず、信頼性判断の順番は任意に入れ替えることが出来る。また、(1)〜(4)の一部の判断のみを実施することもできる。さらに、それぞれの信頼性判断を定量化して、総合評価してもよい。例えば、各信頼性判断で評価点を多段階で与えて、その評価点を加算して、総合評点を算出してもよい。これにより、検出された物標の信頼性を定量化した上で判断することができる。
次に、ステップS13に進み、自己位置推定部36は、物標位置選択部35により選択された物標位置データと、地図情報41における物標の位置とを照合する。換言すれば、地図情報41における物標の位置と、物標位置選択部35により信頼性が高いと判断された物標位置データとをマッチングする。
ステップS15に進み、自己位置推定部36は、上記した物標の位置の照合(マップ・マッチング)により、車両Vの自己位置を推定する。すなわち、車両Vの東西方向の位置(X座標)と、南北方向の位置(Y座標)と、方位角(ヨー角θ)とからなる合計3自由度の位置と姿勢角を推定する。地図上の位置を推定する手法として、既知の自己位置推定手法を用いればよい。ステップS17に進み、自己位置推定部36は、推定した車両Vの自己位置を出力する。
なお、ステップS13における照合には、ICP(Iterative Closest Point)アルゴリズムを用いることができる。このとき、自己位置推定部36は、地図情報41に含まれる物標の位置のうち、例えば区画線に対しては、その両端の端点を評価点としてマッチングする。また、車両V(周囲センサ群1)に近いほど物標位置データはオドメトリの誤差の影響を受けないので、自己位置推定部36は、車両Vの近傍については直線補完して評価点の数を増加させ、車両Vの遠方については評価点の数を減少させることができる。
以上のように、本実施の形態によれば、以下の作用効果が得られる。
物標位置データの車両Vとの相対位置の信頼性に基づき、物標位置データを選択するので、相対位置の誤差が多いと推定される物標位置データが排除でき、自己位置の推定精度が向上する。
物標位置選択部35は、車両Vから物標までの距離と想定距離との差が小さいほど、物標位置データの車両との相対位置の信頼性が高いと判断する。これにより、相対位置の誤差が大きいと推定される物標位置データを適切に排除できるので、自己位置の推定精度が向上する。
物標位置選択部35は、物標位置データの車両Vとの相対位置の信頼性を、物標の属性に基づいて判断する。例えば、白線の実線と破線とを比較した場合、定常的に物標位置データを取得できる実線の方が破線に比べて、信頼性が高いと判断する。よって、相対位置の誤差の多いと推定される物標位置データを適切に判断できるので、自己位置の推定精度が向上する。
物標位置選択部35は、物標位置データの車両Vとの相対位置の信頼性を、物標位置データが連続して検出できた時間に基づいて判断する。これにより、安定して正確な自己位置の推定を行なうことが可能となる。
物標位置選択部35は、車両Vが走行する走路を特定する、平行した複数の走路境界を示す物標位置データが検出される場合、車両Vとの相対位置の信頼性が高い物標位置データを選択する。これにより、位置精度が高い走路境界が選択され、より自己位置推定精度が高くなる。
物標位置選択部35は、走路境界を近似した時の近似線との誤差が小さいほど、走路境界を示す物標位置データの車両Vとの相対位置の信頼性が高いと判断する。これにより、検出位置の精度が高い走路境界が選択され、自己位置の推定精度が更に高くなる。
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
移動体には、陸上を移動する移動物体としての車両Vに限定されず、船舶、航空機、宇宙機、その他の移動物体が含まれる。
上述の各実施形態で示した各機能は、1又は複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理装置は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。
1 周囲センサ群(物標検出センサ)
31 物標位置検出部(物標検出センサ)
32 移動量推定部(自己位置推定回路)
33 物標位置蓄積部(自己位置推定回路)
34 直線抽出部(自己位置推定回路)
35 物標位置選択部(自己位置推定回路)
36 自己位置推定部(自己位置推定回路)
37 物標属性推定部(自己位置推定回路)
41 地図情報
61 縁石(物標)
62、63 白線(物標)
72j、72k、72m、72n 物標位置データ
73j、73k、73n、73m 物標位置データ
M1〜M4 移動体の移動量
N1、N2、N3 複数の物標位置データを近似した線
V 車両(移動体)

Claims (6)

  1. 移動体に搭載され、前記移動体の周囲に存在する物標と前記移動体との相対位置を検出する物標検出センサと、
    前記相対位置を前記移動体の移動量だけ移動させた位置を物標位置データとして蓄積し、蓄積された前記物標位置データと、道路上又は道路周辺に存在する前記物標の位置情報を含む地図情報とを照合することにより、前記移動体の現在位置である自己位置を推定する自己位置推定回路と、を用いた自己位置推定方法において、
    前記物標位置データの前記移動体との相対位置の信頼性に基づいて、前記物標位置データの中から地図情報と照合する物標位置データを選択し、
    選択した物標位置データと前記地図情報とを照合することにより前記自己位置を推定し、
    前記相対位置から得られる前記移動体から前記物標までの前記移動体の車幅方向の距離と、前記移動体が走行する走路から想定される前記移動体から前記物標までの前記車幅方向の想定距離との差が小さいほど、前記信頼性が高いと判断する
    ことを特徴とする自己位置推定方法。
  2. 移動体に搭載され、前記移動体の周囲に存在する物標と前記移動体との相対位置を検出する物標検出センサと、
    前記相対位置を前記移動体の移動量だけ移動させた位置を物標位置データとして蓄積し、蓄積された前記物標位置データと、道路上又は道路周辺に存在する前記物標の位置情報を含む地図情報とを照合することにより、前記移動体の現在位置である自己位置を推定する自己位置推定回路と、を用いた自己位置推定方法において、
    前記物標位置データの前記移動体との相対位置の信頼性に基づいて、前記物標位置データの中から地図情報と照合する物標位置データを選択し、
    選択した物標位置データと前記地図情報とを照合することにより前記自己位置を推定し、
    前記移動体が走行する走路を特定する走路境界を示す複数の物標位置データを近似した線と前記複数の物標位置データとの誤差が小さいほど、前記走路境界を示す物標位置データの移動体との相対位置の信頼性が高いと判断する
    ことを特徴とする自己位置推定方法。
  3. 前記物標の属性に基づいて前記信頼性を判断することを特徴とする請求項1又は2に記載の自己位置推定方法。
  4. 前記物標位置データが連続して検出できた時間に基づいて前記信頼性を判断することを特徴とする請求項1〜3のいずれか一項に記載の自己位置推定方法。
  5. 移動体に搭載され、前記移動体の周囲に存在する物標と前記移動体との相対位置を検出する物標検出センサと、
    前記相対位置を前記移動体の移動量だけ移動させた位置を物標位置データとして蓄積し、前記物標位置データの前記移動体との相対位置の信頼性に基づいて、前記物標位置データの中から地図情報と照合する物標位置データを選択し、選択した物標位置データと、地図上に存在する前記物標の位置情報を含む地図情報とを照合することにより、前記移動体の現在位置である自己位置を推定する自己位置推定回路と、を備え、
    前記自己位置推定回路は、前記相対位置から得られる前記移動体から前記物標までの前記移動体の車幅方向の距離と、前記移動体が走行する走路から想定される前記移動体から前記物標までの前記車幅方向の想定距離との差が小さいほど、前記信頼性が高いと判断する
    ことを特徴とする自己位置推定装置。
  6. 移動体に搭載され、前記移動体の周囲に存在する物標と前記移動体との相対位置を検出する物標検出センサと、
    前記相対位置を前記移動体の移動量だけ移動させた位置を物標位置データとして蓄積し、前記物標位置データの前記移動体との相対位置の信頼性に基づいて、前記物標位置データの中から地図情報と照合する物標位置データを選択し、選択した物標位置データと、地図上に存在する前記物標の位置情報を含む地図情報とを照合することにより、前記移動体の現在位置である自己位置を推定する自己位置推定回路と、を備え、
    前記自己位置推定回路は、前記移動体が走行する走路を特定する走路境界を示す複数の物標位置データを近似した線と前記複数の物標位置データとの誤差が小さいほど、前記走路境界を示す物標位置データの移動体との相対位置の信頼性が高いと判断する
    ことを特徴とする自己位置推定装置。
JP2018541754A 2016-09-27 2016-09-27 自己位置推定方法及び自己位置推定装置 Active JP6881464B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/078428 WO2018061084A1 (ja) 2016-09-27 2016-09-27 自己位置推定方法及び自己位置推定装置

Publications (2)

Publication Number Publication Date
JPWO2018061084A1 JPWO2018061084A1 (ja) 2019-07-04
JP6881464B2 true JP6881464B2 (ja) 2021-06-02

Family

ID=61759367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018541754A Active JP6881464B2 (ja) 2016-09-27 2016-09-27 自己位置推定方法及び自己位置推定装置

Country Status (10)

Country Link
US (1) US11321572B2 (ja)
EP (1) EP3521962B1 (ja)
JP (1) JP6881464B2 (ja)
KR (1) KR20190045220A (ja)
CN (1) CN109791408B (ja)
BR (1) BR112019006057B1 (ja)
CA (1) CA3038643A1 (ja)
MX (1) MX2019002985A (ja)
RU (1) RU2720140C1 (ja)
WO (1) WO2018061084A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11967160B2 (en) 2021-10-06 2024-04-23 Mitsubishi Electric Corporation Own position inferring device

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6421782B2 (ja) * 2016-04-22 2018-11-14 トヨタ自動車株式会社 周辺情報収集システム
WO2018180081A1 (ja) * 2017-03-29 2018-10-04 パイオニア株式会社 劣化地物特定装置、劣化地物特定システム、劣化地物特定方法、劣化地物特定プログラム及び劣化地物特定プログラムを記録したコンピュータ読み取り可能な記録媒体
US11294380B2 (en) 2018-05-11 2022-04-05 Arnold Chase Passive infra-red guidance system
US10750953B1 (en) 2018-05-11 2020-08-25 Arnold Chase Automatic fever detection system and method
US10467903B1 (en) * 2018-05-11 2019-11-05 Arnold Chase Passive infra-red pedestrian detection and avoidance system
US11062608B2 (en) 2018-05-11 2021-07-13 Arnold Chase Passive infra-red pedestrian and animal detection and avoidance system
DE112019003433T5 (de) * 2018-09-25 2021-04-15 Hitachi Automotive Systems, Ltd. Erkennungsvorrichtung
JP7332403B2 (ja) * 2019-09-11 2023-08-23 株式会社東芝 位置推定装置、移動体制御システム、位置推定方法およびプログラム
JP7409330B2 (ja) 2021-01-28 2024-01-09 トヨタ自動車株式会社 自己位置推定精度検証方法、自己位置推定システム
JP2023039626A (ja) * 2021-09-09 2023-03-22 日立Astemo株式会社 車載処理装置、車両制御装置、及び自己位置推定方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3029360B2 (ja) 1993-05-21 2000-04-04 三菱電機株式会社 自動車用白線検出装置
US6581005B2 (en) * 2000-11-30 2003-06-17 Nissan Motor Co., Ltd. Vehicle position calculation apparatus and method
KR100495635B1 (ko) * 2002-09-02 2005-06-16 엘지전자 주식회사 네비게이션 시스템의 위치오차 보정방법
JP4392389B2 (ja) * 2005-06-27 2009-12-24 本田技研工業株式会社 車両及び車線認識装置
US7912633B1 (en) * 2005-12-01 2011-03-22 Adept Mobilerobots Llc Mobile autonomous updating of GIS maps
JP4978099B2 (ja) 2006-08-03 2012-07-18 トヨタ自動車株式会社 自己位置推定装置
JP2008250906A (ja) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP4985166B2 (ja) * 2007-07-12 2012-07-25 トヨタ自動車株式会社 自己位置推定装置
JP4254889B2 (ja) * 2007-09-06 2009-04-15 トヨタ自動車株式会社 車両位置算出装置
JP4950858B2 (ja) * 2007-11-29 2012-06-13 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識プログラム
US9026315B2 (en) * 2010-10-13 2015-05-05 Deere & Company Apparatus for machine coordination which maintains line-of-site contact
JP5142047B2 (ja) * 2009-02-26 2013-02-13 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション用プログラム
US8306269B2 (en) * 2009-03-12 2012-11-06 Honda Motor Co., Ltd. Lane recognition device
JP5206740B2 (ja) * 2010-06-23 2013-06-12 株式会社デンソー 道路形状検出装置
KR101472615B1 (ko) * 2010-12-21 2014-12-16 삼성전기주식회사 차선이탈 경보 시스템 및 방법
JP2012194860A (ja) * 2011-03-17 2012-10-11 Murata Mach Ltd 走行車
WO2014038041A1 (ja) * 2012-09-06 2014-03-13 株式会社東芝 位置検出装置、位置検出方法及び位置検出プログラム
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
EP2918974B1 (en) * 2014-03-11 2019-01-16 Volvo Car Corporation Method and system for determining a position of a vehicle
JP6185418B2 (ja) 2014-03-27 2017-08-23 トヨタ自動車株式会社 走路境界区画線検出装置
KR102255432B1 (ko) * 2014-06-17 2021-05-24 팅크웨어(주) 전자 장치 및 그의 제어 방법
JP6397663B2 (ja) * 2014-06-18 2018-09-26 シャープ株式会社 自走式電子機器
KR20160002178A (ko) * 2014-06-30 2016-01-07 현대자동차주식회사 자차 위치 인식 장치 및 방법
JP6189815B2 (ja) * 2014-10-29 2017-08-30 株式会社Soken 走行区画線認識システム
EP3232159A4 (en) * 2014-12-08 2018-08-15 Hitachi Automotive Systems, Ltd. Host vehicle position estimation device
EP3032221B1 (en) * 2014-12-09 2022-03-30 Volvo Car Corporation Method and system for improving accuracy of digital map data utilized by a vehicle
KR102622571B1 (ko) * 2015-02-10 2024-01-09 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
CN105718860B (zh) * 2016-01-15 2019-09-10 武汉光庭科技有限公司 基于驾驶安全地图及双目交通标志识别的定位方法及系统
CN105929364B (zh) * 2016-04-22 2018-11-27 长沙深之瞳信息科技有限公司 利用无线电定位的相对位置测量方法及测量装置
US10346797B2 (en) * 2016-09-26 2019-07-09 Cybernet Systems, Inc. Path and load localization and operations supporting automated warehousing using robotic forklifts or other material handling vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11967160B2 (en) 2021-10-06 2024-04-23 Mitsubishi Electric Corporation Own position inferring device

Also Published As

Publication number Publication date
RU2720140C1 (ru) 2020-04-24
CN109791408A (zh) 2019-05-21
EP3521962B1 (en) 2021-07-21
MX2019002985A (es) 2019-07-04
WO2018061084A1 (ja) 2018-04-05
BR112019006057B1 (pt) 2022-12-06
JPWO2018061084A1 (ja) 2019-07-04
EP3521962A1 (en) 2019-08-07
KR20190045220A (ko) 2019-05-02
CA3038643A1 (en) 2018-04-05
CN109791408B (zh) 2022-04-26
US20200019792A1 (en) 2020-01-16
US11321572B2 (en) 2022-05-03
BR112019006057A2 (pt) 2019-06-18
EP3521962A4 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
JP6881464B2 (ja) 自己位置推定方法及び自己位置推定装置
EP3306429B1 (en) Position estimation device and position estimation method
Spangenberg et al. Pole-based localization for autonomous vehicles in urban scenarios
JP6533619B2 (ja) センサキャリブレーションシステム
CN105571606B (zh) 能够改进车辆定位的方法和系统
Schreiber et al. Laneloc: Lane marking based localization using highly accurate maps
JP6477882B2 (ja) 自己位置推定装置及び自己位置推定方法
CN110945379A (zh) 从地图数据、激光和相机确定偏航误差
Moras et al. Drivable space characterization using automotive lidar and georeferenced map information
JP6834401B2 (ja) 自己位置推定方法及び自己位置推定装置
JP6989284B2 (ja) 車両位置推定装置及びプログラム
JP6838365B2 (ja) 自己位置推定方法及び自己位置推定装置
JP7321035B2 (ja) 物体位置検出方法及び物体位置検出装置
CN113375679A (zh) 一种车道级定位方法、装置、系统和相关设备
JP7020957B2 (ja) 道路構造推定方法及び道路構造推定装置
KR20200107382A (ko) 차량용 센서의 보정 정보 획득 장치 및 방법
JP7083768B2 (ja) 認識装置、車両制御装置、認識方法、およびプログラム
JP2022146256A (ja) 走路推定方法及び走路推定装置
JP6972528B2 (ja) 自己位置推定方法、移動体の走行制御方法、自己位置推定装置、及び移動体の走行制御装置
US20230057325A1 (en) Apparatus for improving detection and identification by non-visual scanning system
WO2022186277A1 (ja) 自律走行車及び自律走行車における自己位置推定方法
US20240067211A1 (en) Method and apparatus for operating a vehicle for highly automated driving, and vehicle for highly automated driving
US20220254056A1 (en) Distance calculation apparatus and vehicle position estimation apparatus
JP2022112754A (ja) 自律走行車

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20190307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R151 Written notification of patent or utility model registration

Ref document number: 6881464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151