JP6187671B2 - 自己位置算出装置及び自己位置算出方法 - Google Patents

自己位置算出装置及び自己位置算出方法 Download PDF

Info

Publication number
JP6187671B2
JP6187671B2 JP2016503899A JP2016503899A JP6187671B2 JP 6187671 B2 JP6187671 B2 JP 6187671B2 JP 2016503899 A JP2016503899 A JP 2016503899A JP 2016503899 A JP2016503899 A JP 2016503899A JP 6187671 B2 JP6187671 B2 JP 6187671B2
Authority
JP
Japan
Prior art keywords
vehicle
feature point
point detection
pattern light
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016503899A
Other languages
English (en)
Other versions
JPWO2015125300A1 (ja
Inventor
山口 一郎
一郎 山口
西内 秀和
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2015125300A1 publication Critical patent/JPWO2015125300A1/ja
Application granted granted Critical
Publication of JP6187671B2 publication Critical patent/JP6187671B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Description

本発明は、自己位置算出装置及び自己位置算出方法に関する。
車両に搭載されたカメラで車両近傍の画像を撮像して取得し、この画像の変化に基づいて車両の移動量を求める技術が知られている(特許文献1参照)。特許文献1では、車両が低速かつ微妙に移動した場合でも精度よく移動量を求められるように、画像の中から特徴点を検出し、この特徴点の位置を求め、特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。
また、格子パターン(パターン光)を投光するレーザ投光器を用いて三次元計測を行う技術が知られている(特許文献2参照)。特許文献2では、パターン光の投光領域をカメラで撮像し、撮像した画像からパターン光を抽出して、パターン光の位置から車両の挙動を求めている。
特開2008−175717号公報 特開2007−278951号公報
しかしながら、特許文献2に記載されたパターン光の投光領域と同じ領域で、特許文献1に記載された技術により路面上の特徴点を検出しようとした場合、パターン光と特徴点の判別が難しい。一方、パターン光の投光領域から離れた領域で路面上の特徴点を検出しようとすると、特徴点の移動量の算出誤差が大きくなる。
上記問題点を鑑み、本発明は、パターン光と区別して特徴点を容易に判別することができ、車両の自己位置を精度よく算出することができる自己位置算出装置及び自己位置算出方法を提供することを目的とする。
本発明の第一の態様に係る自己位置算出装置は、車両周囲の路面にパターン光を投光し、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得し、取得した画像におけるパターン光の位置から路面に対する車両の姿勢角を算出し、取得した画像から、パターン光が投光された領域の周囲に特徴点検出領域を設定し、その特徴点検出領域で路面上の複数の特徴点を検出し、路面上の複数の特徴点の時間変化に基づいて、車両の姿勢変化量を算出し、路面に対する車両の初期位置及び姿勢角に姿勢変化量を加算してゆくことによって車両の現在位置及び姿勢角を算出する。
図1は、第1実施形態に係る自己位置算出装置の全体構成を示すブロック図である。 図2は、投光器及びカメラを車両に搭載する方法の一例を示す外観図である。 図3(a)は、投光器とカメラを用いてスポット光が照射された路面上の位置を算出する様子を示す図であり、図3(b)は、パターン光が照射された領域とは異なる領域で検出された特徴点の時間変化からカメラの移動方向を求める様子を示す図である。 図4は、カメラで取得した画像に二値化処理を施したパターン光の画像を示す図であり、図4(a)はパターン光全体を示す図であり、図4(b)は1つのスポット光を拡大して示す図であり、図4(c)はスポット光の重心位置を示す図である。 図5は、距離及び姿勢角の変化量を算出する方法を説明するための模式図である。 図6は、画像上に検出された特徴点を示す図であり、図6(a)は時刻tに取得した第1フレーム(画像)を示す図であり、図6(b)は時刻t+Δtに取得した第2フレームを示す図である。 図7(a)は、カメラで取得した画像を示す図であり、図7(b)は、カメラで取得した画像に二値化処理を施したパターン光の画像を示す図である。図7(c)は、特徴点の検出結果を示す図である。 図8は、5×5のスポット光が投光されたパターン光領域を示す概略図である。 図9は、5×5のスポット光が投光されたパターン光領域の周囲に設定された特徴点検出領域の一例を示す概略図である。 図10は、第1実施形態に係る自己位置算出方法の一例を説明するためのフローチャートである。 図11は、スポット光が密に投光されたパターン光領域の一例を示す概略図である。 図12は、格子状のパターン光が投光されたパターン光領域の一例を示す概略図である。 図13は、スポット光が密に投光されたパターン光領域の周囲に設定された特徴点検出領域の一例を示す概略図である。 図14は、5×5のスポット光が投光されたパターン光領域の左右に設定された特徴点検出領域の一例を示す概略図である。 図15は、スポット光が密に投光されたパターン光領域の左右に設定された特徴点検出領域の他の一例を示す概略図である。 図16は、第2実施形態に係る自己位置算出装置の全体構成を示すブロック図である。 図17(a)は、横方向速度が相対的に小さい場合の特徴点検出領域の一例を示す概略図であり、図17(b)は、横方向速度が相対的に大きい場合の特徴点検出領域の一例を示す概略図である。 図18は、特徴点検出領域の設定方法の具体例を説明するための概略図である。 図19(a)は、横方向速度の絶対値の時間変化を表すグラフであり、図19(b)は、特徴点検出領域の横幅の時間変化を表すグラフである。 図20は、第2実施形態に係る自己位置算出方法の一例を説明するためのフローチャートである。 図21(a)は、車速が相対的に小さい場合の特徴点検出領域の一例を示す概略図であり、図21(b)は、車速が相対的に大きい場合の特徴点検出領域の一例を示す概略図である。 図22(a)は、車速の絶対値の時間変化を表すグラフであり、図22(b)は、特徴点検出領域の前後方向幅の時間変化を表すグラフである。 図23(a)は、スポット光が密に投光されたパターン光領域の一例を示す概略図であり、図23(b)は、車速及び横方向速度に応じて設定された特徴点検出領域の一例を示す概略図である。
以下、本発明を適用した第1及び第2実施形態について図面を参照して説明する。
(第1実施形態)
[ハードウェア構成]
先ず、図1を参照して、第1実施形態に係る自己位置算出装置のハードウェア構成を説明する。自己位置算出装置は、投光器11と、カメラ12と、エンジンコントロールユニット(ECU)13とを備える。投光器11は、車両に搭載され、車両周囲の路面にパターン光を投光する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部の一例である。ECU13は、投光器11を制御し、且つカメラ12で取得した画像から車両の自己位置を算出する一連の情報処理サイクルを実行する制御部の一例である。
カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には車両の前部、後部、側部、車両底部の路面が含まれている。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。車両10の前方の路面31上の特徴点(テクスチャ)及び投光器11から投光されたパターン光32bを撮像できるように、カメラ12を設置する高さ及び向きが調整され、且つ、カメラ12が備えるレンズのピント及び絞りについても自動調整される。カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。カメラ12で取得した画像データは、撮像する毎にECU13へ転送され、ECU13が備えるメモリに記憶される。
投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。カメラ12は、路面31に照射されたパターン光32bを撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光からなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7個のスポット光からなるパターン光32aを生成している。
図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置として機能する複数の情報処理部を構成する。ECU13は、カメラ12で取得した画像から車両の自己位置を算出する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。なお、ECU13は、車両10の他の制御に用いるECUと兼用してもよい。
ここで、複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、特徴点検出部23と、姿勢変化量算出部24と、自己位置算出部25と、パターン光制御部26とが含まれる。
パターン光抽出部21は、カメラ12で取得した画像をメモリから読み込み、この画像からパターン光の位置を抽出する。図3(a)に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射したパターン光32aをカメラ12で検出する。パターン光抽出部21は、カメラ12で取得した画像に対して二値化処理を施すことにより、図4(a)及び図4(b)に示すように、スポット光Spの画像のみを抽出する。そして、図4(c)に示すように、パターン光抽出部21は、各スポット光Spの重心の位置He、即ちスポット光Spの画像上の座標(Uj、Vj)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Spの場合、“j”は1以上35以下の自然数である。スポット光Spの画像上の座標(Uj、Vj)は、パターン光32aの位置を示すデータとしてメモリに記憶される。
姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12で取得した画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(Uj、Vj)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。
なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるため、本実施形態では、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。換言すれば、路面31に対するカメラ12の距離及び姿勢角を算出することにより、路面31と車両10との間の距離、及び路面31に対する車両10の姿勢角を求めることができる。
具体的には、カメラ12及び投光器11は車両10にそれぞれ固定されているため、パターン光32aの照射方向と、カメラ12と投光器11との間の距離(基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(Uj、Vj)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置(Xj,Yj,Zj)として求めることができる。以後、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22で算出された距離及び姿勢角は、メモリに記憶される。
なお、本実施形態では、毎回の情報処理サイクルにおいて距離及び姿勢角を算出する場合について説明する。
また、カメラ12に対する各スポット光の相対位置(Xj,Yj,Zj)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めてもよい。こうして算出された距離及び姿勢角のデータは、図1に示す自己位置算出部25で使用される。
特徴点検出部23は、カメラ12で取得した画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G.Lowe,“Distinctive Image Features from Scale−Invariant Keypoints,”Int.J.Comput.Vis.,vol.60,no.2,pp.91−110,Nov.200」に記載の手法を用いることができる。或いは、特徴点検出部23は、「金澤靖,金谷健一,“コンピュータビジョンのための画像の特徴点抽出,”信学誌,vol.87,no.12,pp.1043−1048,Dec.2004」に記載の手法を用いることもできる。
具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale−Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出してもよい。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(Ui、Vi)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12で取得した画像から検出された特徴点Teの例を示す。更に、各特徴点Teの変化方向及び変化量をベクトルDteとして示している。
なお、本実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12で取得する画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い,255:最も明るい)の範囲内である。
姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像される各フレームの画像のうち、前回(時刻t)のフレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui、Vi)をメモリから読み込む。更に、姿勢変化量算出部24は、今回(時刻t+Δt)のフレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui、Vi)をメモリから読み込む。そして、姿勢変化量算出部24は、複数の特徴点の画像上での時間的な位置変化に基づいて、車両の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面に対する車両の「距離及び姿勢角の変化量」、及び路面上での「車両の移動量」の双方を含んでいる。以下、「距離及び姿勢角の変化量」及び「車両の移動量」の算出方法について説明する。
距離及び姿勢角の変化量は、例えば、以下のようにして求めることができる。図6(a)は、時刻tに取得した第1フレーム(画像)38(図5)の一例を示す。図5及び図6(a)に示すように、第1フレーム38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(Xi,Yi,Zi)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面G(図6(a)参照)を路面と見なすことができる。よって、姿勢変化量算出部24は、各特徴点の相対位置(Xi,Yi,Zi)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l1、l2、l3)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレームを撮像したときのカメラの位置を示す。
なお、図5では、カメラ12に対する特徴点の相対位置を示す3次元座標(Xi,Yi,Zi)として、カメラ12の撮像方向にZ軸を設定し、撮像方向を法線としてカメラ12を含む平面内に互いに直交するX軸及びY軸を設定する。一方、画像38上の座標としては、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。
図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレーム38’を示す。図5のカメラ12’は、第2フレーム38’を撮像したときのカメラの位置を示す。図5及び図6(b)に示すように、第2フレーム38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1〜Te3の相対位置(Xi,Yi,Zi)と、各特徴点の第2フレーム38’上の位置P1(Ui、Vi)と、カメラ12のカメラモデルとから時間Δtにおけるカメラ12の移動量ΔLを算出できる。したがって、ひいては車両の移動量を算出できる。更には、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)〜(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、並びに距離及び姿勢角の変化量を算出することができる。なお、下記の(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけば良い。
なお、姿勢変化量算出部24は、時刻tと時刻t+Δtで検出される各画像中で相対位置が算出された特徴点の全てを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定しても良い。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I.Hartley:“A linear method for reconstruction from lines and points,”Proc.5thInternational Conference on Computer Vision,Cambridge,Massachusetts,pp.882−887(1995))を用いることができる。
このように、特徴点検出部23が、時刻tのフレーム画像38で相対位置(Xi,Yi,Zi)が算出された特徴点Te1、Te2、Te3を、時刻t+Δtにおけるフレーム画像38‘からも検出した場合に、姿勢変化量算出部24は、路面上の複数の特徴点の相対位置(Xi,Yi,Zi)と特徴点の画像上の位置(Ui、Vi)の時間変化とから、「車両の姿勢角変化量」を算出することができる。更には、車両の移動量を算出することができる。
即ち、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を継続して検出できれば、距離及び姿勢角の変化量を加算する処理(積分演算)を継続することにより、パターン光32aを用いずに距離及び姿勢角を更新し続けることができる。但し、最初の情報処理サイクルでは、パターン光32aを用いて算出した距離及び姿勢角、或いは所定の初期位置及び初期姿勢角を用いても良い。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期位置及び初期姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態で、なお且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出した距離及び姿勢角を、所定の初期位置及び初期姿勢角として用いれば良い。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。
なお、前後のフレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すれば良い。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後のフレーム間で対応関係が取れる特徴点であると判断する。そして、上記の処理で取得した姿勢変化量は、後段の自己位置算出部25で車両の自己位置を算出する際に使用される。
自己位置算出部25は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から車両の現在の距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両の自己位置を算出する。
具体的に、姿勢角算出部22で算出された距離及び姿勢角(パターン光を用いて算出された距離及び姿勢角)が起点として設定された場合について説明する。この場合には、この起点(距離及び姿勢角)に対して、自己位置算出部25は、姿勢角算出部22で算出された距離及び姿勢角に対して、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算して(積分演算して)、距離及び姿勢角を最新の数値に更新する。また、自己位置算出部25は、姿勢角算出部22で距離及び姿勢角が算出された際の車両位置を起点(車両の初期位置)とし、この初期位置からの車両の移動量を逐次加算して(積分演算して)、車両の自己位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。
従って、姿勢変化量算出部24は、時間Δtの間でのカメラ12の移動量(ΔL)を求めることにより、車両の自己位置を算出することができる。更に、距離及び姿勢角の変化量も同時に算出することができるので、姿勢変化量算出部24は、車両の距離及び姿勢角の変化量を考慮して、6自由度(前後、左右、上下、ヨー、ピッチ、ロール)の移動量(ΔL)を精度よく算出することができる。即ち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。
なお、本実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角を更新することにより、カメラ12の移動量(ΔL)を算出したが、路面31に対するカメラ12の姿勢角だけを変化量算出及び更新の対象としても構わない。この場合、路面31とカメラ12との間の距離は一定と仮定すれば良い。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。
パターン光制御部26は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に、パターン光制御部26は、パターン光32aの投光を開始する。その後、自己位置算出装置が停止するまで、パターン光制御部26は、パターン光32aを連続して投光する。或いは、所定の時間間隔をおいて、投光のオン/オフを繰り返してもよい。
ここで、7×5のスポット光Spからなるパターン光を投光した場合、図7(a)に示すような画像がカメラ12により取得される。この画像に対して、パターン光抽出部21が二値化処理を施すことにより、図7(b)に示すようにパターン光(スポット光)Spを抽出することができる。一方、特徴点検出部23が、パターン光Spの投光領域と同じ領域で路面31上の特徴点を検出しようとすると、図7(c)に示すように、パターン光Spに対して路面31上の特徴点を判別することが難しく、特徴点の検出が難しい。これに対して、特徴点検出部23が、パターン光Spの投光領域から離れた領域で路面上の特徴点を検出しようとすると、今度は特徴点の移動量の算出誤差が大きくなる。
そこで、本実施形態においては、特徴点検出部23が、投光器11によるパターン光の投光領域の周囲に特徴点検出領域を設定し、特徴点検出領域内で路面31上の特徴点を検出する。ここで、特徴点検出領域は、路面31上の特徴点を検出するにあたって、パターン光に対してパターン光の影響が十分小さくなる距離だけ離れて、且つこの距離で隣接している領域を意味する。パターン光の影響が十分小さくなる距離は、予め実験的に求めておくことができる。本実施形態では、パターン光の影響が十分小さくなる距離の一例として、想定される光環境下で99%以上の確率で特徴点を誤検出しなくなる距離を求めておく。
例えば、投光器11は、図8に示すように、カメラ12の撮像領域30内に、パターン光40aとして25(5×5)個のスポット光を投光する。図8において、矢印51は車両10の移動方向を示し、矢印51に対して逆向きの矢印52は特徴点の移動方向を示す。ここで、各パターン光(スポット光)40aに対して、特徴点を検出する際にパターン光40aの影響が十分小さくなる距離だけ離間した領域をパターン光領域40bとする。
特徴点検出部23は、図9に示すように、カメラ12の撮像領域30内で、パターン光領域40bの周囲を囲むように特徴点検出領域40cを設定する。特徴点検出領域40cは、格子状を有し、パターン光領域40bに隣接している。特徴点検出部23は、カメラ12による撮像領域30内のうち、パターン光領域40b内は特徴点の検出対象とせずに、特徴点検出領域40c内で特徴点を検出する。この結果、パターン光40aと特徴点とを容易に区別することができるので、特徴点を精度良く検出することができる。特徴点検出領域40cは、パターン光領域40bに隣接するのではなく、パターン光40aに隣接するように設定することもできる。換言すると、パターン光40aを除いた領域を、特徴点検出領域40cに設定することもできる。
[情報処理サイクル]
次に、図10を参照して、ECU13によって繰り返し実行される情報処理サイクルを説明する。この情報処理サイクルは、カメラ12で取得した画像38から車両10の自己位置を算出する自己位置算出方法の一例である。
図10のフローチャートに示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に開始され、自己位置算出装置が停止するまで繰り返し実行される。
図10のステップS01において、パターン光制御部26は、投光器11を制御して、車両周囲の路面31にパターン光を投光する。図10のフローチャートでは、図8に示したパターン光40aを連続して投光する例を説明する。
ステップS03に進み、ECU13は、カメラ12を制御して、パターン光40aが投光された領域を含む車両周囲の路面31を撮像して画像38を取得する。ECU13は、カメラ12で取得した画像データを、メモリに記憶する。
なお、ECU13はカメラ12の絞りを自動制御できる。前の情報処理サイクルで取得した画像38の平均輝度から、輝度値の最大値と最小値の中間値になるようにカメラ12の絞りをフィードバック制御してもよい。また、パターン光40aが投光されている領域は輝度値が高いため、ECU13は、パターン光40aを抽出した部分を除いた領域から、平均輝度値を求めてもよい。
ステップS05に進み、先ず、パターン光抽出部21は、カメラ12で取得した画像38をメモリから読み込み、図4(c)に示すように、画像38からパターン光40aの位置を抽出する。パターン光抽出部21は、パターン光40aの位置を示すデータとして算出されたスポット光Spの画像上の座標(Uj、Vj)をメモリに記憶する。
さらに、ステップS05において、姿勢角算出部22は、パターン光40aの位置を示すデータをメモリから読み込み、パターン光40aの位置から路面31に対する車両10の距離及び姿勢角を算出してメモリに記憶する。
ステップS07に進み、ECU13は、画像38から特徴点Teを検出し、前後の情報処理サイクルの間で対応関係が取れる特徴点Teを抽出し、特徴点Teの画像上の位置(Ui、Vi)から距離及び姿勢角の変化量を算出する。さらに、車両の移動量を算出する。
具体的に、先ず、特徴点検出部23は、カメラ12で取得した図8に対応する撮像領域30の画像38をメモリから読み込み、図9に示すようにパターン光領域40bを囲むように特徴点検出領域40cを設定する。更に、特徴点検出部23は、画像38から特徴点検出領域40c内の路面31上の特徴点Teを検出し、各特徴点Teの画像上の位置(Ui、Vi)をメモリに記憶させる。
姿勢変化量算出部24は、各特徴点Teの画像上の位置(Ui、Vi)をメモリから読み込み、姿勢角算出部22で算出された距離及び姿勢角と、特徴点Teの画像上の位置(Ui、Vi)とから、カメラ12に対する特徴点Teの相対位置(Xi,Yi,Zi)を算出する。なお、姿勢変化量算出部24は、前の情報処理サイクルのステップS09において設定された距離及び姿勢角を用いる。そして、姿勢変化量算出部24は、カメラ12に対する特徴点Teの相対位置(Xi,Yi,Zi)を、メモリに記憶する。
この後、姿勢変化量算出部24は、特徴点Teの画像上の位置(Ui、Vi)と、前の情報処理サイクルのステップS07において算出された特徴点Teの相対位置(Xi,Yi,Zi)をメモリから読み込む。姿勢変化量算出部24は、前後の情報処理サイクルの間で対応関係が取れる特徴点Teの相対位置(Xi,Yi,Zi)及び画像上の位置(Ui、Vi)を用いて、距離及び姿勢角の変化量を算出する。さらに、姿勢変化量算出部24は、前回の特徴点Teの相対位置(Xi,Yi,Zi)と今回の特徴点Teの相対位置(Xi,Yi,Zi)から、車両の移動量を算出してメモリに記憶する。ステップS07で算出された「距離及び姿勢角の変化量」並びに「車両の移動量」は、ステップS11の処理で用いられる。
ステップS09に進み、ECU13は、最初の情報処理サイクルでは、パターン光40aを用いて算出した距離及び姿勢角、或いは所定の初期位置及び初期姿勢角を用いて、自己位置を算出するための積分演算の起点を設定する。以降の情報処理サイクルでは、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を継続して検出できれば、距離及び姿勢角の変化量を加算する処理(積分演算)を継続することにより、パターン光40aを用いずに距離及び姿勢角を更新し続けることができる。
ステップS11に進み、自己位置算出部25は、ステップS09で設定された積分演算の起点と、ステップS07の処理で算出された車両10の距離及び姿勢角の変化量とから、車両10の自己位置を算出する。
こうして本実施形態に係る自己位置算出装置は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の自己位置を算出することができる。
[第1の変形例]
次に、第1の変形例として、特徴点検出領域の設定方法の他の一例を説明する。投光器11は、図11に示すように、パターン光41aとして、35(7×5)個のスポット光を密に投光してもよい。ここで、各パターン光41aに対して、特徴点を検出する際にパターン光41aの影響が十分小さくなる距離だけ離間した領域をパターン光領域41bとする。パターン光領域41bは、パターン光41aであるスポット光が密に投光されるため、全てのスポット光を一括して含むように形成されている。なお、図12に示すように、パターン光42aとして、スポット光の代わりに格子パターンを投光した場合も同様に格子パターンの周囲を囲むようにパターン光領域42bが形成される。
図11に示したパターン光41aを投光する場合、特徴点検出部23は、図13に示すように、パターン光領域41bの周囲を囲むように特徴点検出領域41cを設定する。特徴点検出領域41cは枠状を有し、パターン光領域41bに隣接している。特徴点検出部23は、カメラ12による撮像領域30内のうち、パターン光領域41bは特徴点の検出対象とせずに、特徴点検出領域41c内で特徴点を検出する。
[第2の変形例]
次に、第2の変形例として、特徴点検出領域の設定方法の他の一例を説明する。図8に示すように、投光器11によりパターン光40aとして5×5=25点のスポット光を投光された場合、特徴点検出部23は、図14に示すように、パターン光領域40bの左右(車幅方向)に特徴点検出領域43a,43b,43c,43dを設定してもよい。特徴点検出領域43a,43b,43c,43dのそれぞれは、パターン光領域40bに隣接し、車幅方向の幅よりも特徴点の移動方向52の幅が広い長方形のパターンである。車幅方向は、特徴点の移動方向52に直交する方向であり、特徴点の移動が少ない方向である。特徴点検出部23は、カメラ12による撮像領域30内のうち、特徴点検出領域43a,43b,43c,43d内で特徴点を検出する。
また、図11に示すようにパターン光41aとしてスポット光を密に、或いは格子パターンが投光された場合、特徴点検出部23は、図15に示すように、パターン光41aの左右(車幅方向)に特徴点検出領域44a,44bを設定してもよい。特徴点検出領域44a,44bは、パターン光領域41bに隣接し、車幅方向の幅よりも特徴点の移動方向52における幅が広い長方形のパターンである。特徴点検出部23は、カメラ12による撮像領域30内のうち、特徴点検出領域44a,44b内で特徴点を検出する。
[第1実施形態の効果]
第1実施形態によれば、パターン光40a,41aを含むパターン光領域40b,41bの周囲に特徴点検出領域40c,41cを設定し、特徴点検出領域40c,41c内で特徴点Teを検出することにより、パターン光40a,41aを抽出する領域とは異なり、且つ隣接する領域で特徴点を検出することができるので、パターン光40a,41aと区別して特徴点を精度良く検出することができる。したがって、検出された特徴点を用いて、車両の自己位置を精度良く検出することができる。
また、パターン光40a,41aを含むパターン光領域40b,41bの左右(車幅方向)に特徴点検出領域43a〜43d又は特徴点検出領域44a,44bをそれぞれ設定し、特徴点検出領域43a〜43d又は特徴点検出領域44a,44b内で特徴点を検出することにより、特徴点の移動方向52の幅が車幅方向の幅よりも長く、前後フレームでの対応付けがしやすい特徴点を検出可能な領域において、特徴点を検出することができる。
(第2実施形態)
[ハードウェア構成]
第2実施形態に係る自己位置算出装置は、図16に示すように、車両挙動検出部14を更に備える点が、第1実施形態に係る自己位置算出装置の構成と異なる。車両挙動検出部14としては、例えば車速を検出するための車輪速センサ又は横方向速度(ヨーレート)を検出するためのヨーレートセンサが使用可能である。第2実施形態に係る自己位置算出装置の他の構成は、第1実施形態に係る自己位置算出装置の構成と実質的に同様であるので、重複した説明を省略する。
特徴点検出部23は、車両挙動検出部14により検出された車両10の挙動に応じて、特徴点検出領域を設定する。例えば、パターン光41aとして5×7個のスポット光が密に投光された場合、特徴点検出部23は、車両挙動検出部14により検出された横方向速度の絶対値が低いほど、図17(a)に示すように、特徴点検出領域44a,44bの横幅w1を狭くし、車両挙動検出部14により検出された横方向速度の絶対値が高いほど、図17(b)に示すように、特徴点検出領域44a,44bの横幅w1を広くする。
具体的には、特徴点検出領域44a,44bの横幅w1は、カメラ12の撮像領域30の位置と、フレームレートに応じて決定される。例えば図18に示すように、カメラ12の撮像領域30の位置が、車両10の後輪車軸中心OからL[m]の距離にあり、フレームレートがF[fps]の場合を考える。すると車両10が極低速で走行し、後輪車軸中心Oを旋回中心として走行している場合、横方向速度であるヨーレートがγ[rad/sec]の時、1フレーム当たりの特徴点Teの横方向移動量はLγ/F[m]となる。前後フレームで特徴点Teを対応付けて検出するためには、原理的にこのLγ/F以上の幅の横方向領域が必要である。本実施形態では余裕を見て、この5倍の幅(5×Lγ/F)を特徴点検出領域44a,44bの横幅w1として設定する。
図19(a)に、ヨーレートγの絶対値の時間変化を示し、図19(b)に、特徴点検出領域の横幅(5×Lγ/F)の時間変化を示す。時刻t0〜t7は、1情報処理サイクル毎の時刻を示す。図19(a)及び図19(b)に示すように、ヨーレートγの絶対値の増減に比例して、特徴点検出領域の横幅(5×Lγ/F)を増減させてもよい。或いは、ヨーレートγの1又は2以上の閾値を予め設けておき、ヨーレートγが閾値以上となった場合に特徴点検出領域の横幅(5×Lγ/F)を段階的に増減させてもよい。
[情報処理サイクル]
次に、図20を参照して、第2実施の形態に係る自己位置算出方法のステップS07の詳細を説明する。他の手順は、第1実施の形態に係る自己位置算出方法の手順と実質的に同様であるので、重複した説明を省略する。
ステップS101において、車両挙動検出部14は、車両10の挙動(ここでは、ヨーレートγ)を検出する。ステップS102において、特徴点検出部23は、カメラ12で取得した図8に対応する撮像領域30の画像38をメモリから読み込み、パターン光領域40bを囲むように特徴点検出領域40cを設定する。このとき、車両10のヨーレートγに応じて、特徴点検出領域40cの横幅w1をその値が(5×Lγ/F)となるように広げる。ステップS103において、特徴点検出部23は、画像38の特徴点検出領域40c内から路面31上の特徴点Teを検出し、各特徴点Teの画像上の位置(Ui、Vi)をメモリに記憶させる。
ステップS104において、姿勢変化量算出部24は、第1実施形態と同様に、前後の情報処理サイクルの間で対応関係が取れる特徴点Teの相対位置(Xi,Yi,Zi)及び画像上の位置(Ui、Vi)を用いて、距離及び姿勢角の変化量を算出する。さらに、姿勢変化量算出部24は、前回の特徴点Teの相対位置(Xi,Yi,Zi)と今回の特徴点Teの相対位置(Xi,Yi,Zi)から、車両の移動量を算出してメモリに記憶する。
[第1の変形例]
次に、第1の変形例として、特徴点検出領域の設定方法の他の一例を説明する。特徴点検出部23は、車両挙動検出部14により検出された車速Vの絶対値に応じて、特徴点検出領域の車両前後方向幅を変化させてもよい。例えば、特徴点検出部23は、車両挙動検出部14により検出された車速Vの絶対値が相対的に低いとき、図21(a)に示すように、特徴点検出領域44a,44bの前後方向幅w2を相対的に狭く設定する。一方、特徴点検出部23は、車両挙動検出部14により検出された車速Vの絶対値が相対的に高いとき、図21(b)に示すように、特徴点検出領域44a,44bの前後方向幅w2を相対的に広く設定する。
具体的には、例えばカメラ12のフレームレートがF[fps]の場合を考える。すると車速V[m/s]で走行している場合、1フレーム当たりの画像上の特徴点Teの車両前後方向の移動量はV/F[m]となる。前後フレームで特徴点Teを対応付けて検出するためには、原理的にこのV/F以上の前後方向の領域が必要である。本実施形態では、余裕を見て、この5倍の長さの前後方向幅(5×V/F)を特徴点検出領域44a,44bの前後方向幅w2として設定する。
図22(a)に車速Vの絶対値の時間変化を示し、図22(b)に特徴点検出領域の前後方向幅(5×V/F)の時間変化を示す。時刻t1〜t7は1情報処理サイクル毎の時刻を示す。図22(a)及び図22(b)に示すように、車速Vの絶対値の増減に応じて、特徴点検出領域44a,44bの前後方向幅(5×V/F)も増減させる。或いは、車速Vの1又は2以上の閾値を予め設けておき、車速Vが閾値以上となった場合に特徴点検出領域の前後方向幅(5×V/F)を段階的に増減させてもよい。
[第2の変形例]
次に、第2の変形例として、特徴点検出領域の設定方法の他の一例を説明する。図23(a)に示すように、パターン光41aとしてスポット光を密に照射する場合、特徴点検出部23は、車両挙動検出部14により検出された横方向速度γ及び車速Vのそれぞれに応じて、特徴点検出領域44a,44bの横幅w4及び前後方向幅w3を設定してもよい。例えば、車両10の移動方向51が右斜め前方である場合には、図23(b)に示すように、特徴点検出領域44a,44bの横幅w4を(5×Lγ/F)まで広げ、且つ特徴点検出領域44a,44bの前後方向幅w3を(5×V/F)まで広げる。
[第2実施形態の効果]
第2実施形態に係る自己位置算出装置によれば、パターン光41aを含むパターン光領域41bの周囲に特徴点検出領域44a,44bを設定し、特徴点検出領域44a,44b内で特徴点を検出することにより、パターン光41aと区別して特徴点を精度良く検出することができ、車両の自己位置を精度良く検出することができる。
また、パターン光41aを含むパターン光領域41bの左右(車幅方向)に特徴点検出領域44a,44bを設定し、特徴点検出領域44a,44b内で特徴点を検出することにより、前後フレームで対応付けしやすい特徴点を検出できる。
また、車両挙動検出部14により検出された横方向速度に応じて特徴点検出領域44a,44bの横幅w1を広げることにより、車両10の移動に追従して前後フレームで対応付けが可能な特徴点を効率よく検出することができる。
更に、車両挙動検出部14により検出された車速Vに応じて特徴点検出領域44a,44bの前後方向幅w2を広げることにより、車両10の移動に追従して前後フレームで対応付けが可能な特徴点を効率よく検出することができる。
(その他の実施形態)
以上、第1及び第2実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
10 車両
11 投光器
12 カメラ(撮像部)
13 ECU
14 車両挙動検出部
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
25 自己位置算出部
26 パターン光制御部
30 撮像領域
31 路面
32a,32b,40a,41a,42a パターン光
40b,41b,42b パターン光領域
40c,41c,43a,43b,43c,43d,44a,44b 特徴点検出領域
Te 特徴点

Claims (6)

  1. 車両周囲の路面にパターン光を投光する投光器と、
    前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
    前記撮像部で取得した画像における前記パターン光の位置から前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
    前記撮像部で取得した画像から、前記パターン光が投光された領域の周囲に特徴点検出領域を設定し、当該特徴点検出領域内で前記路面上の複数の特徴点を検出する特徴点検出部と、
    前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
    前記路面に対する車両の初期位置及び姿勢角に前記姿勢変化量を加算してゆくことによって前記車両の現在位置及び姿勢角を算出する自己位置算出部
    とを備えることを特徴とする自己位置算出装置。
  2. 前記パターン光は、複数のスポット光からなり、
    前記特徴点検出部は、前記スポット光が投光された領域のそれぞれの周囲に特徴点検出領域を設定することを特徴とする請求項1に記載の自己位置算出装置。
  3. 前記特徴点検出部が、前記パターン光が投光された領域に対して車幅方向に前記特徴点検出領域を設定することを特徴とする請求項1または2に記載の自己位置算出装置。
  4. 前記特徴点検出部が、前記車両の横方向速度に応じて、前記特徴点検出領域を車幅方向に広げることを特徴とする請求項1〜3のいずれか1項に記載の自己位置算出装置。
  5. 前記特徴点検出部が、車速に応じて、前記特徴点検出領域を車両前後方向に広げることを特徴とする請求項1〜4のいずれか1項に記載の自己位置算出装置。
  6. 車両に搭載された投光器から車両周囲の路面にパターン光を投光する手順と、
    前記車両に搭載された撮像部によって、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する手順と、
    前記車両の制御部が、前記取得した画像における前記パターン光の位置から前記路面に対する車両の姿勢角を算出する手順と、
    前記制御部が、前記取得した画像から、前記パターン光が投光された領域の周囲に特徴点検出部を設定し、当該特徴点検出部内で前記路面上の複数の特徴点を検出する手順と、
    前記制御部が、前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する手順と、
    前記制御部が、前記路面に対する車両の初期位置及び姿勢角に前記姿勢変化量を加算してゆくことによって前記車両の現在位置及び姿勢角を算出する手順
    とを含むことを特徴とする自己位置算出方法。
JP2016503899A 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法 Active JP6187671B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/054316 WO2015125300A1 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法

Publications (2)

Publication Number Publication Date
JPWO2015125300A1 JPWO2015125300A1 (ja) 2017-03-30
JP6187671B2 true JP6187671B2 (ja) 2017-08-30

Family

ID=53877833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016503899A Active JP6187671B2 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法

Country Status (8)

Country Link
US (1) US9772627B2 (ja)
EP (1) EP3113149B1 (ja)
JP (1) JP6187671B2 (ja)
CN (1) CN105993042B (ja)
BR (1) BR112016019494B1 (ja)
MX (1) MX354763B (ja)
RU (1) RU2627914C1 (ja)
WO (1) WO2015125300A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016183889A (ja) * 2015-03-26 2016-10-20 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP2016205928A (ja) * 2015-04-20 2016-12-08 日産自動車株式会社 自己位置算出装置及び自己位置算出方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106030681B (zh) * 2014-02-24 2017-09-05 日产自动车株式会社 自身位置计算装置以及自身位置计算方法
KR102019990B1 (ko) * 2018-01-12 2019-09-10 숭실대학교산학협력단 움직임에 따른 흐림 현상의 보정을 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치
GB2574375B (en) * 2018-05-23 2023-02-01 The Corp Of Trinity House Of Deptford A positioning system and method
US11620832B2 (en) * 2019-06-22 2023-04-04 Hendrik J. Volkerink Image based locationing
JP7215448B2 (ja) * 2020-02-28 2023-01-31 株式会社デンソー 検出器の姿勢・位置検出装置
JP7167097B2 (ja) * 2020-07-02 2022-11-08 三菱ロジスネクスト株式会社 位置推定装置、車両、位置推定方法およびプログラム
WO2022076483A1 (en) 2020-10-05 2022-04-14 Trackonomy Systems, Inc. System and method of utilizing 3d vision for asset management and tracking
CN113420732B (zh) * 2021-08-23 2022-02-01 深圳市城市交通规划设计研究中心股份有限公司 一种路面病害检测方法、装置和存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325298A (ja) 1993-05-13 1994-11-25 Yazaki Corp 車両周辺監視装置
RU2247921C2 (ru) * 2002-06-26 2005-03-10 Анцыгин Александр Витальевич Способ ориентирования на местности и устройство для его осуществления
JP2004198211A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2004198212A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP5151050B2 (ja) * 2006-03-23 2013-02-27 日産自動車株式会社 車両用環境認識装置及び車両用環境認識方法
JP4780614B2 (ja) * 2006-04-10 2011-09-28 アルパイン株式会社 車体挙動測定装置
JP4914726B2 (ja) * 2007-01-19 2012-04-11 クラリオン株式会社 現在位置算出装置、現在位置算出方法
JP5251419B2 (ja) * 2008-10-22 2013-07-31 日産自動車株式会社 距離計測装置および距離計測方法
US9046364B2 (en) 2011-06-14 2015-06-02 Nissan Motor Co., Ltd. Distance measurement device and environment map generation apparatus
JP2013147114A (ja) 2012-01-18 2013-08-01 Toyota Motor Corp 周辺環境取得装置およびサスペンション制御装置
JP5992184B2 (ja) * 2012-03-09 2016-09-14 株式会社トプコン 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
KR101731719B1 (ko) * 2015-09-02 2017-05-11 엘지전자 주식회사 정차 이동모드 제공방법, 이를 제공하는 차량 보조장치 및 이를 포함하는 차량

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016183889A (ja) * 2015-03-26 2016-10-20 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP2016205928A (ja) * 2015-04-20 2016-12-08 日産自動車株式会社 自己位置算出装置及び自己位置算出方法

Also Published As

Publication number Publication date
US9772627B2 (en) 2017-09-26
MX354763B (es) 2018-03-21
JPWO2015125300A1 (ja) 2017-03-30
CN105993042A (zh) 2016-10-05
EP3113149A4 (en) 2017-03-15
RU2627914C1 (ru) 2017-08-14
US20170045889A1 (en) 2017-02-16
BR112016019494A2 (ja) 2017-08-15
MX2016010500A (es) 2016-11-07
BR112016019494B1 (pt) 2022-01-04
EP3113149A1 (en) 2017-01-04
CN105993042B (zh) 2017-10-20
WO2015125300A1 (ja) 2015-08-27
EP3113149B1 (en) 2018-10-10

Similar Documents

Publication Publication Date Title
JP6187671B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237876B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6187672B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6176387B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237875B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237874B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6547362B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398218B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398217B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6492974B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6299319B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6369897B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6459745B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398219B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6369898B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6459701B2 (ja) 自己位置算出装置及び自己位置算出方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R151 Written notification of patent or utility model registration

Ref document number: 6187671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151