JP2018139084A - 装置、移動体装置及び方法 - Google Patents

装置、移動体装置及び方法 Download PDF

Info

Publication number
JP2018139084A
JP2018139084A JP2017034016A JP2017034016A JP2018139084A JP 2018139084 A JP2018139084 A JP 2018139084A JP 2017034016 A JP2017034016 A JP 2017034016A JP 2017034016 A JP2017034016 A JP 2017034016A JP 2018139084 A JP2018139084 A JP 2018139084A
Authority
JP
Japan
Prior art keywords
acquisition
dimensional information
region
information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017034016A
Other languages
English (en)
Other versions
JP6880822B2 (ja
Inventor
康宏 梶原
Yasuhiro Kajiwara
康宏 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017034016A priority Critical patent/JP6880822B2/ja
Publication of JP2018139084A publication Critical patent/JP2018139084A/ja
Application granted granted Critical
Publication of JP6880822B2 publication Critical patent/JP6880822B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 環境地図の生成や移動体に関する情報の計測を安定して精度良く行うことができる装置を提供する。【解決手段】 地図生成・位置計測装置100は、車両(移動体)に搭載される装置であって、車両の周囲の3次元情報を取得するステレオカメラ200(第1の取得手段)と、車両の周囲の3次元情報を取得する単眼カメラ300(第2の取得手段)と、ステレオカメラ200で取得された3次元情報に基づいて、単眼カメラ300が3次元情報を取得する領域である取得領域を制御するカメラ姿勢制御部300b(制御手段)と、単眼カメラ300で取得された、取得領域の3次元情報に基づいて、車両の周囲の環境地図の生成及び車両に関する情報の計測を行う位置計測部520(手段)と、を備える装置である。【選択図】図3

Description

本発明は、装置、移動体装置及び方法に関する。
従来、移動体の周囲の3次元情報を取得し、移動体の周囲の環境地図の生成や、移動体の位置、姿勢、速度等の移動体に関する情報の計測を行う装置が知られている(例えば特許文献1参照)。
しかしながら、特許文献1に開示されている装置では、移動体の周囲の環境地図の生成や移動体に関する情報の計測を安定して精度良く行うことに関して改善の余地があった。
本発明は、移動体に搭載される装置であって、前記移動体の周囲の3次元情報を取得する第1の取得手段と、前記第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、前記第1の取得手段で取得された、前記第1の取得領域の3次元情報に基づいて、前記第2の取得手段が前記第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、前記第1の取得手段で取得された、前記第1の取得領域の3次元情報と、前記第2の取得手段で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う手段と、を備える装置である。
本発明によれば、移動体の周囲の環境地図の生成や移動体に関する情報の計測を安定して精度良く行うことができる。
図1(a)及び図1(b)は、それぞれ本発明の一実施形態の移動体装置の外観を概略的に示す図である。 図1のステレオカメラの撮影範囲と初期姿勢にある単眼カメラの撮影範囲を示す図である。 図1の地図生成・位置計測装置の構成例を示すブロック図である。 地図生成・位置計測処理について説明するためのフローチャートである。 特徴点抽出処理1について説明するためのフローチャートである。 特徴点抽出処理2について説明するためのフローチャートである。 特徴点対応付け処理について説明するためのフローチャートである。 基準カメラの座標系から単眼カメラの座標系への座標変換について説明するための図である。 地図生成・位置計測装置により立体物が検出された領域を示す図である。 地図生成・位置計測装置により抽出された特徴点を示す図である。 地図生成・位置計測装置により抽出された特徴点を立体物特徴点と非立体物特徴点に区別して示す図である。 特徴点分類処理を説明するためのフローチャートである。 位置推定処理について説明するためのフローチャートである。 環境地図生成処理について説明するためのフローチャートである。 カメラ姿勢制御処理について説明するためのフローチャートである。 カメラ姿勢制御処理後の単眼カメラの撮影範囲を示す図である。 図17(a)及び図17(b)は、それぞれ変形例1の移動体装置の外観を概略的に示す図である。 変形例1のライダの投光範囲と初期姿勢にある単眼カメラの撮影範囲を示す図である。 変形例1のライダの投光範囲と姿勢変更後の単眼カメラの撮影範囲を示す図である。 変形例1のライダ(走査型)の投光系及び受光系の構成を説明するための図である。 変形例1のライダ(非走査型)の投光系及び受光系の構成と、光源又は受光素子と検出領域の関係を説明するための図である。 変形例2のライダの投光範囲(初期状態)と単眼カメラの撮影範囲を示す図である。 変形例2のライダの投光範囲(変更後)と単眼カメラの撮影範囲を示す図である。 変形例3のライダの投光範囲(初期状態)とステレオカメラの撮影範囲を示す図である。 変形例3のライダの投光範囲(変更後)とステレオカメラの撮影範囲を示す図である。 ステレオカメラとライダが一体的に構成される例について説明するための図である。
以下、本発明の一実施形態について図面を参照して説明する。図1(a)には、一実施形態の移動体装置1の側面図が模式的に示されている。図1(b)には、移動体装置1の正面図が概略的に示されている。
《装置構成》
移動体装置1は、図1に示されるように、移動体としての車両10と、該車両10に搭載される、本発明の装置の一例としての地図生成・位置計測装置100とを備えている。車両10は、自動車である。
地図生成・位置計測装置100は、自己位置すなわち車両10の位置を計測するとともに車両10周辺の環境地図を生成する装置であり、ステレオカメラ200及び単眼カメラ300を含んで構成される。
ステレオカメラ200及び単眼カメラ300は、車両10のバックミラー近傍に設けられている。
詳述すると、ステレオカメラ200及び単眼カメラ300は、上下に離間するように同一の支持部材を介して車両10の天井に吊り下げ支持されている。
ステレオカメラ200は、左側撮像部である撮像部200aと、右側撮像部である撮像部200bと、視差画像生成部200c(図3参照)とを有する。撮像部200a、200bは、イメージセンサ(CMOSやCCD)を含む。
ステレオカメラ200は、図2に示されるように、撮影範囲(左眼画角(撮像部200aの画角)と右眼画角(撮像部200bの画角)を併せた範囲)が車両10前方となるように上記支持部材に固定されている。
視差画像生成部200cは、撮像部200a、200bで撮影した画像(輝度画像)に対して平行ステレオ法を用いて視差画像を生成する。
単眼カメラ300は、姿勢変更可能に設けられた撮像部300aと、該撮像部300aの姿勢を制御するカメラ姿勢制御部300b(図3参照)と、撮像部300aの姿勢を計測するカメラ姿勢計測部300c(図3参照)とを有する。なお、図2において、撮像部300aは、撮影範囲がステレオカメラ200の撮影範囲と略一致する初期姿勢にある。ここでは、撮像部300aは、ステレオカメラ200の撮影範囲に対して画角が同程度のものが用いられているが、画角が大きいものや小さいものを用いても良い。
撮像部300aは、ステレオカメラ200の撮影範囲を含む所定範囲内で撮影範囲が変更可能となるようにパン方向(垂直軸周り)及びチルト方向(水平軸周り)に回転可能に(姿勢変更可能に)保持する保持機構を介して上記支持部材に取り付けられている。撮像部300aは、イメージセンサ(CMOSやCCD)を含む。
カメラ姿勢制御部300bは、上記保持機構を駆動して撮像部300aをパン方向及び/又はチルト方向に回転させる駆動部を有し、後述する記憶部530に格納されたカメラ姿勢情報530bを基に撮像部300aの姿勢制御を行う。上記駆動部は、パン方向回転用のステッピングモータ及びチルト方向回転用のステッピングモータを含む。
カメラ姿勢計測部300cは、各ステッピングモータのステップ数(各ステッピングモータに印加される駆動パルスのパルス数)をカウントするカウンタを有し、撮像部300aのパン方向及びチルト方向の回転角(回転位置)すなわち撮像部300aの姿勢を計測する。
なお、上記駆動部にステッピングモータに代えて、サーボモータを用いても良い。この場合、カメラ姿勢計測部は、サーボモータのエンコーダから、撮像部300aのパン方向及びチルト方向の回転角(回転位置)を得ることができる。
また、ステレオカメラ200と単眼カメラ300の位置関係は、図1の位置関係に限らず、要は、ステレオカメラ200の撮影範囲を含む所定範囲内で単眼カメラ300の撮影範囲が変更可能となる位置関係であれば良い。
地図生成・位置計測装置100は、ステレオカメラ200及び単眼カメラ300に加えて、制御装置500を備えている。制御装置500は、例えばCPUやFPGAによって実現される。
制御装置500は、ステレオカメラ200から出力された輝度画像及び視差画像と、単眼カメラ300から出力された輝度画像とから画像中の特徴点を抽出する画像処理部510と、該画像処理部510が抽出した特徴点を基に車両10の位置を計測するとともに車両10周辺の環境地図を生成する位置計測部520と、該位置計測部520が計測した車両10の位置情報、画像処理部510が抽出した特徴点の3次元情報等を記憶する記憶部530と、ステレオカメラ200の撮像部200a、200b及び単眼カメラ300の撮像部300aを制御する撮像制御部540とを含む。
画像処理部510は、画像中にある立体物を検出する立体物検出部510aと、画像中にある特徴点を抽出する特徴点抽出部510bと、同一のカメラで異なる時刻に撮影した画像間で同じ特徴点を探索する特徴点追跡部510cと、異なるカメラで同一時刻に撮影された画像間で同じ特徴点を探索する特徴点マッチング部510dとを含む。
立体物検出部510aでは、例えば特開2015‐207281号公報に開示されている立体物抽出方法を用いることができる。
特徴点抽出部510bでは、SHIFT法やFAST法などの公知の技術を用いることができる。
特徴点追跡部510cでは、SHIFT法などの特徴量記述を用いた手法や、ブロックマッチングのような画像テンプレートベースの手法を用いることができる。
特徴点マッチング部510dは、単眼カメラ300で撮影した画像において、ステレオカメラ200で抽出された特徴点を探索する。
位置計測部520は、画像処理部510から得られる特徴点情報及び立体物情報を基に特徴点を分類する特徴点分類部520aと、車両10の位置を推定し、その推定結果を車両制御装置700に出力する位置推定部520bと、環境地図生成部520cとを含む。位置計測部520は、GNSS(衛星測位システム)600から自車両周辺の環境地図のベースとなる基準データを受信し、該基準データを基に自車両周辺の環境地図をリアルタイムに生成するとともに自車両の位置情報を取得し、生成した環境地図のデータと取得した自車両の位置情報を車両制御装置700に出力する。
車両制御装置700は、受信した環境地図のデータと自車両の位置情報に基づいて自車両の制御(例えばオートブレーキ、オートステアリング、オートアクセル等)や、運転者への注意喚起(例えば警告音の発生、カーナビの画面上における警告表示等)を行う。
記憶部530には、特徴点がどのカメラでどの時刻に画像上のどの位置に撮影されたかを示す情報が含まれる特徴点観測情報530aと、各時刻での単眼カメラ300の姿勢情報であるカメラ姿勢情報530bと、特徴点のある基準の座標系での3次元位置の情報を含む特徴点3次元情報530cと、位置計測部520で計測された車両の位置情報と、GNSS600から位置計測部520に送信された上記基準データとが格納される。
《地図生成・位置計測処理》
以下、地図生成・位置計測装置100で実施される地図生成・位置計測処理の概要について、図4のフローチャートを参照して説明する。地図生成・位置計測処理は、位置計測部520が車両制御装置700から処理開始要求を受信したときに開始される。車両制御装置700は、例えば地図生成・位置計測装置100が搭載された車両10の電気系統がONになったときに位置計測部520に処理開始要求を送信する。
最初のステップS1では、特徴点抽出処理1を実施する。特徴点抽出処理1の詳細については後述する。
次のステップS2では、特徴点抽出処理2を実施する。特徴点抽出処理2の詳細については後述する。なお、図4では特徴点抽出処理2が特徴点抽出処理1の後となっているが、実際には特徴点抽出処理1、2は同時に開始され、一部の処理が並行して行われる。従って、図4において、特徴点抽出処理1、2の順序は逆でも良い。
次のステップS3では、特徴点対応付け処理を実施する。特徴点対応付け処理の詳細については後述する。
次のステップS4では、特徴点追跡処理を実施する。特徴点追跡処理は、特徴点追跡部510cにより、SHIFT法などの特徴量記述を用いた手法や、ブロックマッチングのような画像テンプレートベースの手法で行われる。
次のステップS5では、特徴点分類処理を実施する。特徴点分類処理の詳細については後述する。
次のステップS6では、位置推定処理を実施する。位置推定処理の詳細については後述する。
次のステップS7では、環境地図生成処理を実施する。環境地図生成処理の詳細については後述する。
次のステップS8では、カメラ姿勢制御処理を実施する。カメラ姿勢制御処理の詳細については後述する。
ステップS9では、処理を終了するか否かを判断する。ここでの判断は、位置計測部520が車両制御装置700から処理終了要求を受信しているときに肯定され、受信していないときに否定される。車両制御装置700は、例えば、地図生成・位置計測装置100が搭載された車両10の電気系統がOFFになったときに位置計測部520に処理終了要求を送る。ステップS9での判断が肯定されるとフローは終了し、否定されるとステップS1に戻る。
《特徴点抽出処理1》
次に、特徴点抽出処理1(図4のステップS1)について、図5のフローチャートを参照して詳細に説明する。
最初のステップS1.1では、ステレオカメラ200で撮影を行う。具体的には、ステレオカメラ200の撮像部200a、200bが自車両前方を撮影し、撮像部200a、200bの撮影画像(輝度画像)のデータを視差画像生成部200cに送信するとともに撮像部200bの撮影画像(輝度画像)を特徴点抽出部510bに送信する。ステレオカメラ200は、撮像制御部540から撮影開始信号を受信したときに撮影を開始する。撮像制御部540は、撮影開始信号をステレオカメラ200と単眼カメラ300に同期して送信する。
次のステップS1.2では、視差画像を生成する。具体的には、視差画像生成部200cが、受信した2つの輝度画像のデータを基に平行化のためのリマップ処理などを行って視差画像を生成し、該視差画像のデータを立体物検出部510aに送信する。
次のステップS1.3では、立体物を検出する。具体的には、立体物検出部510aが、受信した視差画像のデータから、上述した立体物抽出方法を用いて立体物を検出し、その検出結果を特徴点分類部520aに送信する。
最後のステップS1.4では、画像中の特徴点を抽出する。具体的には、特徴点抽出部510bが、受信した撮像部200bの輝度画像のデータ(3次元情報)から、立体物及び非立体物の特徴点を抽出する。
《特徴点抽出処理2》
次に、特徴点抽出処理2(図4のステップS2)について、図6のフローチャートを参照して詳細に説明する。
最初のステップS2.1では、第k姿勢(k≧1)にある単眼カメラ300で撮影を行う。具体的には、単眼カメラ300の撮像部300aで自車両前方を撮影し、得られた輝度画像のデータ(3次元情報)を特徴点抽出部510bに送信する。なお、単眼カメラ300は、撮像制御部540から撮影開始信号を受信したときに撮影を開始する。すなわち、ステップS2.1は、ステレオカメラ200での撮影(上記ステップS1.1)と同時に開始される。
ここで、「第k姿勢」は、単眼カメラ300の既知の複数種類(K種類)の姿勢のうち任意の一の姿勢であって、図4の地図生成・位置計測処理のk番目のループにおける姿勢を意味する。地図生成・位置計測処理の1番目(最初)のループにおいて特徴点抽出処理2が実施されるときの単眼カメラ300の姿勢は、初期姿勢である。
次のステップS2.2では、単眼カメラ300の姿勢を計測する。具体的には、カメラ姿勢計測部300cが各ステッピングモータのステップ数をカウントして、単眼カメラ300の現在の姿勢がK種類の姿勢のうちいずれの姿勢であるかを判別する。この際、カウントしたステップ数を、カメラ姿勢情報530bとして記憶部530に格納する。なお、図4の地図生成・位置計測処理の最初のループにおいて特徴点抽出処理2が実施されるときの各ステッピングモータのステップ数は0であり、単眼カメラ300の姿勢は初期姿勢である。
最後のステップS2.3では、画像中の特徴点を抽出する。具体的には、特徴点抽出部510bが、受信した単眼カメラ300の撮影画像(輝度画像)のデータ(3次元情報)から、立体物及び非立体物の特徴点を抽出する。
《特徴点対応付け処理》
次に、特徴点対応付け処理(図4のステップS3)について、図7のフローチャートを参照して詳細に説明する。特徴点対応付け処理は、特徴点マッチング部510dにより実施される。
特徴点対応付け処理は、ステレオカメラ200の輝度画像から抽出された特徴点を単眼カメラ300の座標系上で探索する処理である。すなわち、特徴点対応付け処理は、ステレオカメラ200で得られた特徴点について、単眼カメラ300の座標系上でどこにあるかを、ステレオカメラ200の輝度画像での観測座標と、その視差値から求める処理である。
最初のステップS3.1では、nに1をセットする。
次のステップS3.2では、ステレオカメラ200の輝度画像(より詳細には撮像部200bの輝度画像)から抽出された第n特徴点の初期位置を算出する。その算出方法については、後述する。
次のステップS3.3では、抽出された第n特徴点の初期位置近傍のiピクセルの画素ブロック内に単眼カメラ300の輝度画像から抽出された特徴点があるか否かを判断する。ここでの判断が肯定されるとステップS3.4に移行し、否定されるとステップS3.7に移行する。このように第n特徴点の初期位置周辺にある特徴点に対してマッチングを行うことで、類似パターンが続くような環境でロバストに特徴点のマッチングを行うことができる。
次のステップS3.4では、コスト値を算出する。ここで「コスト値」とは、ステレオカメラ200の輝度画像から抽出された特徴点に対する、単眼カメラ300の輝度画像から抽出された特徴点の一致度を表す評価値である。
次のステップS3.5では、コスト値が閾値以下であるか否かを判断する。ここでの判断が肯定されるとステップS3.6に移行し、否定されるとステップS3.7に移行する。
次のステップS3.6では、単眼カメラ300の輝度画像上における第n特徴点の位置情報(以下では「単眼カメラ300の観測情報」とも呼ぶ)を特徴点観測情報530aに追加する。すなわち、第n特徴点の初期位置近傍のiピクセルの画素ブロック内にある特徴点のコスト値が閾値以下であれば単眼カメラ300の観測情報を特徴点観測情報530aとして記憶部530に追加する。第n特徴点の初期位置近傍のiピクセルの画素ブロック内に特徴点が存在しない場合、又は閾値以下のコスト値を持つ特徴点が存在しない場合は、特徴点観測情報530aに単眼カメラ300の観測情報を追加しない。
次のステップS3.7では、n<Nであるか否かを判断する。Nは、ステレオカメラ200の輝度画像から抽出された特徴点の総数である。ここでの判断が肯定されるとステップS3.8に移行し、否定されるとフローは終了する。
ステップS3.8では、nをインクリメントする。ステップS3.8が実行されると、ステップS3.2に戻る。
次に、上記ステップS3.2における第n特徴点の初期位置の算出方法について図8を参照して説明する。
ここで、ステレオカメラ200の左右2つの撮像部200a、200bのうち右側の撮像部200bを基準カメラとする。基準カメラで撮影された特徴点の基準カメラ座標系(基準カメラの座標系)での3次元座標P(Xi,Yi,Zi)は、該特徴点の基準カメラのセンサ座標系(イメージセンサの座標系)での2次元座標p(xi,yi)と、その視差値diを用いて次の(1)式で表す事ができる。
Figure 2018139084
但し、bはステレオカメラ200の基線長、fsはステレオカメラ200の焦点距離を示す値、cxs,cysはステレオカメラ200の中心を示す値である。これらの値は事前に校正されており、このシステムが動作する時点では既知のものとする。
基準カメラ座標系での座標P(Xi,Yi,Zi)の、単眼カメラ300の座標系での座標(Xip,
Yip,Zip)への変換は、次の(2)式で行うことができる(図8参照)。
Figure 2018139084
pRrは、基準カメラ座標系から単眼カメラ300の座標系へ座標変換を行う回転成分である。pRrは、カメラ姿勢計測部300cによって計測することが可能である。
pTrは、基準カメラ座標系から単眼カメラ300の座標系へ座標変換を行う平行移動成分である。基準カメラ座標における単眼カメラ300の位置が既知であれば、pTr=pRr-1pTとして求めることが可能である。
ステレオカメラ200で観測された特徴点の、単眼カメラ300で撮影された画像上で観測される位置を次の(3)式によって求めることができる。
Figure 2018139084
但し、fpは単眼カメラ300の焦点距離を示す値、cxp,cypは単眼カメラ300のセンサ座標系(イメージセンサの座標系)の中心を示す値である。これらの値は事前に校正されており、このシステムが動作する時点では既知のものとする。
《立体物の検出》
次に、上記ステップS1.3における立体物の検出について具体的に説明する。
図9において、矩形破線で囲まれた領域が画像の中で立体物が検出された領域(以下では「立体物検出領域」とも呼ぶ)である。
例えば特開2015‐207281号公報などの既知の方法を利用することで、画像の中で人や車などの路面上にある立体物を検出することが可能である。図9における矩形破線のように、例えば凸型の4角形によって立体物検出領域を定義することができる。立体物検出領域の情報としては、例えば矩形破線の4つの頂点の画像上の座標を出力する。
図10において、白丸は画像中から抽出された特徴点を示す。また、立体物検出領域は矩形破線で示されている。そこで、上記ステップS5の特徴点分類処理によって、図11に示されるように、特徴点の座標と立体物検出領域の情報から、特徴点を立体物特徴点(立体物の特徴点)と非立体物特徴点(立体物以外の特徴点)に分類することができる。
《特徴点分類処理》
次に、特徴点分類処理(図4のステップS5)について、図12のフローチャートを参照して詳細に説明する。特徴点分類処理は、特徴点分類部520aにより実施される。
最初のステップS5.1では、nに1をセットする。
次のステップS5.2では、ステレオカメラ200の輝度画像(より詳細には撮像部200bの輝度画像)から抽出された第n特徴点が立体物検出領域内にあるか否かを判断する。具体的には、矩形の立体物検出領域の内部に特徴点が存在するか否かを計算する。このために、立体物検出領域を2つの三角形に分離し、特徴点が2つの三角形のいずれに含まれているかを判定する。ある点がある三角形の内部にあるか外部にあるかを判定する処理は、一般的に三角形の内外判定処理と呼ばれ、外積を用いた手法が知られており、それを用いればよい。ステップS5.2での判断が肯定されるとステップS5.3に移行し、否定されるとステップS5.4に移行する。
ステップS5.3では、第n特徴点を立体物特徴点として記憶部530の特徴点3次元情報530cに登録する。
ステップS5.4では、第n特徴点を非立体物特徴点として記憶部530の特徴点3次元情報530cに登録する。
ステップS5.5では、n<Nであるか否かを判断する。Nは、ステレオカメラ200の輝度画像から抽出された特徴点の総数である。ここでの判断が肯定されるとステップS5.6に移行し、否定されるとフローは終了する。
ステップS5.6では、nをインクリメントする。ステップS5.6が実行されると、ステップS5.2に戻る。
《位置推定処理》
次に、位置推定処理(図4のステップS6)について図13を参照して説明する。位置推定処理は、位置推定部520bにより実施される。
最初のステップS6.1では、RANSACによるインライア選別を行う。すなわち、RANSAC法により、非立体物特徴点の中から静止特徴点を抽出する。特徴点の中にはステレオカメラ200での視差計算での誤マッチングや、特徴点追跡部510cでの誤マッチングなどが起こりうるため、誤マッチングの影響を低減するためにRANSAC法を用いる。
ここで、カメラの位置姿勢(R,t)をパラメータとするコスト関数は、ある特徴点に対して次の(4)式で求めることができる。
Figure 2018139084
ここで、exi r及びeyi rは、それぞれ基準カメラ(右側の撮像部200b)でのx方向及びy方向の再投影誤差である。exi lは、左カメラ(左側の撮像部200a)でのx方向の再投影誤差である。exi p及びeyi pは単眼カメラ300でのx座標とy座標の再投影誤差である。Wi rは、基準カメラでの重みであり、基準カメラで追跡成功した特徴点には1が、それ以外には0がセットされる。Wi pは、単眼カメラ300での重みであり、単眼カメラ300で検出された特徴点には1がセットされ、それ以外には0がセットされる。
ここで、基準カメラ座標系での点の位置を[Xi r(R,t),Yi r(R,t),Zi r(R,t)]、地図座標系での点の位置を[Xi w,Yi w,Zi w]、単眼カメラ300の座標系での点の位置を[Xi p(R,t),Yi p(R,t),Zi p(R,t)]とすると、次の(5)式及び(6)式でそれぞれ変換することができる。
Figure 2018139084
次のステップS6.2では、インライアの特徴点で車両10の位置を推定する。具体的には、RANSAC法でインライアの特徴点が抽出された後、インライアの特徴点のみで車両10の位置の推定を行う。位置推定は上述した特徴点毎の再投影誤差のコストの最小化問題として定式化することができ、Levemberg-Marquart法などの非線形の最小化法を用いて最適な位置を推定することができる。
次のステップS6.3では、立体物特徴点から静止特徴点を抽出する。具体的には、ステップS6.2で推定された位置情報を用いて立体物特徴点について再投影誤差を算出し、閾値計算により静止特徴点か否かを判定する。これにより、静止していた車両が動き出した場合などの静止していた特徴点が運動を始めた場合の影響を抑えることができる。
次のステップS6.4では、静止特徴点で車両10の位置を推定する。具体的には、立体物特徴点のうち静止していると判定された特徴点について、再度位置推定のコスト関数(上記(4)式)に組み込み、非線形の最小化問題を解くことにより最適な位置を求める。
《環境地図生成処理》
次に、環境地図生成処理(図4のステップS7)について、図14を参照して説明する。環境地図生成処理は、GNSS600から送信される、環境地図のベースとなる基準データに対して、特徴点情報を追加することにより、精度の高い環境地図を生成する処理である。環境地図生成処理は、環境地図生成部520cによって実施される。
最初のステップS7.1では、nに1をセットする。
次のステップS7.2では、ステレオカメラ200の輝度画像(より詳細には撮像部200bの輝度画像)から抽出された第n特徴点が環境地図上(但しn=1のときは基準データ上)に存在するか否かを判断する。ここでの判断が否定されるとステップS7.3に移行し、肯定されるとステップS7.4に移行する。
ステップS7.3では、第n特徴点が非立体物特徴点であるか否かを判断する。ここでの判断が肯定されるとステップS7.5に移行し、否定されるとステップS7.8に移行する。
ステップS7.4では、第n特徴点がインライアとして判定されたか否かを判断する。ここでの判断が肯定されるとステップS7.6に移行し、否定されるとステップS7.7に移行する。
ステップS7.5では、環境地図(但しn=1のときは基準データ)に、第n特徴点の3次元情報(非立体物特徴点であること)を特徴点3次元情報530cとして追加するとともに第n特徴点の観測情報(単眼カメラ300の輝度画像上における第n特徴点の位置情報)を特徴点観測情報530aとして追加する。すなわち、第n特徴点が環境地図に無い場合、第n特徴点が非立体物特徴点であればステレオカメラ200から得られる視差値を用いて3次元再構成を行い、立体物特徴点であれば環境地図への追加は行わない。ステップS7.5が実行されると、ステップS7.8に移行する。
ステップS7.6では、環境地図(但しn=1のときは基準データ)に第n特徴点の観測情報(単眼カメラ300の輝度画像上における第n特徴点の位置情報)を特徴点観測情報530aとして追加する。ステップS7.6が実行されると、ステップS7.8に移行する。
ステップS7.7では、環境地図(但しn=1のときは基準データ)から第n特徴点を除外する。ステップS7.7が実行されると、ステップS7.8に移行する。
ステップS7.8では、バンドル調整を行う。すなわち、特徴点の情報が環境地図に追加された後、バンドル調整法を用いて全体の再投影誤差の最小化を行い車両10の位置情報と、特徴点の3次元情報を最適化する。
ステップS7.9では、n<Nであるか否かを判断する。Nは、ステレオカメラ200の輝度画像から抽出された特徴点の総数である。ここでの判断が肯定されるとステップS7.95に移行し、否定されるとフローは終了する。
ステップS7.95では、nをインクリメントする。ステップS7.95が実行されると、ステップS7.2に戻る。
《カメラ姿勢制御処理》
次に、図4のステップS8のカメラ姿勢制御処理について、図15のフローチャートを参照して説明する。カメラ姿勢制御処理は、カメラ姿勢制御部300bにより実施される。なお、単眼カメラ300がとり得る既知の姿勢が予め複数種類(K種類)用意されているものとする。単眼カメラ300の姿勢は、静止した特徴点がなるべく多く画角に入る姿勢であることが好ましい。画像中の特徴点の中で、非立体物特徴点は、通常、静止した特徴点であるため、単眼カメラ300の姿勢は、非立体物特徴点がなるべく多く画角に入る姿勢であることが望ましい。
最初のステップS8.1では、kに1をセットする。
次のステップS8.2では、第k姿勢にある単眼カメラ300で撮影可能な特徴点の数Naを算出する。Naは、座標変換とセンサ座標面への投影の式(上記(2)式や(3)式)を用いることにより算出することができる。
次のステップS8.3では、立体物特徴点のうち第k姿勢にある単眼カメラ300で撮影可能なものの数Nsを算出する。Nsは、座標変換とセンサ座標面への投影の式(上記(2)式や(3)式)を用いることにより算出することができる。
次のステップS8.4では、姿勢スコアSを算出する。ここでは、S=Na−Nsと定義する。
次のステップS8.5では、k<Kであるか否かを判断する。ここでの判断が肯定されるとステップS8.2に戻り、否定されるとステップS8.6に移行する。
ステップS8.6では、予め用意された単眼カメラ300のK種類の姿勢のうち姿勢スコアSが最大となる姿勢を目標姿勢として選択する。
ステップS8.7では、許容角速度を計算する。すなわち、単眼カメラ300の姿勢制御における最大角速度を算出する。この最大角速度は、単眼カメラ300の回転運動時にモーションブラーが発生しない単眼カメラ300の角速度の上限である。
単眼カメラ300のフレーム間の特徴点の動き[vx,vy]は、フレーム間の回転運動R=[r1,r2,r3]がわかっている場合、次の(7)式で算出することができる。
Figure 2018139084
但し、xは、単眼カメラ300から見た特徴点の位置[x,y,z]である。fx,fyは、単眼カメラ300の内部パラメータとしての、ピクセル単位で表される焦点距離である。
単眼カメラ300の場合、x軸回り(チルト方向)の回転とY軸回り(パン方向)の回転なので、X軸周りにθ回転させた場合の特徴点の動き[vx,vy]は、次の(8)式で表現される。
Figure 2018139084
但し、cはcosθ,sはsinθである。
同様にY軸周りにφ回転させた場合の特徴点の動き[vx,vy]は、次の(9)式で表現される。
Figure 2018139084
但し、cはcosφ,sはsinφである。
モーションブラーが発生しないようにするためには、[vx,vy]それぞれが1以下の値であれば良い。
[vx,vy]のいずれもが1以下であるθとφの範囲は、例えば0.1度刻みでcosとsinの値を変化させ[vx,vy]の値を算出することにより求めることができる。
次のステップS8.8では、単眼カメラ300の姿勢をステップS8.6で選択した姿勢に移行させる。具体的には、カメラ姿勢制御部300bが、PID(Proportional-Integral-Differential)法を用いて、許容角速度(最大角速度)を超えない範囲でX軸回りの回転とY軸回りの回転それぞれで目標姿勢に近づくように単眼カメラ300の姿勢制御を行う。このとき、カメラ姿勢制御部300bは、上記ステップS2.2で計測されカメラ姿勢情報530bとして記憶部530に格納された単眼カメラ300の姿勢情報(チルト方向、パン方向の回転角)から、選択した姿勢に移行させるための各ステッピングモータのステップ数を計算して単眼カメラ300の姿勢制御を行う。
図16には、姿勢制御後の単眼カメラ300の撮影範囲の一例が示されている。図16では、単眼カメラ300の撮影範囲(画角)から、立体物かつ移動物体である先行車両が外れているのが分かる。
以上のようにしてカメラ姿勢制御処理(ステップS8)が実施された後、地図生成・位置計測処理を継続する場合(ステップS9でNOの場合)には、カメラ姿勢制御処理後の最適な姿勢にある単眼カメラ300で次のループにおけるステップS2(特徴点抽出処理2)が実施される。このとき、単眼カメラ300の撮影範囲内であってステレオカメラ200の撮影範囲外の領域の3次元情報を特徴点抽出の対象から除外することが好ましい。この領域では、特徴点の性質(静止点か否かや立体物が否か)の判定が精度良く行えないからである。カメラ姿勢制御処理(ステップS8)により、次のループにおけるステップS2以後の処理(ステップS3〜S5)の負荷が軽減され、ステップS6(位置推定処理)で高精度な位置情報が得られ、ステップS7(環境地図生成処理)で高精度な環境地図を生成できる。
なお、上記実施形態の地図生成・位置計測装置100では、ステレオカメラ200と姿勢変更可能な単眼カメラ300の組み合わせが採用されているが、これに限られない。例えば、図17に示される変形例1の地図生成・位置計測装置100´のように、ライダ(Lidar:Light detecting and ranging)200と姿勢変更可能な単眼カメラ300の組み合わせを採用しても良い。図17(a)は、地図生成・位置計測装置100´が搭載された車両10を側面から見た模式図である。図17(b)は、車両10の正面図である。
ライダ400は、図17に示されるように、車両10の前側のナンバープレート近傍に投光範囲が車両10の前方を向くように取り付けられている。
ライダ400は、レーザ光を出射して反射光を検知することで測距を行う測距装置であり、レーザレーダとも呼ばれる。ライダ400の測定結果から、車両10の前方の3次元情報が得られる。
単眼カメラ300は、車両10のバックミラー近傍に姿勢変更可能(パン方向・チルト方向に回転可能)に取り付けられている。
地図生成・位置計測装置100´では、図18に示されるように、例えばライダ400の投光範囲と単眼カメラ300の画角を同等にし、上記実施形態と同様にして単眼カメラ300の姿勢制御(図19参照)、環境地図の生成、車両10の位置計測を行う。なお、ライダ400の測定結果である3次元情報における特徴点の抽出や、抽出された特徴点の分類も上記実施形態と同様にして行うことができる。立体物の検出は、ライダ400の測定結果を用いて行うことができる。
ライダ400の構成は、一例として図20に示されるように、半導体レーザ(LD)及びカップリングレンズを含む投光系と、反射ミラー、結像光学系及び光検出器を含む受光系とが走査ミラーを共用する走査型であっても良い。
また、ライダ400の構成は、一例として図21に示されるように、光源(例えば半導体レーザ)を含む投光系と、結像光学系及び受光素子を含む受光系とを含む非走査型であっても良い。この場合、光源の発光点及び受光素子の受光エリアの少なくとも一方を複数にすることで、検出領域を分割して検出することが可能となる。
また、図22に示される変形例2の地図生成・位置計測装置100´´のように、ライダ400と固定(非可動)の単眼カメラ300´の組み合わせを採用しても良い。この場合、立体物の検出は、ライダ400の測定結果を用いて行うことができる。
地図生成・位置計測装置100´´では、ライダ400を制御する、例えばFPGAやCPUによって実現される制御手段がライダ400の投光範囲を変更することにより、ライダ400が3次元情報を取得する領域を制御できる(図23参照)。投光範囲の変更は、ライダ400が走査型の場合は、走査位置毎に光源の点灯/消灯を制御することにより行うことができ、ライダ400が非走査型の場合は、光源における点灯させる発光点を選択することにより行うことができる。
また、図24に示される変形例3の地図生成・位置計測装置100´´´のように、ライダ400とステレオカメラ200の組み合わせを採用しても良い。この場合、立体物の検出は、ステレオカメラ200が生成する視差画像やライダ400の測定結果を用いて行うことができる。
地図生成・位置計測装置100´´´では、ライダ400を制御する、例えばFPGAやCPUによって実現される制御手段がライダ400の投光範囲を変更することにより、ライダ400が3次元情報を取得する領域を制御できる(図25参照)。
また、地図生成・位置計測装置の構成として、ステレオカメラ200とライダ400が一体的に設けられた構成(図26参照)や、可動又は非可動の単眼カメラとライダが一体的に設けられた構成を採用しても良い。このように一体的に設けられた2つの取得手段は、例えば車両のバックミラー近傍や、車両の前側のナンバープレート近傍に取り付けることが可能である。
以上の説明から分かるように、本発明の「装置」の一例である地図生成・位置計測装置においては、車両周辺の3次元情報を取得する取得手段の組み合わせとして、多様な組み合わせを採用することが可能である。無論、上記実施形態及び各変形例の組み合わせ以外の組み合わせも採用可能である。特に、立体物を精度良く検出する観点からは、組み合わされた2つの取得手段の少なくとも一方が距離情報を精度良く検出可能なもの(例えばステレオカメラ、ライダ等)であることが好ましい。なお、単眼カメラで時系列に撮影された複数フレームの画像から距離情報を取得することとしても良い。この場合、取得手段の組み合わせとして、2つの単眼カメラの組み合わせを採用することもできる。
以上説明した上記実施形態及び各変形例の地図生成・位置計測装置は、第1の観点からすると、移動体(例えば車両)に搭載される装置であって、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得手段と、該第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、第1の取得手段で取得された、第1の取得領域の3次元情報に基づいて、第2の取得手段が第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、第1の取得手段で取得された、第1の取得領域の3次元情報と、第2の取得手段で取得された、第2の取得領域の3次元情報とに基づいて、移動体の周囲の環境地図を生成する生成手段と、を備える装置である。
また、上記実施形態及び各変形例の地図生成・位置計測装置は、第2の観点からすると、移動体(例えば車両)に搭載される装置であって、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得手段と、該第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、第1の取得手段で取得された、第1の取得領域の3次元情報に基づいて、第2の取得手段が第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、第1の取得手段で取得された、第1の取得領域の3次元情報と、第2の取得手段で取得された、第2の取得領域の3次元情報とに基づいて、移動体の位置を推定する推定手段と、を備える装置である。なお、地図生成・位置計測装置は、移動体の位置に加えて又は代えて、移動体の姿勢(例えばロール角、ピッチ角、ヨー角)や移動体の速度を計測しても良い。移動体の位置に加えて、移動体の姿勢及び速度を計測することにより、車両制御を更に精度良く行うことができる。本明細書中、移動体の位置、姿勢及び速度等の移動体に関する情報を「移動体情報」とも呼ぶ。
なお、上記実施形態及び各変形例では、環境地図の生成及び移動体情報の計測の双方を行う地図生成・位置計測装置を例にとって説明したが、本発明の「装置」は、環境地図の生成のみを行う装置であっても良いし、移動体情報の計測のみを行う装置であっても良い。
総括すると、本発明の装置は、移動体に搭載される装置であって、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得手段と、第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、第1の取得手段で取得された、第1の取得領域の3次元情報に基づいて、第2の取得手段が第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、第1の取得手段で取得された、第1の取得領域の3次元情報と、第2の取得手段で取得された、第2の取得領域の3次元情報とに基づいて、移動体の周囲の環境地図の生成及び移動体に関する情報の計測の少なくとも一方を行う手段と、を備える装置である。
上記実施形態及び各変形例の地図生成・位置計測装置によれば、第2の取得手段が3次元情報を取得する領域である第2の取得領域を、例えば第1の取得領域のうち静止点が相対的に多い領域に設定することができる。
この結果、移動体の周囲の環境地図の生成や移動体に関する情報(移動体情報)の計測を安定して精度良く行うことができる。
また、制御手段は、第1の取得領域の3次元情報における特徴点を立体物の特徴点と非立体物の特徴点に分類し、その分類結果に基づいて取得領域を制御することが好ましい。
また、制御手段は、非立体物の特徴点を相対的に多く含む領域を第2の取得領域としても良い。非立体物は、立体物に比べて移動物体である可能性が極めて低く、環境地図の生成や移動体情報の計測に用いるのに適しているからである。
また、制御手段は、非立体物の特徴点を相対的に多く含む領域を一の第2の取得領域とし、立体物の特徴点の中で再投影誤差が少ない特徴点を相対的に多く含む領域を他の第2の取得領域とし、一及び他の第2の取得領域の3次元情報を互いに異なるタイミングで第2の取得手段に取得させても良い。
この場合、非立体物の特徴点に加えて、立体物の特徴点のうち移動物体である可能性が低い特徴点(再投影誤差が少ない特徴点)を第2の取得領域に含ませることができ、環境地図の生成や移動体情報の計測に用いる特徴点の数が増え、環境地図の生成や移動体情報の計測を更に精度良く行うことができる。
また、制御手段は、第1の取得領域の3次元情報から、基準面(例えば車両が走行する路面や歩道の路面)からの高さが3.0m以下の高さの物体のみを立体物として抽出して上記分類を行うことが好ましい。なお、立体物として抽出する物体の高さの上限は、3.0mに限らず、例えば2.5m、2.0m、1.5m等としても良い。
この場合、歩行者や前方車両などの移動物体の特徴点を排除しつつ、比較的高さのある建物や設置物などの特徴点を非立体物の特徴点と同様に静止物体の特徴点として扱うことができ、環境地図の生成や移動体情報の計測に用いる特徴点の数が増え、環境地図の生成や移動体情報の計測を更に精度良く行うことができる。
また、第2の取得手段は姿勢変更可能な撮像装置(例えば単眼カメラ)であり、制御手段が撮像装置の姿勢を制御しても良い。
また、制御手段は、撮像装置の既知の複数の姿勢のうち、第2の取得領域の3次元情報における特徴点の数から、該特徴点のうち立体物の特徴点の数を差し引いた数が最も多い姿勢を目標姿勢として撮像装置の姿勢を制御することが好ましい。
この場合、撮像装置の撮影範囲(画角)に非立体物の特徴点が多く入るため、環境地図の生成や移動体情報の計測を更に精度良く行うことができる。
また、制御手段は、第2の取得領域の3次元情報における特徴点の位置と撮像装置の内部パラメータとから算出される移動予測値が1以下となる角速度で撮像装置の姿勢を制御することが好ましい。
この場合、モーションブラーが発生しにくくなり、第1及び第2の取得手段でそれぞれ取得された3次元情報における特徴点の対応付けが容易になる。
また、第2の取得手段はライダであり、制御手段がライダの投光範囲を制御しても良い。この場合、第2の取得領域を制御するために、光源の発光タイミングや発光点の数を制御すれば良いので、撮像装置の姿勢を変更する場合に用いる機構(例えばヒンジ等)や駆動部(例えばモータ)を設ける必要がない。
また、上記実施形態又は各変形例の地図生成・位置計測装置と、該地図生成・位置計測装置が搭載される移動体(例えば車両)と、を備える移動体装置によれば、移動体の制御を安定して高精度に行うことができる。
また、上記実施形態及び各変形例の地図生成・位置計測方法は、移動体(例えば車両)の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得工程と、第1の取得工程で3次元情報が取得される領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得工程と、第1の取得工程で取得された、第1の取得領域の3次元情報に基づいて、第2の取得工程で第1の取得領域において3次元情報が取得される領域である第2の取得領域を制御する工程と、第1の取得工程で取得された、第1の取得領域の3次元情報と、第2の取得工程で取得された、第2の取得領域の3次元情報とに基づいて、移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測を行う工程と、を含む方法である。
上記実施形態及び各変形例の地図生成・位置計測方法によれば、第2の取得工程で3次元情報が取得される領域である第2の取得領域を、例えば第1の取得領域のうち静止点が相対的に多い領域に設定することができる。
この結果、環境地図の生成や移動体に関する情報(移動体情報)の計測を安定して精度良く行うことができる。
なお、上記実施形態及び各変形例では、第2の取得工程で取得された、取得領域の3次元情報に基づいて、移動体の周囲の環境地図の生成及び移動体に関する情報の計測の双方を行っているが、一方のみを行うこととしても良い。
すなわち、本発明の「方法」は、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得工程と、前記第1の取得工程で3次元情報が取得される領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得工程と、前記第1の取得工程で取得された、前記第1の取得領域の3次元情報に基づいて、前記第2の取得工程で前記第1の取得領域において3次元情報が取得される領域である第2の取得領域を制御する工程と、前記第1の取得工程で取得された、前記第1の取得領域の3次元情報と、前記第2の取得工程で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う工程と、を含む方法である。
また、上記実施形態や各変形例では、地図生成・位置計測装置を自動車に搭載する場合を例にとって説明したが、これに限られない。例えば上記実施形態や各変形例の地図生成・位置計測装置を、自律して移動可能なロボット、自動車以外の車両、船舶、航空機等の移動体に搭載しても良い。この場合も、上記実施形態や各変形例と同様の効果が得られる。
また、上記実施形態及び各変形例の説明で用いた数値、形状等は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
以下に、発明者が上記実施形態及び各変形例を発案するに至った思考プロセスについて説明する。
従来、車両などの移動体の自動運転において移動体自身の位置、姿勢、速度等の移動体情報を計測する必要があり、そのための一手法として、移動体に取り付けられたカメラを用いて移動体情報を検出するVisual−SLAMと呼ばれる技術がある。Visual−SLAMとは、時系列の映像から環境地図と呼ばれる周囲の静止物体の3次元位置情報を含む環境地図の生成と、移動体情報の推定を同時に行う手法である。
一般的なVisual−SLAMは画像特徴点を用いて行われ、環境地図にはステレオカメラやマルチビューステレオで3次元計測された画像特徴点の3次元位置情報が含まれている。その画像特徴点の3次元の座標と、その画像特徴点が観測された画像中の座標とを基に移動体情報を推定する手法が既に知られている。
しかし、従来のVisual−SLAMにおいては、環境地図に含まれている画像特徴点は絶対的に静止しているという前提があるため、実環境、特に周囲の人や車両等の移動物体が多く存在する環境においては、その前提が崩れてしまい移動体情報の推定精度が低下することが懸念される。
特に、車両に関する情報(例えば車両の位置、姿勢、速度等)を計測する場合や車両周辺の環境地図を生成する場合は、車両前方に先行車両があったり、車両前方を横断する車両があったりすると、画像の大半が速度を持つ画像特徴点で埋め尽くされてしまうことがあるため、取得する画像特徴点の中に3次元位置が不確かな画像特徴点が多く混ざってしまい環境地図の生成や車両に関する情報の計測の精度が著しく低下することが懸念される。すなわち、移動物体の特徴点を用いて環境地図の生成や移動体情報の計測を行うと、移動物体の3次元位置が不確かであるため、環境地図の生成や移動体情報の計測の精度が低下することが懸念される。
そこで、カメラに広角のレンズを利用し、画像中で動いている物体の領域を相対的に小さくする方法を用いることが考えられるが、この場合、空間分解能が下がり、位置、姿勢、速度推定の分解能が下がることが懸念される。
また、特許文献1(特開2016−157197号公報)は、自己位置の推定に用いる初期の環境地図を生成して精度良く自己位置を推定することができる自己位置推定装置、自己位置推定方法およびプログラムを提供することを目的としている。特許文献1では、この目的を達成するために、画像入力部(カメラ)11から順に入力された時系列画像から物体の特徴点を抽出して、抽出した特徴点を追跡して移動ベクトルを算出する。そして、算出された特徴点の移動ベクトルの長さ及び方向に基づいて、特徴点が移動物体であるか否かを判定し、特徴点が移動物体であると判定した場合、特徴点に対応する物体を時系列画像から除去し、除去されなかった特徴点の物体の世界座標系における座標を含む地図情報を生成し、生成した地図情報に基づいて自己位置を推定している。すなわち、特許文献1では、移動物体を環境地図生成や移動体情報計測のための特徴点抽出領域から除外している。
しかし、特許文献1においても、画像の大半を移動物体が占めているような状況において、静止した特徴点を抽出できず、地図情報や自己位置推定の精度が低下することが懸念される。
そこで、発明者は、Visual−SLAMにおいて、移動体の周囲に移動物体がある環境でも効率的に精度の高い環境地図を生成し、精度の高い位置推定を実現すべく上記実施形態及び各変形例を発案するに至った。
例えば、上記実施形態の地図生成・位置計測装置100は、ステレオカメラ200と該ステレオカメラ200の視野内を撮影する単眼カメラ300とを備え、ステレオカメラ200で撮影された画像特徴点を静止している特徴点と運動している特徴点に分類し、画像中の領域内で静止している特徴点の数に応じて、単眼カメラ300の向きを制御し、単眼カメラ300で撮影した画像からステレオカメラ200で観測された特徴点を検出する処理を行い、ステレオカメラ200の観測情報と単眼カメラ300の観測情報を用いて、環境地図の生成や自己位置検出を行う。
1…移動体装置、10…車両(移動体)、100…地図生成・位置計測装置(装置)、200…ステレオカメラ、300、300´…単眼カメラ、300b…カメラ姿勢制御部(制御手段)、400…ライダ、位置計測部520(手段)。
特開2016−157197号公報

Claims (10)

  1. 移動体に搭載される装置であって、
    前記移動体の周囲の3次元情報を取得する第1の取得手段と、
    前記第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、
    前記第1の取得手段で取得された、前記第1の取得領域の3次元情報に基づいて、前記第2の取得手段が前記第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、
    前記第1の取得手段で取得された、前記第1の取得領域の3次元情報と、前記第2の取得手段で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う手段と、を備える装置。
  2. 前記制御手段は、前記第1の取得領域の3次元情報における特徴点を立体物の特徴点と非立体物の特徴点に分類し、その分類結果に基づいて前記第2の取得領域を制御することを特徴とする請求項1に記載の装置。
  3. 前記制御手段は、前記非立体物の特徴点を相対的に多く含む領域を前記第2の取得領域とすることを特徴とする請求項2に記載の装置。
  4. 前記制御手段は、
    前記非立体物の特徴点を相対的に多く含む領域を一の前記第2の取得領域とし、
    前記立体物の特徴点の中で再投影誤差が少ない特徴点を相対的に多く含む領域を他の前記第2の取得領域とし、
    前記一及び他の第2の取得領域の3次元情報を互いに異なるタイミングで前記第2の取得手段に取得させることを特徴とする請求項2に記載の装置。
  5. 前記制御手段は、前記第1の取得領域の3次元情報から、基準面からの高さが3.0m以下の高さの物体のみを立体物として抽出して前記分類を行うことを特徴とする請求項2〜4のいずれか一項に記載の装置。
  6. 前記第2の取得手段は、姿勢変更可能な撮像装置であり、
    前記制御手段は、前記撮像装置の姿勢を制御することを特徴とする請求項2〜5のいずれか一項に記載の装置。
  7. 前記制御手段は、前記撮像装置の既知の複数の姿勢のうち、前記第2の取得領域の3次元情報における特徴点の数から、該特徴点のうち前記立体物の特徴点の数を差し引いた数が最も多い姿勢を目標姿勢として前記撮像装置の姿勢を制御することを特徴とする請求項6に記載の装置。
  8. 前記制御手段は、前記第2の取得領域の3次元情報における特徴点の位置と前記撮像装置の内部パラメータとから算出される移動予測値が1以下となる角速度で前記撮像装置の姿勢を制御することを特徴とする請求項6又は7に記載の装置。
  9. 請求項1〜8のいずれか一項に記載の装置と、
    前記装置が搭載される移動体と、を備える移動体装置。
  10. 移動体の周囲の3次元情報を取得する第1の取得工程と、
    前記第1の取得工程で3次元情報が取得される領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得工程と、
    前記第1の取得工程で取得された、前記第1の取得領域の3次元情報に基づいて、前記第2の取得工程で前記第1の取得領域において3次元情報が取得される領域である第2の取得領域を制御する工程と、
    前記第1の取得工程で取得された、前記第1の取得領域の3次元情報と、前記第2の取得工程で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う工程と、を含む方法。
JP2017034016A 2017-02-24 2017-02-24 装置、移動体装置及び方法 Active JP6880822B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017034016A JP6880822B2 (ja) 2017-02-24 2017-02-24 装置、移動体装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034016A JP6880822B2 (ja) 2017-02-24 2017-02-24 装置、移動体装置及び方法

Publications (2)

Publication Number Publication Date
JP2018139084A true JP2018139084A (ja) 2018-09-06
JP6880822B2 JP6880822B2 (ja) 2021-06-02

Family

ID=63450856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034016A Active JP6880822B2 (ja) 2017-02-24 2017-02-24 装置、移動体装置及び方法

Country Status (1)

Country Link
JP (1) JP6880822B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020528021A (ja) * 2018-06-25 2020-09-17 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 高精細度マップ収集システム
WO2021044777A1 (ja) * 2019-09-02 2021-03-11 古野電気株式会社 相対位置計測装置、相対位置計測方法、および、相対位置計測プログラム
JP2021071800A (ja) * 2019-10-29 2021-05-06 ヤンマーパワーテクノロジー株式会社 船舶の着岸支援装置
JP2021117130A (ja) * 2020-01-28 2021-08-10 アルパイン株式会社 3次元位置推定装置および3次元位置推定方法
JP2022093107A (ja) * 2020-12-11 2022-06-23 トヨタ自動車株式会社 センサ評価システム、センサ評価装置、車両
US11461928B2 (en) 2019-09-06 2022-10-04 Kabushiki Kaisha Toshiba Location estimation apparatus
US12045997B2 (en) 2021-03-18 2024-07-23 Kabushiki Kaisha Toshiba Distance estimation device and distance estimation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2014035702A (ja) * 2012-08-09 2014-02-24 Topcon Corp 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP2016099172A (ja) * 2014-11-19 2016-05-30 株式会社豊田中央研究所 車両位置推定装置及びプログラム
JP2016177388A (ja) * 2015-03-18 2016-10-06 株式会社リコー 移動体位置姿勢計測装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2014035702A (ja) * 2012-08-09 2014-02-24 Topcon Corp 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP2016099172A (ja) * 2014-11-19 2016-05-30 株式会社豊田中央研究所 車両位置推定装置及びプログラム
JP2016177388A (ja) * 2015-03-18 2016-10-06 株式会社リコー 移動体位置姿勢計測装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11061122B2 (en) 2018-06-25 2021-07-13 Beijing Didi Infinity Technology And Development Co., Ltd. High-definition map acquisition system
JP2020528021A (ja) * 2018-06-25 2020-09-17 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 高精細度マップ収集システム
WO2021044777A1 (ja) * 2019-09-02 2021-03-11 古野電気株式会社 相対位置計測装置、相対位置計測方法、および、相対位置計測プログラム
US11461928B2 (en) 2019-09-06 2022-10-04 Kabushiki Kaisha Toshiba Location estimation apparatus
JP2021071800A (ja) * 2019-10-29 2021-05-06 ヤンマーパワーテクノロジー株式会社 船舶の着岸支援装置
WO2021085274A1 (ja) * 2019-10-29 2021-05-06 ヤンマーパワーテクノロジー株式会社 船舶の着岸支援装置
JP7175252B2 (ja) 2019-10-29 2022-11-18 ヤンマーパワーテクノロジー株式会社 船舶の着岸支援装置
JP7337458B2 (ja) 2020-01-28 2023-09-04 アルパイン株式会社 3次元位置推定装置および3次元位置推定方法
JP2021117130A (ja) * 2020-01-28 2021-08-10 アルパイン株式会社 3次元位置推定装置および3次元位置推定方法
JP2022093107A (ja) * 2020-12-11 2022-06-23 トヨタ自動車株式会社 センサ評価システム、センサ評価装置、車両
JP7400708B2 (ja) 2020-12-11 2023-12-19 トヨタ自動車株式会社 センサ評価システム、センサ評価装置、車両
US11897487B2 (en) 2020-12-11 2024-02-13 Toyota Jidosha Kabushiki Kaisha Sensor evaluation system, sensor evaluation device, and vehicle
US12045997B2 (en) 2021-03-18 2024-07-23 Kabushiki Kaisha Toshiba Distance estimation device and distance estimation method

Also Published As

Publication number Publication date
JP6880822B2 (ja) 2021-06-02

Similar Documents

Publication Publication Date Title
JP6880822B2 (ja) 装置、移動体装置及び方法
CN109360245B (zh) 无人驾驶车辆多相机系统的外参数标定方法
CN110120072B (zh) 用于跟踪移动设备的方法和系统
NL2010463C2 (nl) Werkwijze voor het genereren van een panoramabeeld.
Schneider et al. Fusing vision and lidar-synchronization, correction and occlusion reasoning
JP2004198212A (ja) 移動体周辺監視装置
JP6032034B2 (ja) 物体検知装置
KR20200071960A (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
US12061252B2 (en) Environment model using cross-sensor feature point referencing
JP5007863B2 (ja) 3次元物体位置計測装置
JP6910454B2 (ja) 道路の合成トップビュー画像を生成するための方法およびシステム
CN112130158A (zh) 对象距离测量装置和方法
JP2006234703A (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
JP6669182B2 (ja) 乗員監視装置
JP2012198857A (ja) 接近物体検知装置及び接近物体検知方法
US20190391592A1 (en) Positioning system
Shan et al. Probabilistic egocentric motion correction of lidar point cloud and projection to camera images for moving platforms
KR101163453B1 (ko) 레이저 센서와 비전 센서를 이용한 물체거리 측정방법
KR101700764B1 (ko) 자율 이동 방법 및 그 장치
US10249056B2 (en) Vehicle position estimation system
JP4918675B2 (ja) 3次元座標測定方法
CN111788573A (zh) 移动平台的环境检测中的天空确定以及相关的系统和方法
CN110969652B (zh) 基于机械手单目相机充当双目立体视觉的拍摄方法及系统
KR20220078447A (ko) 저밀도 영역을 복원하는 이미지 복원 장치의 동작 방법
KR101091564B1 (ko) 전방향 카메라

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R151 Written notification of patent or utility model registration

Ref document number: 6880822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151