JP6815935B2 - 位置推定装置 - Google Patents

位置推定装置 Download PDF

Info

Publication number
JP6815935B2
JP6815935B2 JP2017111202A JP2017111202A JP6815935B2 JP 6815935 B2 JP6815935 B2 JP 6815935B2 JP 2017111202 A JP2017111202 A JP 2017111202A JP 2017111202 A JP2017111202 A JP 2017111202A JP 6815935 B2 JP6815935 B2 JP 6815935B2
Authority
JP
Japan
Prior art keywords
moving body
image
unit
distance
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017111202A
Other languages
English (en)
Other versions
JP2018205142A (ja
Inventor
アレックス益男 金子
アレックス益男 金子
山本 健次郎
健次郎 山本
茂規 早瀬
茂規 早瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2017111202A priority Critical patent/JP6815935B2/ja
Priority to PCT/JP2018/019240 priority patent/WO2018225480A1/ja
Priority to US16/612,570 priority patent/US11346670B2/en
Publication of JP2018205142A publication Critical patent/JP2018205142A/ja
Application granted granted Critical
Publication of JP6815935B2 publication Critical patent/JP6815935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、ロボットや自動車などの移動体の位置を推定する位置推定装置に関する。
従来、ロボットや自動車などの移動体がその周囲の情報を収集し、移動体の現在位置及び走行状態を推定し、移動体の走行を制御する自律走行技術及び運転支援技術が開発されている。移動体の周囲の情報を収集するためには様々なセンサが用いられる。一般に、周囲の情報を計測するためのセンサとしては、カメラなどの撮像装置、レーザセンサ、ミリ波レーダなどがある。移動体の位置を測定するためのセンサとしては、GPS(Global Positioning System)またはIMU(Inertial Measurement Unit)が用いられる。
自律走行制御においては、移動体に搭載された制御装置が、例えばIMUで算出した移動体の速度または角速度を積算したり、GPS測位を用いたりして、移動体自身の位置(自己位置)を推定する。さらに、制御装置は、レーザセンサあるいはカメラなどで周囲の情報を収集し、位置推定の際の基準となる路面ペイントまたは標識のようなランドマーク等を検出する。そして、制御装置が、検出されたランドマークの位置を地図情報と比較することにより、移動体の現在位置を修正する。
また、駐車場やトンネルのような環境では、地図情報とランドマークがなく、GPSも使えない場合があるため、移動体の周囲に存在する物体との相対位置を推定するオドメトリ法が用いられる。画像でオドメトリ法を行う場合、第一のタイミングで画像を取得し、画像処理技術で取得した画像にある特徴点を抽出し、第二のタイミングで画像を取得し、第一のタイミングの画像で抽出した特徴点を第二のタイミングで取得した画像に追跡し、第一のタイミングと第二のタイミングの画像上での特徴点の移動量を用い、カメラの移動量を推定する。ただし、カメラの移動量を推定するために、最小二乗法や試行錯誤が必要となり、処理負荷が大きい。
ここで、例えば、「ア・ローバスト・ビズアル・オドメトリ・アンド・プレシピス・ディテクション・システム・ユージング・コンスーマー・グレード・モノキュラー・ビジョン(A Robust Visual Odometry and Precipice Detection System Using Consumer-grade Monocular Vision.)」は、画像オドメトリの処理負荷を軽減させるために、単眼カメラで取得した画像の領域を遠方領域と近傍領域とに分けて、三次元の画像オドメトリを行う。遠方領域から抽出した遠方特徴点の画像上での移動量は一定のため、遠方特徴点の移動量と一定のパラメータkを用い、カメラの方位を推定する。次に、路面は平らだと前提し、近傍領域から抽出した近傍特徴点までの距離をカメラの設置高さと角度で幾何学的に算出し、遠方特徴点で推定した方位と近傍特徴点の移動量とを用いてカメラの移動量を推定する。
ジェーソン・キャンベル他(Jason Campbell et al.)、「ア・ローバスト・ビズアル・オドメトリ・アンド・プレシピス・ディテクション・システム・ユージング・コンスーマー・グレード・モノキュラー・ビジョン(A Robust Visual Odometry and Precipice Detection System Using Consumer-grade Monocular Vision.)」、アイクラー2005(ICRA2005.)
しかし、「ア・ローバスト・ビズアル・オドメトリ・アンド・プレシピス・ディテクション・システム・ユージング・コンスーマー・グレード・モノキュラー・ビジョン(A Robust Visual Odometry and Precipice Detection System Using Consumer-grade Monocular Vision.)」では、画像の遠方領域にある特徴点が、実際に遠方にある遠方特徴点であるとして処理をしているが、画像の遠方領域にある特徴点が必ずしも遠方特徴点であるとは限らない。例えば、走行環境によっては、画像の遠方領域に、近くにある立体物が写る場合があり、こうなると画像上での移動量が一定でなくなるため、一定のパラメータkで推定した方位では誤差が大きいという問題があった。
本発明の目的は、精度よく移動体の位置を推定する位置推定装置を提供することにある。
本発明は上記の目的を達成するために、移動体の移動量に基づいて該移動体の位置を推定する位置推定装置であって、前記移動体の周囲の画像を取得する画像取得部と、前記画像取得部で取得した画像に基づいて前記移動体の移動量を推定する移動体移動量推定部と、前記移動体移動量推定部で推定した移動量に基づいて前記移動体の位置を推定する移動体位置推定部と、を備え、前記移動体移動量推定部は、第一のタイミングで前記画像取得部によって取得した第一の画像から第一の特徴点を抽出する第一の特徴点抽出部と、前記第一のタイミングより後の第二のタイミングで前記画像取得部によって取得した第二の画像から第二の特徴点を抽出する第二の特徴点抽出部と、前記第一の特徴点を前記第二の特徴点にトラッキングするトラッキング部と、前記トラッキング部でトラッキングした前記第二の特徴点の前記移動体からの距離を算出する距離算出部と、前記距離算出部で算出した前記第二の特徴点の前記移動体からの距離に基づいて、前記移動体の方位を推定する方位推定部と、前記方位推定部で推定した前記移動体の方位に基づいて、前記移動体の移動量を推定する移動量推定部と、を有し、前記方位推定部は、前記第二の特徴点の前記移動体からの距離に応じたパラメータを算出し、該パラメータを用いて前記移動体の方位を推定する、ことを特徴とする。
本発明によれば、精度よく移動体の位置を推定する位置推定装置を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施例1に係る位置推定装置1の構成を示すブロック図。 図1に示した画像処理部14の機能ブロック図。 図1に示した画像処理部14が行う画像処理手順を示すフローチャート。 従来技術における一定のパラメータkによる位置推定の原理について説明する図であって、移動体100と立体物との位置関係を示すとともに立体物を撮像した画像を示す図。 従来技術における一定のパラメータkによる位置推定の原理について説明する図であって、グラフ36は特徴点の画像上での移動量と特徴点が抽出された立体物の距離dとの関係を表すグラフ、グラフ38はパラメータkと特徴点が抽出された立体物の距離dとの関係を表すグラフ。 実施例1による、立体物の距離dが距離daより近い場合の位置推定方法について説明する図であって、移動体100が移動量41の移動をした場合を示す図。 実施例1による、立体物の距離dが距離daより近い場合の位置推定方法について説明する図であって、移動体100が移動量45の移動をした場合を示す図。 実施例1のΔxと特徴点への距離を用いた位置推定方法の詳細を説明する図であって、移動体100と特徴点との位置関係を示すとともに特徴点を撮像した画像を示す図。 実施例1のΔxと特徴点への距離を用いた位置推定方法の詳細を説明する図であって、グラフ55はパラメータkと特徴点の距離との関係を表すグラフ。 実施例1における、複数の特徴点を抽出した場合の処理を説明する図。 実施例1における、単眼カメラとステレオカメラとでの位置推定処理の違いについて説明する図である。
以下、添付図面を参照して本発明の実施例について説明する。なお、添付図面や以下の説明は、本発明の原理に則った具体的な実施例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
図1は、本発明の実施例1に係る位置推定装置1の構成を示すブロック図である。
位置推定装置1は、自動車やロボットなどの移動体100に搭載されている。位置推定装置1は、一台以上の撮像装置12(図1では、撮像装置12a、12b、・・・12n)と、情報処理装置13と、を有する。なお、以下において、撮像装置12と表記した場合は、撮像装置12a、12b、・・・12nのそれぞれのことを指す。本実施例では、撮像装置12によって撮像された画像に基づいて移動体100の位置を推定するが、本発明はこれに限られるものではなく、例えば、移動体100とは別の移動体や静止体によって移動体100の周囲の画像を取得し、この画像に基づいて移動体100の位置を推定するものであってもよい。
撮像装置12は、例えばスチルカメラまたはビデオカメラでよい。撮像装置12は単眼カメラ(一つの撮像部を有するカメラ)またはステレオカメラ(複数の撮像部を有して視差画像を撮像可能なカメラ)でもよい。
情報処理装置13は、撮像装置12で撮像された画像を処理して移動体100の位置または移動量を算出する。情報処理装置13は、算出された位置または移動量に応じた表示を行ってもよく、または移動体100の制御に関する信号を出力してもよい。
情報処理装置13は、例えば一般的なコンピュータであって、撮像装置12によって撮像された画像を処理する画像処理部14と、画像処理部14による画像処理結果に基づく処理を行う制御部(CPU)15と、メモリ16と、ディスプレイなどの表示部17と、これら構成要素を相互に接続するバス18と、を有する。情報処理装置13は、画像処理部14及び制御部15が所定のコンピュータプログラムを実行することにより、以下の処理を行ってもよい。
撮像装置12aは、例えば、移動体100の前方に設置されている。撮像装置12aのレンズは移動体100の前方に向けられている。撮像装置12aは、例えば、移動体100の前方の遠景を撮像する。他の撮像装置12b、・・・撮像装置12nは、撮像装置12aと異なる位置に設置され、撮像装置12aと異なる撮像方向または領域を撮像する。撮像装置12bは、例えば、移動体100の後方で下方に向けて設置されていてもよい。撮像装置12bは、移動体100の後方の近景を撮像するものでよい。
撮像装置12が単眼カメラの場合、路面が平らであれば、撮像画像上のピクセル位置と実際の位置関係(x,y)とが一定になるため、撮像装置12による撮像画像に基づき、移動体から特徴点までの距離を幾何学的に計算できる。撮像装置12がステレオカメラの場合、画像上の特徴点までの距離をより正確に計測できる。以下の説明では、単眼の標準レンズを有するカメラを採用した事例について説明するが、本発明はこれ以外のカメラ(広角レンズを有するカメラまたはステレオカメラなど)であってもよい。
また、撮像装置12a、撮像装置12b、・・・撮像装置12nが、ある時刻で撮像する対象物は、それぞれ互いに異なるものでよい。例えば、撮像装置12aは、移動体100の前方の遠景を撮像するものでよい。この場合、遠景を撮像した画像からは、障害物、または位置推定のためのランドマークなどの特徴点が抽出されるようにしてもよい。撮像装置12bは、移動体100の周辺の路面などの近景を撮像するようにしてもよい。この場合、近景を撮像した画像からは、移動体100の周囲の白線、または路面ペイントなどの特徴点が検出されるようにしてもよい。
また、撮像装置12a、撮像装置12b、・・・撮像装置12nは、同時に雨や日差しなどの環境外乱の影響を受けないような条件で移動体100に設置されてもよい。例えば、撮像装置12aは移動体100の前方で前向きに設置されるのに対して、撮像装置12bは移動体100の後方で後ろ向きまたは下向きに設置されてもよい。これにより、例えば、降雨時に撮像装置12aのレンズに雨滴が付着した場合でも、進行方向の逆向きまたは下向きの撮像装置12bのレンズには雨滴が付着しにくい。このため、撮像装置12aが撮像した画像が雨滴の影響で不鮮明であっても、撮像装置12bが撮像した画像は雨滴の影響を受けにくい。あるいは、日差しの影響で撮像装置12aの画像が不鮮明であっても、撮像装置12bが撮像した画像は鮮明である場合がある。
また、撮像装置12a、撮像装置12b、・・・撮像装置12nは、互いに異なる撮像条件(絞り値、ホワイトバランス、等)で撮影してもよい。例えば、明るい場所用にパラメータを調整した撮像装置と、暗い場所用にパラメータを調整した撮像装置とを搭載することで、環境の明暗によらず撮像可能としてもよい。
撮像装置12a、撮像装置12b、・・・撮像装置12nは、制御部15から撮像開始の指令を受けたとき、または一定の時間間隔で画像を撮像してもよい。撮像装置12a、撮像装置12b、・・・撮像装置12nによって撮像された画像の画像データ及び撮像時刻は、メモリ16に格納される。
メモリ16は、情報処理装置13の主記憶装置(メインメモリ)及びストレージなどの補助記憶装置を含む。
画像処理部14は、メモリ16に格納された画像データ及び撮像時刻に基づいて、様々な画像処理を行う。この画像処理では、例えば、中間画像が作成されてメモリ16に保存される。中間画像は、画像処理部14による処理の他、制御部15などの判断や処理に利用されてもよい。
バス18は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。
画像処理部14は、撮像装置12で撮像された画像に基づいて移動体100の複数の位置候補を特定し、その複数の位置候補と移動体100の移動速度とに基づいて移動体100の位置を推定する。
画像処理部14は、例えば、移動体100の走行中に撮像装置12が撮像した画像を処理して、移動体100の位置を推定する。例えば、画像処理部14は、撮像装置12が撮像したビデオ画像で移動体100の移動量を算出し、スタート地点に移動量を加算して現在位置を推定してもよい。
画像処理部14は、ビデオ画像の各フレーム画像で特徴点を抽出してもよい。画像処理部14は、さらに、次以降のフレーム画像で同じ特徴点を抽出する。そして、画像処理部14は、特徴点のトラッキング(追跡)により移動体100の移動量を算出してもよい。
制御部15は、画像処理部14の画像処理の結果に基づいて、移動体100に対して移動速度に関する指令を出力してもよい。例えば、制御部15は、画像内の障害物の画素数、画像内の特徴点のうちの外れ値の数または画像処理の種類等に応じて、移動体100の移動速度を増加させる指令、減少させる指令または維持させる指令を出力してもよい。
図2は、図1に示した画像処理部14の機能ブロック図である。
画像処理部14は、撮像装置12が撮像した画像に基づいて移動体100の移動量を推定する移動体移動量推定部101と、移動体移動量推定部101で推定した移動量に基づいて移動体100の位置を推定する移動体位置推定部102と、を備えている。
また、詳しくは後述するように、移動体移動量推定部101は、第一のタイミングで撮像装置12によって撮像した第一の画像から第一の特徴点を抽出する第一の特徴点抽出部103と、第一のタイミングより後の第二のタイミングで撮像装置12によって撮像した第二の画像から第二の特徴点を抽出する第二の特徴点抽出部104と、第一の特徴点を第二の特徴点にトラッキングするトラッキング部105と、トラッキング部105でトラッキングした第二の特徴点の移動体100からの距離を算出する距離算出部106と、距離算出部106で算出した第二の特徴点の移動体100からの距離に基づいて、移動体100の方位を推定する方位推定部107と、方位推定部107で推定した移動体100の方位に基づいて、移動体100の移動量を推定する移動量推定部108と、を有する。
また、詳しくは後述するように、移動体移動量推定部101は、複数の第一の特徴点の各々及び複数の第二の特徴点の各々が、移動体100とは別の、他の移動体(例えば、図7に示す移動体63)から抽出した特徴点であるか否かを検出する検出部109を有し、方位推定部107は、検出部109で他の移動体63から抽出した特徴点であると検出された特徴点を、複数の第一の特徴点、及び複数の第二の特徴点から削除する。
図3は、図1に示した画像処理部14が行う画像処理手順を示すフローチャートである。
画像処理部14は、撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像データをメモリ16から取得する(ステップS21)。ステップS21で取得する画像データは撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像のうちの一枚のみ、または、複数の画像データでよい。また、ステップS21は、撮像装置12a、撮像装置12b、・・・撮像装置12nがそれぞれ撮像した最新の画像のみならず、過去撮像した画像でもよい。以下では、時系列で撮像したフレーム画像を取得した場合について説明する。
次に、画像処理部14の第一の特徴点抽出部103及び第二の特徴点抽出部104は、取得した各フレーム画像内の特徴点を抽出する(ステップS22)。特徴点は、例えば、画像内のエッジやコーナーやピクセル強度の最大値や最小値などでよい。特徴点の抽出には、Canny、Sobel、FAST、Hessian、Gaussianなどの技術を用いてもよい。具体的なアルゴリズムは、画像の特徴に応じて適宜選択される。
画像処理部14のトラッキング部105は、フレーム画像の時系列に従って、各フレーム画像でそれぞれ抽出された特徴点をトラッキング(追跡)する(ステップS23)。トラッキングにはLucas−Kanade法やShi−Tomasi法やDirect Matching法などの技術を用いてもよい。また、ステップS23のトラッキングは、直前や直後取得したフレームの特徴点に限らず、数フレーム間隔でもよい。具体的なアルゴリズムは、画像の特徴に応じて適宜選択される。
次に、画像処理部14の距離算出部106は、ステップS23でトラッキングした特徴点のそれぞれについて、特徴点までの距離(移動体100から特徴点までの距離。以下、単に「特徴点までの距離」、「特徴点の距離」または「特徴点への距離」と記載したときは、移動体100から特徴点までの距離を指す。)を算出する(ステップS24)。撮像装置12a、撮像装置12b、・・・撮像装置12nの設置高さと角度を用いて、幾何学的に特徴点の距離を算出してもよい。また、撮像装置12a、撮像装置12b、・・・撮像装置12nがステレオカメラの場合、視差画像を用いて距離を算出してもよい。また、撮像装置12a、撮像装置12b、・・・撮像装置12nは、単眼カメラやステレオカメラの組み合わせで構成してもよい。最終的に、画像に写る特徴点への距離を算出できる装置であれば、どのカメラや組み合わせでもよい。
次に、画像処理部14の方位推定部107は、ステップS24で算出した距離に基づいて移動体100の方位を推定するためのパラメータkを算出する(ステップS25)。パラメータkの詳細は後述する。
次に、画像処理部14の移動量推定部108は、は、特徴点トラッキングの結果に基づいて、移動体100の移動量を推定する(ステップS26)。移動体100の移動量推定の詳細は後述する。
次に、画像処理部14は、前述ステップS21からステップS26で取得した画像、特徴点、特徴点への距離(移動体100から特徴点までの距離)、推定した移動量などの情報を表示部17に表示する(ステップS27)。いずれかの情報のみを表示してもよいし、すべての情報を表示してもよい。
ここで、図4A及び図4Bを用いて、従来技術である「ア・ローバスト・ビズアル・オドメトリ・アンド・プレシピス・ディテクション・システム・ユージング・コンスーマー・グレード・モノキュラー・ビジョン(A Robust Visual Odometry and Precipice Detection System Using Consumer-grade Monocular Vision.)」における一定のパラメータkによる位置推定の原理について説明する。
図4Aは、従来技術における一定のパラメータkによる位置推定の原理について説明する図であって、移動体100と立体物との位置関係を示すとともに立体物を撮像した画像を示す図である。
図4Bは、従来技術における一定のパラメータkによる位置推定の原理について説明する図であって、グラフ36は特徴点の画像上での移動量と特徴点が抽出された立体物の距離dとの関係を表すグラフであり、グラフ38はパラメータkと特徴点が抽出された立体物の距離dとの関係を表すグラフである。
まず、図4Aを参照しながら説明する。移動量31は移動体100が走行した移動量である。ここでは、簡単のため、移動量31を、移動体100のx方向の変化分(Δx)、y方向の変化分(Δy)及び方位(yaw)の変化分(Δyaw)で構成するものとする。
距離32は移動体100が移動量31を走行した後の位置から、遠方にある立体物までの距離である。
フレーム33は移動体100が移動量31を走行した後の撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像のうちの一枚である。なお、フレーム33では、見やすさのため、移動体100が走行前に撮像した立体物の位置を示し、走行による各特徴点の移動方向及び移動量を移動量35a、移動量35b、移動量35cの矢印で示している。
ステップS21からステップS23で抽出した特徴点34a、特徴点34b、特徴点34cの画像上での移動量はそれぞれ移動量35a、移動量35b、移動量35cとなる。これらの特徴点について移動前が第一の特徴点であり、移動後が第二の特徴点である。
移動体100が移動量31を走行した後、近傍にある特徴点34aの画像上での移動量35aはu≠0、v≠0となるが、遠方にある特徴点34b、特徴点34cの移動量35b、移動量35cはu≠0、vはほぼ0となる。
また、特徴点34aが抽出された立体物(ただし、図4A及び図4Bの例では立体物ではなく路面の白線である。)は、特徴点34bと特徴点34cが抽出されて立体物に比べて移動体100に近いため、画像上での移動量35a>移動量35b、移動量35a>移動量35cである。
従って、遠方の特徴点34b、特徴点34cの画像上での移動量35b、移動量35cは移動体100のΔyawのみに依存し、フレーム33のu方向のみに移動するため、遠方特徴点の画像上での移動量だけで移動体100のΔyawを推定できる。
一方、近傍の特徴点34aの画像上での移動量35aは移動体100のΔyawと(Δx,Δy)に影響されるため、フレーム33のu方向とv方向とに移動する。従って、近傍特徴点の画像上での移動量は、Δyawと(Δx,Δy)が混ざっているため、それぞれを推定できない。
ここで、特徴点の画像上での移動量と特徴点が抽出された立体物の距離d(移動体100から立体物までの距離d)との関係を表すグラフ36を、図4Bの上のグラフで示している。グラフ36において、縦軸は、特徴点の画像上での移動量(Δuの曲線はu方向の移動量、Δvの曲線はv方向の移動量)であり、横軸は、立体物の距離dである。
また、パラメータkと特徴点が抽出された立体物の距離dとの関係を表すグラフ38を、図4Bの下のグラフで示している。グラフ38において、縦軸は、パラメータkであり、横軸は、立体物の距離dである。
グラフ36からも分かるように、ステップS21からステップS23で得られた特徴点の距離dが距離daより近ければ、移動量31と特徴点への距離dによる画像上でのΔuとΔvが大きく変わる。一方、ステップS21からステップS23で得られた特徴点の距離dが距離daより遠ければ、特徴点への距離dに依存せず、画像上でのΔuとΔvが一定である。従って、ステップS21からステップ23で得られた特徴点の距離dが距離daより遠い場合、グラフ38と数1が示すようにΔuと一定のパラメータkで移動体100の方位を推定できる。
Figure 0006815935
一方、ステップS21からステップS23で得られた特徴点の距離dが距離daより近ければ、画像上でのΔuとΔvが一定でないため、方位を推定する場合、一定のパラメータkで精度よく方位を推定できない。
距離daは、撮像装置12a、撮像装置12b・・・撮像装置12nの画質や画角によって異なるが、経験的に距離daを設定する。
図5Aは、実施例1による、立体物の距離dが距離daより近い場合の位置推定方法について説明する図であって、移動体100が移動量41の移動をした場合を示す図である。
図5Bは、実施例1による、立体物の距離dが距離daより近い場合の位置推定方法について説明する図であって、移動体100が移動量45の移動をした場合を示す図である。
図5Aの移動量41は移動体100が走行した移動量である。簡単のため、移動体100の移動量41のΔyaw、Δx、ΔyをΔyaw=0、Δx=0、Δy≠0とする。
画像42aは移動体100が移動量41を走行した後の撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像のうちの一枚を表す。なお、画像42aでは、見やすさのため、移動体100が走行前に撮像した立体物の位置を示し、走行による各特徴点の移動方向及び移動量を移動量44a、移動量44bの矢印で示している。
特徴点43aと特徴点43bは、ステップS21からステップS23で得られた近傍特徴点である。
移動量44aと移動量44bは、画像42でのステップS21からステップS23で得られた近傍特徴点43aと特徴点43bの移動量である。ここで、移動量44aと移動量44bのΔuは、Δu≠0であるため、上述した従来技術の式である数1にΔuを代入すると、Δyaw≠0となり、移動体100のΔyawは誤って推定される。一方、画像42は移動体100が移動量41を走行した後の撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像上でのΔuの実際のΔxは、Δx=0である。
図5Bの移動量45は移動体100が走行した移動量である。この場合、移動体100の移動量45のΔyaw、Δx、ΔyをΔyaw≠0、Δx≠0、Δy≠0とする。
画像42bは移動体100が移動量45を走行した後の撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像のうちの一枚を表す。なお、画像42bでは、見やすさのため、移動体100が走行前に撮像した立体物の位置を示し、走行による各特徴点の移動方向及び移動量を移動量44a、移動量44bの矢印で示している。
特徴点46aと特徴点46bは、ステップS21からステップS23で得られた近傍特徴点である。
移動量47aと移動量47bは、画像42bでのステップS21からステップS23で得られた近傍特徴点46aと特徴点46bの移動量である。ここで、移動量47aと移動量47bのΔuは、Δu≠0であるため、上述した従来技術の式である数1にΔuを代入すると、Δyaw≠0となるが、特徴点46bへの距離は特徴点46aへの距離より近いため、移動量47a<移動量47bとなり、移動量47aで推定するΔyawと移動量47bで推定するΔyawとは異なる。一方、画像42bは移動体100が移動量45を走行した後の撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した画像上でのΔuの実際のΔxは、Δx≠0となる。
図5A及び図5Bの説明から分かるように、Δyawと共に変化するのは、従来技術で用いていたΔuではなく、Δx(すなわち横方向の移動量)である。従って、近傍特徴点でΔyawを推定する場合、特徴点への距離dと特徴点の実際のΔxを用いるのがよい。
図6Aは、実施例1のΔxと特徴点への距離を用いた位置推定方法の詳細を説明する図であって、移動体100と特徴点との位置関係を示すとともに特徴点を撮像した画像を示す図である。
図6Bは、実施例1のΔxと特徴点への距離を用いた位置推定方法の詳細を説明する図であって、グラフ55はパラメータkと特徴点の距離との関係を表すグラフである。グラフ55において、縦軸は、パラメータkであり、横軸は、立体物の距離dである。グラフ55の関係は、予め求めておき、例えばテーブル形式でメモリ16に記憶しておいてもよいし、グラフ55の関係の近似式をメモリ16に記憶しておいてもよい。
移動量51は、移動体100が時間tn−1から時間tまでの間に走行する移動量である。移動量51のΔyaw、Δx、ΔyをΔyaw≠0、Δx≠0、Δy≠0とする。
点52aは、移動体100の近傍にある点であり、時間tn−1に撮像装置12a、撮像装置12b、・・・撮像装置12nが取得した画像上でのステップS21からステップS23で得られた特徴点52bに相当する点である。移動体100が(Δx,Δy,Δyaw)を移動すると、撮像装置12a、撮像装置12b、・・・撮像装置12nが取得した画像上で、特徴点52bはΔyawによる移動で(Xn−1,Yn−1)から(X’n−1,Y’n−1)に移動し、点53になる。次に、ΔxとΔyの移動で、点53は特徴点54になる。つまり、移動量51による特徴点52bから特徴点54への移動は、数2と数3で表せる。
Figure 0006815935
Figure 0006815935
ただし、移動体100はx方向に移動できない(例えば、真横に移動できない。)と前提条件を付けると、ΔxはΔx=0となる。従って、数2は数4となり、ステップS21からステップS23で得られた特徴点の移動量からX、Xn−1、Y、Yn−1を数5に代入し、数5を解くとΔyawを算出できる。
Figure 0006815935
Figure 0006815935

また、y方向の移動量がGPSや他センサにより既知の場合、ステップS21からステップS23で得られた特徴点の移動量から方位による移動量とy方向による移動量を区別できるため、数5に代入せずに、GPSや他センサから得られた(Δx,Δy)を用いて、特徴点54を点53に直し、メモリ16に記憶してある図6Bのグラフ55の関係を用いて方位を推定する。ここで、時間tn−1における点52aへの距離である距離dn−1及び時間tにおける点52aへの距離である距離dを、数6及び数7により算出する。数6及び数7において、Sqrt()は()内の値の正の平方根を求める関数である。
Figure 0006815935
Figure 0006815935
従って、距離dn−1とdをグラフ55に代入すると、パラメータkn−1とkが得られる。パラメータkn−1とkの平均を算出し、新たなパラメータkを算出し、数1からΔyawを推定してもよい。また、時間tn−1とtの間に移動体100が移動するため、点52aへの距離がdn−1から距離dへ変化していくため、数8によりΔyawを推定してもよい。なお、数8において、パラメータkは距離dの関数であり(すなわち、k=f(d))、数8では、距離dn−1〜距離dの範囲で、距離dに対して積分を算出する。
Figure 0006815935
図7は、実施例1における、複数の特徴点を抽出した場合の処理を説明する図である。
移動量61は移動体100が走行する移動量である。
静止点62は、移動体100が移動量61を走行する時の画像上でステップS21からステップS23で特徴点を抽出した点である。静止点62は、例えば、路面上や建物にある点である。また、静止点62は一点とは限らず、複数点であってもよい。ステップS21からステップS26で静止点62を用いて位置推定行う場合、点毎に推定値の候補(Δx,Δy,Δyaw)、(Δx,Δy,Δyaw)、・・・(Δx,Δy,Δyaw)が得られるため、最終的に推定値を決定する手段が必須である。ここで、ステップS21からステップS26で得られた推定値の候補(Δx,Δy,Δyaw)、(Δx,Δy,Δyaw)、・・・(Δx,Δy,Δyaw)の平均を算出し、推定値を決定してもよい。また、ステップS21からステップS26で得られた推定値の候補(Δx,Δy,Δyaw)、(Δx,Δy,Δyaw)、・・・(Δx,Δy,Δyaw)の中央値を算出し、推定値を決定してもよい。
移動体63は、移動体100の周囲を走行している移動体である。
動点64は、移動体100が移動量61を走行する時の画像上でステップS21からステップS23で移動体63から特徴点を抽出した点である。動点64は一点とは限らず、複数点であってもよい。簡単のため動点64を移動体63にある点とするが、歩行者、他車、動物などの静止していない立体物であってもよい。移動体63が静止していないため、移動体100の撮像装置12a、撮像装置12b、・・・撮像装置12nの画像上での動点64の移動量は静止点62の移動量と異なる。従って、移動体63にある動点64から得られた特徴点で移動体100の位置推定を行う場合、推定した位置の誤差が大きい。
ここで、移動体63の特徴点による影響を軽減させるための処理を説明する。
静止点62の点数が動点64の点数より多いという前提条件を付けて、ステップS21からステップS26で得られた推定値の候補(Δx,Δy,Δyaw)、(Δx,Δy,Δyaw)、・・・(Δx,Δy,Δyaw)の平均や中央値を算出し、推定値を決定する。
一方、静止点62の点数と動点64の点数が未知の場合、移動体を障害物として検出する既知の障害物検出技術と組み合わせ、移動体63が障害物として検出された後、ステップS21からステップS23で移動体63から抽出した特徴点を削除し、移動体100の位置を推定するときに削除された特徴点を利用しないようにしてもよい。例えば、画像処理部14の検出部109は、各特徴点の各々が、移動体100とは別の、他の移動体(例えば、移動体63)から抽出した特徴点であるか否かを検出し、画像処理部14の方位推定部107は、検出部109で他の移動体(例えば、移動体63)から抽出した特徴点であると検出された特徴点を、方位推定の際に利用する特徴点から削除(除外)する。
また、過去時系列に推定した位置情報を保存しておき、保存してある過去の位置情報に基づいて次のフレームでの位置を予測し、最新フレームでステップS21からステップS26から得られた特徴点の移動量を、保存してある時系列の位置情報に基づき予測した位置と比較し、予測との差が大きい特徴点を削除するようにしてもよい。位置の予測は、例えば、過去推定した位置の多項式による補間やKalman Filterのような確率的な手法で算出することで行うことができる。
図8は、実施例1における、単眼カメラとステレオカメラとでの位置推定処理の違いについて説明する図である。
撮像装置71は、図1に示した撮像装置12a、撮像装置12b、・・・撮像装置12nに相当する撮像装置である。ここでは、簡単のため、撮像装置12a、撮像装置12b、・・・撮像装置12nのうちの一台に相当する撮像装置を、撮像装置71として示して説明するが、撮像装置71と同様のステレオカメラや単眼カメラを複数台備えた構成であってもよい。
路面72は、移動体100が走行中の路面である。高さHは、撮像装置71の路面72に対する設置高さである。立体物74は、路面72の上にある静止立体物である。
点75は、撮像装置71でステップS21からステップS23で立体物74から特徴点を抽出する点である。点75bは、撮像装置71から点75と同じ方向で路面72の上にある点である。点75cは、立体物74と路面72の接触点である。点76は撮像装置71でステップS21からステップS23で路面72から特徴点を抽出する点である。
撮像装置71がステレオカメラである場合、点75や点76への距離を算出できるため、前述したようにメモリ16に記憶してある図6Bのグラフ55の関係を用いて点ごとにパラメータkを算出し、このパラメータkを用いて移動体100の方位と移動量を推定するようにしてもよい。
一方、撮像装置71が単眼カメラである場合、点75や点76への距離を直接算出できないため、他の技術を活用する。例えば、立体物が写っている画像と立体物への距離をDeep Learning技術で学習し、撮像装置71とステップS21で取得した画像に写っている立体物の距離を推定し、図6Bのグラフ55の関係を用いて点ごとにパラメータkを算出し、このパラメータkを用いて移動体100の方位と移動量を推定するようにしてもよい。
また、撮像装置71が単眼カメラである場合、撮像装置71の路面72に対する設置高さHと、撮像装置71の路面72に対する設置角度とで、路面にある特徴点への距離を幾何学的に算出するようにしてもよい。一方、点75のように路面72以外にある点の場合、幾何学的に距離を算出する場合、点75と、撮像装置71から点75と同じ方向で路面72の上にある点75bと、の区別ができないため、点75ではなく、点75bへの距離を誤って推定してしまうことになる。従って、単眼による障害物検出を用いて、立体物74と路面72との接触点である点75cを算出し、この点75cへの距離を算出し、点75cと点75を結ぶ直線は路面72に対して垂直であると前提し、点75cへの距離に基づいて点75への距離を算出し、移動体100の方位と移動量を推定するようにしてもよい。
また、撮像装置71が単眼カメラである場合、Simultaneous Localization And Mapping(SLAM)技術を用いて、移動体100の移動量と点75を数フレームにトラッキングし、点75への距離を算出し、移動体100の方位と移動量を推定するようにしてもよい。
<付記1>
なお、以上説明した本発明は、
1.
移動体の移動量に基づいて該移動体の位置を推定する位置推定装置であって、
前記移動体の周囲の画像を取得する画像取得部(例えば、撮像装置12)と、
前記画像取得部で取得した画像に基づいて前記移動体の移動量を推定する移動体移動量推定部(例えば、移動体移動量推定部101)と、
前記移動体移動量推定部で推定した移動量に基づいて前記移動体の位置を推定する移動体位置推定部(例えば、移動体位置推定部102)と、
を備え、
前記移動体移動量推定部は、
第一のタイミングで前記画像取得部によって取得した第一の画像から第一の特徴点を抽出する第一の特徴点抽出部(例えば、第一の特徴点抽出部103)と、
前記第一のタイミングより後の第二のタイミングで前記画像取得部によって取得した第二の画像から第二の特徴点を抽出する第二の特徴点抽出部(例えば、第二の特徴点抽出部104)と、
前記第一の特徴点を前記第二の特徴点にトラッキングするトラッキング部(例えば、トラッキング部105)と、
前記トラッキング部でトラッキングした前記第二の特徴点の前記移動体からの距離を算出する距離算出部(例えば、距離算出部106)と、
前記距離算出部で算出した前記第二の特徴点の前記移動体からの距離に基づいて、前記移動体の方位を推定する方位推定部(例えば、方位推定部107)と、
前記方位推定部で推定した前記移動体の方位に基づいて、前記移動体の移動量を推定する移動量推定部(例えば、移動量推定部108)と、
を有する、
ことを特徴とする位置推定装置、としたので、
・精度よく移動体の位置を推定する位置推定装置を提供することができる。
・すなわち、移動体の方位の推定において、第二の特徴点の移動体からの距離を考慮することで、精度よく方位を推定することができる。
また、本発明は、
2.
1.に記載の位置推定装置において、
前記方位推定部は、前記第二の特徴点の前記移動体からの距離に応じたパラメータを算出し、該パラメータを用いて前記移動体の方位を推定する、
ことを特徴とする位置推定装置、としたので、
・第二の特徴点の移動体からの距離に応じたパラメータを用いることで、精度よく移動体の位置を推定することができる。
また、本発明は、
3.
1.に記載の位置推定装置において、
前記方位推定部は、前記第二の特徴点の前記移動体に対する横方向の移動量に基づいて、前記移動体の方位を推定する、
ことを特徴とする位置推定装置、としたので、
・第二の特徴点の移動体に対する横方向の移動量を用いることで、精度よく移動体の位置を推定することができる。
また、本発明は、
4.
1.に記載の位置推定装置において、
前記画像取得部は、前記移動体に搭載され、該移動体の周囲の画像を撮像して取得する撮像装置である、
ことを特徴とする位置推定装置、としたので、
・移動体に搭載された撮像装置によって移動体の周囲の画像を撮像して取得することで、移動体の周囲を確実に撮像することができる。
また、本発明は、
5.
1.に記載の位置推定装置において、
前記第一の特徴点は複数の第一の特徴点であり、
前記第二の特徴点は複数の第二の特徴点であり、
前記距離算出部は、前記複数の第一の特徴点の各々の前記移動体からの距離を算出するとともに、前記複数の第二の特徴点の各々の前記移動体からの距離を算出し、
前記方位推定部は、前記距離算出部で算出した前記複数の第一の特徴点の各々の前記移動体からの距離、及び前記距離算出部で算出した前記複数の第二の特徴点の各々の前記移動体からの距離に基づいて、前記移動体の方位を推定する、
ことを特徴とする位置推定装置、としたので、
・複数の第一の特徴点、複数の第二の特徴点の移動体からの距離を考慮することで、精度よく方位を推定することができる。
また、本発明は、
6.
5.に記載の位置推定装置において、
前記方位推定部は、前記複数の第一の特徴点の各々の前記移動体からの距離の各々、及び前記複数の第二の特徴点の各々の前記移動体からの距離の各々に応じた複数のパラメータを算出し、該複数のパラメータを用いて前記移動体の方位を推定する、
ことを特徴とする位置推定装置、としたので、
・複数の第一の特徴点、複数の第二の特徴点の移動体からの距離に応じたパラメータを用いることで、精度よく移動体の位置を推定することができる。
また、本発明は、
7.
5.に記載の位置推定装置において、
前記移動体移動量推定部は、前記複数の第一の特徴点の各々及び前記複数の第二の特徴点の各々が、前記移動体とは別の、他の移動体(例えば、移動体63)から抽出した特徴点であるか否かを検出する検出部(例えば、検出部109)を有し、
前記方位推定部は、前記検出部で前記他の移動体から抽出した特徴点であると検出された特徴点を、前記複数の第一の特徴点、及び前記複数の第二の特徴点から削除する、
ことを特徴とする位置推定装置、としたので、
・他の移動体から抽出した特徴点を、複数の第一の特徴点、及び複数の第二の特徴点から削除することで、誤差を除外し、精度よく移動体の位置を推定することができる。
なお、本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上述した個々の実施例の各要素のいかなる組合せも本発明に含むものである。
1…位置推定装置、12…撮像装置、13…情報処理装置、14…画像処理部、15…制御部、16…メモリ、17…表示部、100…移動体、101…移動体移動量推定部、102…移動体位置推定部、103…第一の特徴点抽出部、104…第二の特徴点抽出部、105…トラッキング部、106…距離算出部、107…方位推定部、108…移動量推定部、109…検出部。

Claims (2)

  1. 移動体の移動量に基づいて該移動体の位置を推定する位置推定装置であって、
    前記移動体の周囲の画像を取得する画像取得部と、
    前記画像取得部で取得した画像に基づいて前記移動体の移動量を推定する移動体移動量推定部と、
    前記移動体移動量推定部で推定した移動量に基づいて前記移動体の位置を推定する移動体位置推定部と、
    を備え、
    前記移動体移動量推定部は、
    第一のタイミングで前記画像取得部によって取得した第一の画像から第一の特徴点を抽出する第一の特徴点抽出部と、
    前記第一のタイミングより後の第二のタイミングで前記画像取得部によって取得した第二の画像から第二の特徴点を抽出する第二の特徴点抽出部と、
    前記第一の特徴点を前記第二の特徴点にトラッキングするトラッキング部と、
    前記トラッキング部でトラッキングした前記第二の特徴点の前記移動体からの距離を算出する距離算出部と、
    前記距離算出部で算出した前記第二の特徴点の前記移動体からの距離に基づいて、前記移動体の方位を推定する方位推定部と、
    前記方位推定部で推定した前記移動体の方位に基づいて、前記移動体の移動量を推定する移動量推定部と、
    を有し、
    前記方位推定部は、前記第二の特徴点の前記移動体からの距離に応じたパラメータを算出し、該パラメータを用いて前記移動体の方位を推定する、
    ことを特徴とする位置推定装置。
  2. 移動体の移動量に基づいて該移動体の位置を推定する位置推定装置であって、
    前記移動体の周囲の画像を取得する画像取得部と、
    前記画像取得部で取得した画像に基づいて前記移動体の移動量を推定する移動体移動量推定部と、
    前記移動体移動量推定部で推定した移動量に基づいて前記移動体の位置を推定する移動体位置推定部と、
    を備え、
    前記移動体移動量推定部は、
    第一のタイミングで前記画像取得部によって取得した第一の画像から第一の特徴点を抽出する第一の特徴点抽出部と、
    前記第一のタイミングより後の第二のタイミングで前記画像取得部によって取得した第二の画像から第二の特徴点を抽出する第二の特徴点抽出部と、
    前記第一の特徴点を前記第二の特徴点にトラッキングするトラッキング部と、
    前記トラッキング部でトラッキングした前記第二の特徴点の前記移動体からの距離を算出する距離算出部と、
    前記距離算出部で算出した前記第二の特徴点の前記移動体からの距離に基づいて、前記移動体の方位を推定する方位推定部と、
    前記方位推定部で推定した前記移動体の方位に基づいて、前記移動体の移動量を推定する移動量推定部と、
    を有し、
    前記第一の特徴点は複数の第一の特徴点であり、
    前記第二の特徴点は複数の第二の特徴点であり、
    前記距離算出部は、前記複数の第一の特徴点の各々の前記移動体からの距離を算出するとともに、前記複数の第二の特徴点の各々の前記移動体からの距離を算出し、
    前記方位推定部は、前記距離算出部で算出した前記複数の第一の特徴点の各々の前記移動体からの距離、及び前記距離算出部で算出した前記複数の第二の特徴点の各々の前記移動体からの距離に基づいて、前記移動体の方位を推定し、
    前記方位推定部は、前記複数の第一の特徴点の各々の前記移動体からの距離の各々、及び前記複数の第二の特徴点の各々の前記移動体からの距離の各々に応じた複数のパラメータを算出し、該複数のパラメータを用いて前記移動体の方位を推定する、
    ことを特徴とする位置推定装置。
JP2017111202A 2017-06-05 2017-06-05 位置推定装置 Active JP6815935B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017111202A JP6815935B2 (ja) 2017-06-05 2017-06-05 位置推定装置
PCT/JP2018/019240 WO2018225480A1 (ja) 2017-06-05 2018-05-18 位置推定装置
US16/612,570 US11346670B2 (en) 2017-06-05 2018-05-18 Position estimating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017111202A JP6815935B2 (ja) 2017-06-05 2017-06-05 位置推定装置

Publications (2)

Publication Number Publication Date
JP2018205142A JP2018205142A (ja) 2018-12-27
JP6815935B2 true JP6815935B2 (ja) 2021-01-20

Family

ID=64565772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017111202A Active JP6815935B2 (ja) 2017-06-05 2017-06-05 位置推定装置

Country Status (3)

Country Link
US (1) US11346670B2 (ja)
JP (1) JP6815935B2 (ja)
WO (1) WO2018225480A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020217377A1 (ja) * 2019-04-25 2020-10-29 三菱電機株式会社 移動量推定装置、移動量推定方法、および移動量推定プログラム
CN111854678B (zh) * 2020-07-17 2022-02-15 浙江工业大学 一种单目视觉下基于语义分割和卡尔曼滤波的位姿测量方法
EP3968051A1 (en) * 2020-09-15 2022-03-16 Infineon Technologies AG Guiding system for a robot, base station including such a guiding system, and method for guiding a robot

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
JP4398430B2 (ja) * 2003-10-31 2010-01-13 富士通株式会社 距離算出装置および算出プログラム
JP5107154B2 (ja) * 2008-06-23 2012-12-26 アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ 運動推定装置
JP2010033447A (ja) * 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
US7991575B2 (en) * 2009-01-08 2011-08-02 Trimble Navigation Limited Method and system for measuring angles based on 360 degree images
JP5609073B2 (ja) * 2009-06-16 2014-10-22 カシオ計算機株式会社 測位装置、測位方法およびプログラム
JP2012127896A (ja) * 2010-12-17 2012-07-05 Kumamoto Univ 移動体位置測定装置
JP5556748B2 (ja) * 2011-06-21 2014-07-23 株式会社デンソー 車両状態検出装置
US20130106833A1 (en) * 2011-10-31 2013-05-02 Wey Fun Method and apparatus for optical tracking of 3d pose using complex markers
WO2013069012A1 (en) * 2011-11-07 2013-05-16 Dimensional Perception Technologies Ltd. Method and system for determining position and/or orientation
JP5820787B2 (ja) * 2012-08-30 2015-11-24 株式会社デンソー 画像処理装置、及びプログラム
US9607401B2 (en) * 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
JP6182607B2 (ja) * 2013-06-14 2017-08-16 株式会社日立製作所 映像監視システム、監視装置
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
EP3040726A1 (en) * 2014-12-29 2016-07-06 General Electric Company Method and system to determine vehicle speed
JP6499047B2 (ja) * 2015-09-17 2019-04-10 株式会社東芝 計測装置、方法及びプログラム
US10318819B2 (en) * 2016-01-05 2019-06-11 The Mitre Corporation Camera surveillance planning and tracking system
US10552976B2 (en) * 2017-03-22 2020-02-04 Magna Electronics Inc. Trailer angle detection system for vehicle

Also Published As

Publication number Publication date
WO2018225480A1 (ja) 2018-12-13
US11346670B2 (en) 2022-05-31
JP2018205142A (ja) 2018-12-27
US20200132471A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
US20230152461A1 (en) Determining Yaw Error from Map Data, Lasers, and Cameras
US11433880B2 (en) In-vehicle processing apparatus
JP6464673B2 (ja) 支障物検知システムおよび鉄道車両
JP7190261B2 (ja) 位置推定装置
JP6770393B2 (ja) トラッキング装置及びプログラム
US11151729B2 (en) Mobile entity position estimation device and position estimation method
US11132813B2 (en) Distance estimation apparatus and method
US20210394782A1 (en) In-vehicle processing apparatus
WO2018159398A1 (ja) 移動体の位置推定装置及び方法
JP6815935B2 (ja) 位置推定装置
JP5086824B2 (ja) 追尾装置及び追尾方法
WO2020230410A1 (ja) 移動体
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
JP6704307B2 (ja) 移動量算出装置および移動量算出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201223

R150 Certificate of patent or registration of utility model

Ref document number: 6815935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250