JP2017528685A - 車両位置の推定 - Google Patents

車両位置の推定 Download PDF

Info

Publication number
JP2017528685A
JP2017528685A JP2016570854A JP2016570854A JP2017528685A JP 2017528685 A JP2017528685 A JP 2017528685A JP 2016570854 A JP2016570854 A JP 2016570854A JP 2016570854 A JP2016570854 A JP 2016570854A JP 2017528685 A JP2017528685 A JP 2017528685A
Authority
JP
Japan
Prior art keywords
image
environment
transformed
images
image sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016570854A
Other languages
English (en)
Other versions
JP6586430B2 (ja
JP2017528685A5 (ja
Inventor
ポール ニューマン
ポール ニューマン
ウイリアム マダーン
ウイリアム マダーン
アレキサンダー ダグラス スチュワート
アレキサンダー ダグラス スチュワート
ウィンストン チャーチル
ウィンストン チャーチル
コリン マクマナス
コリン マクマナス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oxford University Innovation Ltd
Original Assignee
Oxford University Innovation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oxford University Innovation Ltd filed Critical Oxford University Innovation Ltd
Publication of JP2017528685A publication Critical patent/JP2017528685A/ja
Publication of JP2017528685A5 publication Critical patent/JP2017528685A5/ja
Application granted granted Critical
Publication of JP6586430B2 publication Critical patent/JP6586430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

可搬式装置(102)を装置の周囲の環境内で位置推定する方法が開示されている。本方法は、環境の画像系列(200)を取得し、画像系列から1つ以上の変換画像系列(204)を生成し、画像系列からの画像は、変換画像系列内の変換画像を与えるために既に変換が施されている。次に、処理回路(112)を使用して、変換画像系列(204)からの1つ以上の画像と、少なくとも1つの画像系列(200)からの1つ以上の画像とを、環境の表現に対する変換画像系列と比較する。比較は、画像(200)及び/または変換画像(204)、並びに表現内の、対応する特徴を特定する。可搬式装置(102)を1つ以上の対応する特徴の位置に従って位置推定する。【選択図】図8

Description

発明の詳細な説明
本発明は、環境内にある車両の位置推定に関する。特に、位置推定は、カメラ等のセンサから生成された画像を用いて行われるが、限定するわけではない。さらに、センサからの画像は、最初の色空間から別の色空間に変換されてもよいが、これも限定するわけではない。
位置推定方法は、任意の可搬式装置において実行可能である。つまり、このような装置を車両に組み込むことは、必須ではないが一般的な手法である。本明細書における車両の説明は、非車両の可搬式装置、例えば人が携行できる装置にも等しく適用できる。
特徴に基づく位置推定は、実行時に観測される特徴を格納されている特徴とマッチングした後、これらの関連付けが与えられている装置の姿勢と位置を推定する行為として理解できる。マッチング問題を簡単に提示しているが、その実行は面倒で複雑である場合もある。主に2つの問題が存在する。相関関係を見るためにはどこを探索すべきなのか(そして探索窓はどの程度の大きさにすべきなのか)と、何を探索すべきか(特徴はどのように見えるのか)である。
既知の環境での位置推定に関わる視覚体系にとって、見掛けの変化を取り扱うことは、それが突然であっても段階的であっても、挑戦である。見掛けの変化は、(i)光の条件が異なる、(ii)気象条件が変化する、及び/または(iii)動く物体がある(例えば歩行者、木の枝、または車両)などのいくつかの発生源に起因する。2番目の問題である「何を探索すべきか」は、これらのばらつきによってより難題となってしまう。
本発明の第1の態様によれば、可搬式装置を環境内で位置推定する、電算化された方法が提供されており、以下のステップi)〜v)のうちの少なくともいくつかを備えている。
i)装置の周囲の環境の画像系列を取得する。
ii)画像系列から1つ以上の変換画像系列を生成し、系列からの画像は、変換画像系列内の変換画像を与えるために既に変換が施されている。
iii)処理回路を使用して、変換画像系列からの1つ以上の画像と、
i)画像系列と、
ii)別の変換画像系列
のうちの少なくとも1つからの1つ以上の画像とを、環境の表現と比較する。
iv)比較は、画像及び/または変換画像、並びに格納されている表現内の、対応する特徴を特定するように構成されている。
v)可搬式装置を1つ以上の対応する特徴の位置に従って位置推定する。
特徴i)〜v)の各々を有する実施形態は、より頑健かつ正確に装置を位置推定(すなわち装置位置を決定)できる点で効果的である。
通常、本方法は車両(例えば乗用車、ワゴン車、トラック等)に適用され、特に、自身でナビゲーションを行うように構成されている車両に適用される。しかし、実施形態を他の装置に適用してもよい。
いくつかの実施形態において、センサから取得された画像系列と1つの変換画像系列を、それぞれ格納された表現と比較する。このような実施形態では、表現と比較される系列のうちの1つのみに変換が施される。つまり、カメラからの未変換の画像系列も表現と比較される。
代替の実施形態において、2つの変換画像系列では、各系列を構成する画像がセンサ画像系列に対する異なる変換によって既に生成されており、2つの変換画像系列は、それぞれ格納された表現と比較する。このような実施形態では、表現と比較される画像系列の各々に変換が施される。
さらに別の実施形態において、3つ以上の画像系列が、格納された表現と比較されることもあり得る。例えば、2つの変換画像系列と、未変換画像系列を、格納された表現と比較してもよい。
いくつかの実施形態において、比較のうちのどれを装置の位置推定に使用すべきかに関する判定がなされる。すなわち、本方法は、2つの比較のうちの一方を選定し、装置の位置推定のために使用する。このような実施形態では、通常、そのインスタンスでの実行により適している比較が、装置の位置推定に選定される。例えば、その範囲内で認識される特徴数がより多い比較が選定されてもよい。
いくつかの実施形態において、環境の表現は、1つ以上の格納画像系列によって与えられる。このような実施形態では、例えば調査車両によって、格納画像が前もって収集されていてもよい。あるいは、格納画像が実行時間中の早い時間に収集されていてもよい。つまり、その環境の表現は、予め与えられている代わりに、漸次構築されていってもよい。
代替の実施形態において、環境表現は環境の3Dモデルによって供給される。このような3Dモデルは、点群によって供給されてもよく、特にLIDAR点群によって供給されてもよい、さらに別の実施形態では、環境表現は、特徴を有するメッシュ、または、写真測量、運動からの構造推定(structure−from−motion)、または手動測量等から得られるモデルによって供給される。
いくつかの実施形態において、比較のうちの少なくとも1つが実行されるために、格納画像系列には変換が施される。
画像系列は、光学カメラ、立体光学カメラ、熱探知カメラのうちのいずれかを用いて取得されると好都合である。
画像系列内の画像はRGB(Red Green Blue)色空間の範囲内にあってもよい。当業者であれば、他の色空間も使用可能であることを理解されよう。
画像に対して行われる変換は、画像を、照明不変色空間、グレースケール、未変換画像のものとは異なる別の色空間(例えばHSV(Hue Saturation Value)、LABまたはYUV色空間(ここでYはルマ成分であり、UVはそれぞれがクロミナンス成分)のうちの1つに変換すると好都合である。
本発明の第2の態様によれば、環境内で自身の位置推定を行うように構成されている装置が提供されている。本装置は、
装置の周囲の環境の画像系列を生成するように構成されているセンサと、
i)画像系列から1つ以上の変換画像系列を生成し、画像系列からの画像は、変換画像系列内の変換画像を与えるために、既に変換が施されていて、
ii)変換画像系列からの1つ以上の画像と、
a)画像系列と、b)別の変換画像系列のうちの少なくとも1つからの1つ以上の画像とを、環境の格納表現と比較し、
iii)比較中に、画像及び/または変換画像、並びに格納表現内の、対応する特徴を特定し、
iv)装置を1つ以上の対応する特徴の位置に従って位置推定する、
ように構成されている処理回路と、
のうちの少なくともいくつかを備えている。
本発明の第3の態様によれば、命令を収容している機械可読媒体が提供されている。命令は、コンピュータによって読み取られると、そのコンピュータに、以下のステップi)〜v)のうちの少なくともいくつかを行わせる。
i)装置の周囲の環境の画像系列を取得する。
ii)画像系列から1つ以上の変換画像系列を生成し、画像系列からの画像は、変換画像系列内の変換画像を与えるために既に変換が施されている。
iii)変換画像系列からの1つ以上の画像と、
a)画像系列と、
b)別の変換画像系列
のうちの少なくとも1つからの1つ以上の画像とを、環境の格納表現と比較する。
iv)比較は、画像及び/または変換画像、並びに表現内の、対応する特徴を特定するように構成されている。
v)可搬式装置を1つ以上の対応する特徴の位置に従って位置推定する。
本発明の第4の態様によれば、可搬式装置の周囲の環境を表す座標系内で、可搬式装置のメトリックな位置推定を行う、コンピュータによって実行される方法であって、座標系に対する可搬式装置の座標を決定する位置推定方法が提供されている。本方法は、
カメラを用いて、環境の少なくとも一部を表す画像を生成し、
画像を処理して、環境の一部を照明不変色空間で表す変換画像に変換し、
変換画像を処理して、変換画像内の環境の特徴を認識し、
可搬式装置を、座標系内で、1つ以上の認識要素の位置に従って位置推定する。
本発明の第5の態様によれば、可搬式装置の周囲の環境を表す座標系内で自身のメトリックな位置推定を行うように構成されている装置が提供されている。本装置は、
装置の周囲の環境の画像系列を生成するように構成されているセンサと、
i)画像を処理して、環境の一部を照明不変色空間で表す変換画像に変換し、
ii)変換画像を処理して、変換画像内の環境の要素を認識し、
iii)可搬式装置を、座標系内で、1つ以上の認識要素の位置に従って位置推定して、装置の座標を生成する
ように構成されている処理回路と、
のうちの少なくともいくつかを備えている。
本発明の第6の態様によれば、コンピュータによって読み取られると、そのコンピュータに、可搬式装置のメトリックな位置推定を、可搬式装置の周囲の環境を表す座標系内で行わせる命令を収容している機械可読媒体が提供されている。機械可読媒体は、
i)装置の周囲の環境の画像系列を取得する。
ii)画像を処理して、環境の一部を照明不変色空間で表す変換画像に変換する。
iii)変換画像を処理して、変換画像内の環境の要素を認識する。
iv)可搬式装置を、座標系内で、1つ以上の認識要素の位置に従って位置推定する。
のうちの少なくともいくつかを含んでいる。
当業者であれば、本発明の態様のうちのいずれか1つに関連する上記で述べた特徴を、必要に応じて変更を加えて、本発明の任意の他の態様に適用してもよいことを理解されよう。
上述では、機械可読媒体が言及されている。このような機械可読媒体は、ハードディスクドライブ(ベースがプラッタでもソリッドステートドライブ(Solid State Drive:SSD)でもよい)、メモリ(例えばフラッシュドライブ、SDカード、コンパクトフラッシュ(Compact Flash:CF)カード等)、CD−ROM、CD−RAM、DVD(−R/−RW、RAM、及び+R/+RWを含む。)、任意の形式のテープ、任意の形式の光磁気記憶装置、伝送信号(例えばインターネットダウンロード、ファイル転送プロトコル(File Transfer Protocol:FTP)の下での伝送等)、電信等のうちのいずれか1つによって例示される。
以下に、一例として、本発明の実施形態の単なる詳細な説明を、添付の図面を参照ながら行う。
図1は、各実施形態を実施できるように構成されている車両を示したものである。 図2は、ある実施形態によって行われる画像認識処理の例を示したものである。 図3は、1日のうちの異なる時間帯で、3D点群に対して照明不変画像を用いる例を示したものである。 図4は、各実施形態の相対的な実施状況を図示したものである。 図5は、2つの実施形態の相対的な実施状況を図示したものであり、これらの実施形態の各々の場合で位置推定が行われる確率を強調している。 図6は、ある環境内での動きの略図を示しており、車両の位置推定の図示に用いられる。 図7は、平行データストリームのそれぞれが単独で生成した代表的な速度推定値を、実際の速度と比較して示したものである。 図8は、ある実施形態の方法のフローチャートを示したものである。 図9は、追加プロセスの最適化ステップを含む代替の実施形態を示したものである。 図10は、ライブフレーム内の特徴が調査キーフレーム内で再投影される場所を予測するために、ライブ画像ストリームからの出力を、ビジュアルオドメトリを用いてどのように使用できるかを模式的に表したものである。 図11は、採光による極端な変化を図示したサンプル画像を示したものである。
車両102上に搭載されており、センサ100を備えているモニタリングユニット10に関して、本発明の各実施形態を説明する。センサ100は、センサが移動する環境をモニタリングし、そのモニタリングに基づいてデータを作成することによって、車両102の周囲で検出された光景に関するデータを提供するように構成されている。本方法の各ステップの参照符号は、図8に対して称されている。
本明細書の各実施形態において、車両102は、ある環境内の至る所に移動する可搬式装置の一例を設けている。他の実施形態では、可搬式装置は、車両以外の物品に設けられていてもよい。
説明中の実施形態において、センサ100は受動型センサ(つまり放射を発生させず、単に放射を受信するのみ)であり、特にカメラである。より具体的には、説明中の実施形態において、センサ100は立体カメラ(例えばPointGrey社製BumbleBee)であり、したがって2つのカメラ104,106を備えている。当業者であれば、このようなセンサは、1つのセンサ100としてよりは、2つの別個のカメラによって与えられ得ることは理解されよう。しかし、他の実施形態では1つのカメラに頼ってもよい。
説明中の実施形態において、カメラ104,106はベイヤー(Bayer)フィルタを備えている。この特定の実施形態は、「Grasshopper2 gs2−fw technical reference manual」(Point Grey Research社、2011年)に記載されているように、青色チャネルに対してはほぼ470nmの波長に、緑色チャネルに対してはほぼ540nmの波長に、赤色チャネルに対してはほぼ620nmの波長にピーク感度を有している。当業者であれば、数多くのカメラがベイヤーフィルタを有し、ピーク感度も様々であることが理解されよう。
図1に示されている実施形態において、車両102は道路108に沿って走行していて、センサ100は、車両102が走行する環境(例えば建物110,道路108等)を撮像しており、これによって802において当該環境の画像系列を生成する。本実施形態において、モニタリングユニット10はまた、センサ100からのデータを取り込み、次に804a,804b,806,808において、センサ100から取り込まれた画像を処理するように構成されている処理回路112を備えている。説明中の実施形態において、処理回路112はまた、記憶デバイス114を備えているか、または記憶デバイス114にアクセスできる。
図1の下部は、通常の処理回路112内にあり得る構成要素を示している。処理ユニット118が設けられていてもよく、処理ユニット118は例えばi5(商標)、i7(商標)、Athlon(商標)、Sempron(商標)、Phenom(商標)、A5,A7プロセッサ等のインテル(登録商標)X86系プロセッサであってもよい。処理ユニット118は、システムバス120を介して、I/Oサブシステム122(及びその結果として外部ネットワーク、ディスプレイ等)及びメモリ124と通信するように構成されている。
当業者であれば、メモリ124は、例えば揮発性メモリ、ハードドライブ、不揮発性メモリ等の任意の形式の機械可読なデータ記憶媒体を含む、種々の構成要素によって提供されてもよいことは理解されよう。実際には、メモリ124は、処理ユニット118の制御下にある、あるいは処理ユニット118に接続されている、複数の構成要素を備えている。
しかし通常は、メモリ124は実行されると動作を行わせるプログラムコードを格納するように構成されているプログラム格納部126と、データを一次的に、及び/または永続的に格納するために使用可能であるデータ格納部128とを設けている。
他の実施形態において、処理回路112の少なくとも一部は、車両から遠隔に設けられていてもよい。したがって、802においてセンサ100によって生成されたデータの処理は、車両102外で、または一部は車両102上、一部は車両102外で行われることも考えられる。処理回路が車両上と車両外の両方に設けられている実施形態では、ネットワーク接続(例えば3G UMTS方式(Universal Mobile Telecommunication System:ユニバーサル・モバイル・テレコミュニケーション・システム)、4G方式(例えばモバイルWiMAX及びロング・ターム・エボリューション(Long Term Evolution:LTE)、WiFi(IEEE802.11)等))が用いられている。
示されている実施形態において、プログラム格納部126は、画像処理プロセッサ132と、特徴点検出器と、ビジュアルオドメトリ(Visual Odometry:VO)システム128と、タイマー130とを少なくとも備えている。ビジュアルオドメトリとは、806,808において関連するカメラ画像を分析することによって、810において位置と方向を決定する処理のことであり、したがって、系列画像を用いた推測航法形式として使用可能である。また、ビジュアルオドメトリを用いて、810において、格納されている非系列画像に対する、または格納されている環境表現に対する位置と方向を決定することも可能である。代替または追加の実施形態において、センサ100は日時情報を提供してもよく、タイマーを別個に設ける必要がなくなる。
説明中の実施形態におけるデータ格納部128は、画像データ(すなわちセンサからの画像系列)136と、環境表現138(すなわち環境の表現、つまり、前のモデルか、または環境を表現する格納イメージのいずれか)と、軌跡データ134とを収納している、いくつかの実施形態では、画像データ136及び環境表現138は、1つのデータセットを構成している。軌跡計算にVOシステム128を使用しない実施形態では、軌跡データ134は存在しなくてもよく、また、異なる形式であってもよい。
処理回路112は、センサ100から画像データを受信し、そして、804a,804b,806,808において、その画像データを以下に述べるように処理するように構成されている。しかし、この処理の少なくとも一部は、今度は位置推定処理の一部として使用される、いわゆるビジュアルオドメトリ(VO)システムを行うように構成されている。当業者であれば、車両または他の可搬式装置の位置推定とは、ある環境内で当該車両等の位置を決定することであることを理解されよう。
処理回路112による画像データの処理は、キーフレームに基づいたビジュアルオドメトリ(VO)パイプラインと称されてもよいものを含んでいる。キーフレームは、特徴検出、ランドマーク、記述子、前の/別のキーフレームに対する相対変換、及びタイムスタンプを備えている。説明中の実施形態において、センサ100から出力された画像は、映像化する目的で格納される。本明細書では、センサ100からの画像系列は、画像のパイプラインと考えられてもよいものを供給する、つまり画像を次々と供給する。説明中の実施形態において、センサはカメラの立体対であり、したがって、802でセンサ100によって生成された画像パイプラインは、画像対のストリームで構成されていて、各対から得られる画像はカメラ104,106の各々が1枚ずつ撮影したものである。このため、対の中の各画像は、時間的にほぼ同じインスタンスで撮られている。
処理回路112は、画像ストリーム内の立体画像の両方を処理して、それらの画像から特徴を抽出するように構成されている特徴点検出器を設けるように構成されている。説明中の実施形態において、特徴点検出器は、E.Rosten,G.Reitmayr,及びT.Drummond「Real−time video annotations for augmented reality」(Advances in Visual Computing,2005)に説明されているようなFAST(Features from Accelerated Segment Test)検出器によって得られる。当業者であれば、種々の特徴を抽出してもよく、また、特徴の識別に種々の方法を用いてもよいことを理解されよう。
特徴を抽出した後、処理回路はさらに、各対の各画像内部の同じ特徴の位置を特定する、つまり立体的な対応関係の探索を行うように構成されている。説明中の実施形態は、各画像内のこのような対応点の位置特定を支援するために、パッチベースでのマッチング処理を用いている。さらに、説明中の実施形態において、処理回路はさらに、それぞれの立体的な計測に対して、M.Calonder,V.Lepetit,M.Ozuysal,T.Trzcinski,C.Strecha,及びP.Fua「Brief: Computing a local binary descriptor very fast」IEEE Transactions on Pattern Analyzis and Machine Intelligence,vol.34,no.7,1281〜1298ページ(2012年)に説明されているようなBRIEF記述子を算出するように構成されている。当業者であれば、BRIEF記述子は適切な記述子形式の一例であり、他の記述子を用いてもよいことを理解されよう。
立体的な対応点の決定に加えて、処理回路はまた、抽出された特徴の各々の、カメラ104,106のフレームに対する位置の3D推定を算出するように構成されている。新たな立体フレーム(つまり画像ストリーム内の次のフレーム)を獲得すると、特徴を抽出し、808において、最初にBRIEFマッチングを用いて(種々の記述子が用いられる実施形態では対応するマッチング方法が使用される)、その前のフレームとのマッチングを行い、次にパッチベースでのマッチングを用いて絞り込むことによってサブピクセルでの対応関係が得られ、パッチベースでのマッチングを下記にて説明する。
よって、処理回路112が画像ストリームのフレーム間において抽出された特徴を追跡しているので、VOシステムは車両102の軌跡を構築する。説明中の実施形態において、処理回路112はまた、異常値の棄却にRANSAC(詳細はM.A.Fischler及びR.C.Bolles「Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analyzis and Automated Cartography」Communications of the ACM,vol.24,381〜395ページ(1981年)を参照)を用いることにより、軌跡の推定を向上させている。最後のステップとして、軌跡が非線形ソルバによって得られ、フレーム間変換の推定が生成される。
説明中の実施形態を含む少なくともいくつかの実施形態では、どの表現を環境のモデル及び/または前のモデルとみなすことができるかについて、車両102が移動する環境の、先に取り込まれた、もしくは生成された表現を参照する。表現の取り込みは、調査車両を環境内で移動させて、VOシステムによって生成されたパラメータのうちの少なくとも数種を記録することによって行ってもよい。例えば、表現は、特徴位置を有する連続したキーフレーム、記述子(例えばBRIEF記述子)、ピクセルパッチ、3Dランドマーク、相対変換推定値等のパラメータのうちの少なくとも数種によって得られてもよい。
代替または追加の実施形態において、先に取り込まれた環境モデルは、利用可能ではないか、または単に信頼されるだけのものでなくてもよい。この代替または追加の実施形態では、経験に基づくナビゲーション(Experience Based Navigation)を行ってもよく、ここで環境のマップは、車両102が環境内で移動するときに802において生成されたセンサからの画像から構築されている。センサから取り込まれた画像において識別された特徴は、808で、先にある画像において識別された特徴とマッチングされる。
よって、各実施形態は、国際特許出願PCT/GB2013/050299号「METHOD OF LOCATING A SENSOR AND RELATED APPARATUS」に例示されているようないわゆる経験に基づくナビゲーション、または、位置推定の双方において使用されていてもよい。
経験に基づくナビゲーション、環境の前のモデルに対するナビゲーション、または両者の組み合わせを用いているかどうかにかかわらず、位置推定はいわゆるメトリック位置推定であってもトポロジカル位置推定であってもよい。いわゆるメトリック位置推定では、可搬式装置の位置が参照可能な座標系が存在する。
表現を構成するパラメータは通常はデータ格納部128に格納されるが、そうではない場合は処理装置112によってアクセス可能である。
使用時には、車両102上で用いられる実施形態は、VOシステムの出力を処理するとともに、先に格納されたパラメータによって構成された表現を処理するようにも構成されている。表現に対する現在の画像ストリームの位置を推定するために、各実施形態は、上述したものと同様のVOパイプラインを使用するように構成されている。しかし、ライブで実行中のVOパイプラインは、前のカメラフレームへのマッチングの代わりに、表現内部に保持されている1つ以上のキーフレームへのマッチングを行うように構成されている。
いくつかの実施形態において、表現は(経験に基づくナビゲーションを用いる実施形態である)環境の格納されている画像を介して保持されており、このような実施形態では、位置推定は、これらの格納環境画像に対して行われる。調査車両を用いて、以前の日付における格納画像を生成してもよい。代替として、または追加として、装置はまた、走行する時に格納画像を収集するように構成されていてもよい。
代替として、または追加として、モデルは、LIDARが作成した点群といった点群によって供給されてもよい。
上述したように、説明中の実施形態を含む少なくともいくつかの実施形態では、VO処理を簡素化するためにパッチベースでの処理を用いている。このパッチベースでの処理を用いている実施形態は、ライブビュー(つまりカメラ104,106から出力された現在の画像)を調査ビューと(つまり格納画像を備え得る表現に対して)マッチングさせる際に頑健さが向上するので効果的である。このパッチベースの手法は、ライブフレーム(例えばカメラ104,106から出力された画像)内で調査フレーム(例えば表現キーフレーム)がどのように再投影されるのかを予測しようとしている。実施形態のうちの少なくともいくつかは、マップ内の不確実性、計測値、前の姿勢の推定、及び最新のVO推定を用いて、ある表現画像からカメラ104,106からの現在の画像内に再投影された計測値の共分散を算出するように構成されている。そして次に、共分散を用いて、図10に示されている(後述)ようにライブビュー内の探索範囲を画定することができる。このような探索範囲を生成する実施形態は、不良データを関連付ける可能性を低減するので効果的である。
各実施形態は、表現からの画像とカメラからの画像のうちの少なくとも一方を処理して、ここで説明するように、画像内部の光の影響を除去する(すなわち画像を変換する)ように構成されている。このため、各実施形態は通常、変換された画像系列を生成するが、ここでこの系列の各画像は、既に変換された、カメラから出力された画像系列からの画像に相当する。光の変化に関係なく画像内の特徴をマッチングさせる確率を高めるためには、このような実施形態は効果的である。いくつかの実施形態は、光の影響を除去するために、モデルからの画像とカメラからの画像の両方を処理するように構成されていてもよい。
特にパッチマッチングを行うために、各実施形態は、起こり得るマッチングの探索範囲が与えられると、表現画像からの参照パッチとカメラからの画像との間のスコアを最小にするサブピクセルの位置を探索する。しかし、図2に示されているように、例えば光の影響が変わったために、表現202からの画像(図2で視覚的記憶と表示)とカメラ200からの画像(図2でライブストリームRGBと表示)との間で見掛けの変化が大きすぎる場合にはこの手法は失敗する可能性がある。したがって、各実施形態は、標準的なRGB色空間からの変換を用いるいわゆる照明不変画像を生成するように構成されており、照明不変画像は、説明中の実施形態ではカメラからの出力である。
したがって、説明中の実施形態において、1つの画像から得られる、特徴点検出器が画像から抽出した特徴は、806において、別記にて説明されているように、通常は格納画像または変換された格納画像のいずれかである別の画像から抽出された特徴に対して比較される。この比較806は普通は、例えば図9内の処理920及び処理922といった位置推定処理によって実施される。これにより、位置推定器は、比較を行う際に、808において、画像及び/または変換画像、並びに表現内の対応する特徴を特定する。よって、比較はまた、特徴マッチング、つまりパッチマッチング等と称してもよい。
図2の左側の領域は、カメラ104,106のうちの一方から生成された、画像系列の一部分200を示している。当業者であれば、説明中の実施形態において、画像系列は立体系列(すなわち各光景の各インスタンスの画像は2つ存在する)であるが、分かりやすいように、画像の立体系列の片方のみを示す方が都合がよいことを理解されよう。説明中の実施形態において、画像はRGB画像である。画像の少なくともいくつか、通常は各々が、その画像に関連したメタデータを有していてもよい。このようなメタデータは、タイムスタンプ、位置情報及びカメラのスペクトル感度、型、モデル、露出、ゲイン、シャッター及び/または調節等のうちの1つ以上を含んでいてもよい。
図2の中央の領域202は、メモリ124内部に保持されている表現の少なくとも一部分を構成する、格納画像系列の一部分を示している。これらの格納画像は通常は上述のキーフレームであろう。
図2の右側の領域204は、詳細は下記にて説明されているような、画像上の光の影響を排除する変換804a,804bが施された変換画像系列を示している。したがって、変換が施された画像204は、照明不変画像系列であると見なすことができる。変換画像の生成は、入力として画像系列を取り込んで変換804a,804bを施すことによって変換画像204を生成する処理回路112によって行われる。この変換画像もまた、その画像に関連したメタデータを有していてもよい。
センサ100がカメラ以外である代替の実施形態において、画像を別の形式の環境表現と置き換えてもよい。例えば、LIDARを用いた場合には、環境表現は、スキャナによって生成された点群によって供給されてもよい。
画像系列200及び変換画像系列204は、806において、図2では連続した格納画像202である表現と比較される。図2に示す例において、格納画像202の画像200との比較806では、格納画像202内の点212,214,216に相当する、画像200内の点206,208,210の認識に失敗している。ここで、画像200にはかなりの量の影が含まれており、そのために、画像200は対応する格納画像202と同じ環境であるにもかかわらず、この認識失敗につながったことが分かる。
しかし、格納画像202の点224,226,228に相当する、変換画像内の点218,220,222の認識には成功している。説明中の実施形態では照明不変画像であることが想起される変換画像では、影は既に排除されている(または少なくとも大幅に削減されている)ので、変換画像204と格納画像202との間の類似性が高くなっていることが分かる。
図2を参照する説明中の実施形態において、画像200と格納画像202との間の不確かな比較によって得られたデータは棄却し、変換画像204の正常な比較によって得られたデータを使用して車両102の位置推定を行う。つまり、本実施形態において、車両102の位置推定に画像200または変換画像204を使うかどうかに関する決定を行う。
説明中の実施形態では、照明不変色空間への変換が用いられている。他の実施形態では、別の、あるいは追加の変換、例えばグレースケール色空間や別の単色色空間といった異なる色空間、または照明不変グレースケール色空間等への変換が用いられている。
ここで、804aまたは804bにおいて画像200を照明不変色空間へと変換するために用いる変換を説明する。このような変換を用いる実施形態では、屋外での光条件の範囲にわたって光景の見た目が一致する度合いが向上する。照明不変イメージング、そうでない場合は色彩恒常として知られている最先端の手法の最近の調査に対し、読み手はD.H.Foster「Color constancy」Vision research,vol.51,no.7,674〜700ページ(2011年)を参照する。
以下の式は、G.D.Finlayson及びS.D.Hordley「Color constancy at a pixel」JOSA A,vol.18,no.2,253〜264ページ(2001年)に記載されているように、リニアイメージセンサRの応答と、表面反射率S(λ)を有する物体に入射する発光スペクトルパワー分布E(λ)を有する照明光源に対するスペクトル感度F(λ)との関係を述べている。
ここで、単位ベクトル 及び は光源の方向及び面法線の方向を表し、Ixは光景内の点xでの発光体の光度を表す。式1から、照明光源スペクトルEx(λ)及び光度Ixの影響を最小限にしながら、点xにおける表面の材料特性Sx(λ)に依存する画像特徴Iを得たい。説明中の実施形態は上述したG.D.Finlayson及びS.D.Hordleyの論文の手法に従い、スペクトル感度関数F(λ)を波長λiに注目したディラックのデルタ関数としてモデル化できると仮定して、以下の感度関数が得られる。
極めて狭い帯域でスペクトル感度を仮定するのはほとんどの実用画像センサにとっては非現実的であるが、S.Ratnasingam及びS.Collins「Study of the photodetector characteristics of a camera for color constancy in natural scenes」(JOSA A,vol.27,no.2,286〜294ページ、2010年)にある結果は、現実的な60〜100nmの半波高全幅値(full width at half−maximum:FWHM)のセンサ応答を有するこの仮定の下では、色彩恒常性能が維持されることを示している。
説明中の実施形態は、式2の両側の対数をとることによって、成分を以下のように分離する。
ここでGx=ax・nxは、発光体と光景との間の相対的な形状配置である。これにより、3つの成分、すなわち、光景の形状及び強度成分、発光体のスペクトル成分、及び表面反射率成分の一次結合が得られる。自然採光で照光した屋外の光景の場合、発光体スペクトルを黒体源(上述したG.D.Finlayson及びS.D.Hordleyの論文を参照)としてモデル化するのが妥当であり、したがって、式3における発光体スペクトルの項に黒体源のWien近似を代入することができる。
ここで、hはプランク定数、cは光速、kBはボルツマン定数、Tは黒体源相関色温度である。ただし、本明細書における「照明不変」という語への全ての参照に対して、この仮定を行う色空間が参照される、つまり、光源となる発光体はほぼ黒体である。他の実施形態は、照明がほぼ黒体であると仮定できない他の仮定を使用してもよいことが考えられる。
式4の第1項と第3項は、様々な波長λ1でのセンサ応答を取り入れることによって削除可能である。説明中の実施形態は、S.Ratnasingam及びS.Collins「Study of the photodetector characteristics of a camera for color constancy in natural scenes」(JOSA A,vol.27,no.2,286〜294ページ、2010年)において提案した手法に従い、順序付けられた波長λ<λ<λでのピーク感度に対応する3つのセンサ応答R,R,Rからなる一次元色空間Iを使用する。
パラメータが以下の制約条件を満たす場合には、色空間Iは相関色温度Tとは無関係になる。
これは
に簡素化される。
したがって、単にベイヤーフィルタのピークスペクトル感度の情報のみがある任意のカメラに対して、αはただ1つに定まる。αの値は、多くの場合、データソースが与えられたデータシートから得られる。例えばPointGrey社製のカメラBumblebee2の場合、α=0.4800である。
S.Ratnasingam及びT.M.McGinnity「Chromaticity space for illuminant invariant recognition」Image Processing,IEEE Transactions on,vol.21,no.8,3612〜3623ページ(2012年)において実証されたように、ディラックのデルタ関数によるセンサ応答及び黒体源という仮定によって、主に自然採光で照光した屋外の光景における色の識別に対して好結果が得られる。ただし、照明不変特徴が1つでは、ある特定の色を一意に識別するには不十分であることが多いが、光景内の異なる表面を区別するには十分である(S.Ratnasingam及びS.Collins「Study of the photodetector characteristics of a camera for color constancy in natural scenes」JOSA A,vol.27,no.2,286〜294ページ(2010年))。
図3には照明不変色空間が図示されている。午前9時と午後5時にそれぞれ取り込まれた画像の間では、太陽の角度、影のパターン、及び照射スペクトルの変化が大きいにもかかわらず、両方の照明不変画像が示す変化量は極めて小さい。具体的には、画像300は午前9:00に取り込まれた画像であり、画像302は17:00に取り込まれた画像であることが分かる。当業者であれば、画像300と画像302との間には照明(例えば影)の変化に大きな違いがあることに気づくであろう。304は画像300から生成された変換画像であり、306は画像302から生成された変換画像である。照明が変化した影響が大幅に低減されており、変換画像304,306は大部分が同等であることが分かる。
308は環境の3D−LIDAR点群モデルを示しており、一実施形態では、車両102の位置推定を行うために画像及び/または変換画像が比較される表現として使用されている。
式5を用いるカメラからの画像ストリームの変換は、ピクセル単位で実行可能であるので、処理回路112に求める処理量の点で割安である。したがって、各実施形態は、他の計算タスクと並行して変換を行うように構成されていてもよい。
これにより、少なくともいくつかの実施形態では、2つの並列処理、つまり、806において表現からの画像(すなわち格納画像)をカメラからの画像と比較するVOパイプラインと、806において表現からの画像(すなわち格納画像)をすでに変換されたカメラからの画像(すなわち変換画像)と比較する第2VOパイプラインとを利用している。
代替または追加の実施形態において、表現からの画像(すなわち格納画像)は、使用されているVOパイプラインのうちの1つ以上において変換される(すなわち変換された格納画像)。いくつかの実施形態において、一方のVOパイプラインはカメラからのライブ画像をカメラからの前の画像(すなわち格納画像)と比較し、第2VOパイプラインはカメラからの変換画像をカメラからの前の画像(すなわち格納画像)と比較する。代替または追加の実施形態において、カメラからの前の画像は、VOパイプラインのうちの少なくとも一方で使用される前に変換されている。代替の実施形態において、カメラからの画像は変換されず、カメラからの前の画像が変換される。
これにより、説明中の実施形態を含む少なくともいくつかの実施形態では、2つのVOパイプラインを並行して実行する。代替または追加の実施形態において、2つを超えるVOパイプラインが使用されている。いくつかの実施形態において、処理回路112内部では3つ以上のVOパイプラインが利用可能であり、ある期間中、利用可能なVOパイプラインの総数より少ない数のVOパイプラインが並行して使用されている。例えば、RGB,グレースケール、及び照明不変変換のVOパイプラインが利用可能であってもよく、また、日中、あるいは光のレベルがしきい値を超えた場合にはRGB及び照明不変変換VOパイプラインのみが使用されてもよい。
夜間には照明は黒体の発光からのものであるという仮定は成り立たなくてもよいので、照明不変変換が行われなくてもよく、また要求されなくてもよいことが理解されよう。しかがって、夜間、あるいは光のレベルがしきい値を下回る場合には、グレースケール及び照明不変変換VOパイプラインのみが使用されてもよい。いくつかの例では、領域間の転換点あたりでは、より多くの、または全ての利用可能なパイプラインが使用されてもよい。上記の例では、夕刻や明け方、あるいは光のレベルがしきい値近辺やしきい値である場合には、RGB,グレースケール、及び照明不変VOパイプラインが全て並行して使用されてもよい。
説明中の実施形態において、カメラからの非変換画像に基づいたVOパイプラインを使用して810において車両102の位置を推定できる場合には、そのVOパイプラインが使用される。しかし、このような位置推定が失敗した場合、もう一方の、カメラからの変換画像に基づくVOパイプラインを用いて、車両102の位置の推定を試みる。
本実施形態では既定値(defaulting)が「ベースライン」システムとなる理由は、照明不変VOパイプラインを使用した場合(線704)と使用していない場合(線702)の代表的な速度分布を示している図7のグラフ700内で強調されている。照明不変VOパイプライン704を用いた速度推定値はRGB VOパイプライン702を用いた速度推定値よりもノイズが多く、グラウンドトルースと比較するとわずかに偏りがあるように見える。
このため、VOパイプラインによって生成された位置の2つの推定値は融合しない。その代わり、可能であれば(カメラ104,106からの画像に対して変換を行わない状態で)既定値(defaulting)がベースラインシステムとなるというポリシーによって、システムはこれらを並行して用いたり、両者の間で切り換えたりしている。
他の実施形態において、ベースラインの定義は様々であるか、または、定義されたベースラインは存在せず、どのVOパイプラインを使用するかは、位置推定値の品質によって決まる。位置推定値の品質は、808でマッチングした特徴の数、及び/または、正しいと分かったマッチングの関連する確実性に基づいて評価してもよい。
図8はある実施形態の方法のフローチャートを提供している。既に述べたように、ステップ804a,804bは、カメラからの画像系列の変換である。いくつかの実施形態において、変換A(804a)と変換B(804b)のうちの1つは変換がない、つまりセンサからの未変換画像が使用される。代替の実施形態では、両方の変換ステップ(804a,804b)がカメラからの画像を変換する。
図9に示されている実施形態では、処理回路112によって設けられた画像処理システム900はより複雑である。前述同様、画像処理システム900内部の経路はVOパイプラインと称されている。
カメラ902からの画像は、2つの変換804a,804b(RGBから照明不変904aとRGBから単色904b)を経て、各々が変換画像904で構成されている2つの生成画像ストリームを形成する。
本実施形態において、環境表現は格納画像910によって与えられている。ここでは、格納画像910はRGB画像であるが、これが事実である必要はなく、他の実施形態では変換画像を格納してもよい。
説明中の実施形態において、格納画像910は、変換画像904a,904bを生成するために行ったものと同等の変換914a,914bを経て、位置推定処理810において使用する2組の変換された格納画像916,918を形成する。代替の実施形態において、格納画像は、1つの変換を経て、または変換を経ずに、または複数の変換を経て、複数組の格納された変換画像を生成する。
これにより、照明不変変換画像904aは、格納された変換(照明不変)画像918と対照して位置推定920を行うことが分かる。単色の変換画像904bは格納された変換(単色)画像916と対照して位置推定922を行う。
上述のように、説明中の実施形態において、VOパイプラインは融合せず、車両102の位置推定にパイプラインのうちのどれを使用すべきかに関して、単純なOR演算による選定924を行う。よって、本方法は、2つのVOパイプラインのうちの一方を選定して、装置の位置推定を行う。
図10を用いて、いくつかの実施形態で使用される、位置推定処理を支援する別の方法を説明する。上述のように、カメラは、802において、図2に示されている画像200といった画像系列を生成する。図2では、図の前面200aに示された画像はライブ画像(すなわち現在処理中の画像)と見なしてもよく、この画像よりも前に生成された画像(図2では後ろ側)は前の画像200bと見なしてもよい。当業者であれば、ここでは画像は実際には、1対のカメラが使用されている説明中の実施形態と同様に、立体的な画像対に関わるものであってもよいことを理解されよう。
説明中の実施形態において、VOパイプラインは、少なくとも前の画像200bに由来する情報を使用して、ライブ画像200a内の位置推定処理810を制約する。他の実施形態では、前の画像を用いることに加えて、または用いる代わりに、前の画像よりも以前の画像を用いて、位置推定処理810を制約することもできる。
位置推定システム900では、カメラから出力された画像系列を用いて、車両102の軌跡を計算する。図10内では、3つの点1000a,b,cが前の画像200b内部で強調されている。これら同じ3点は、ライブ画像200a内では1002a,b,cにおいて強調されている。しかし、画像と比較して、点1002は点1000と比較する時に移動したことが分かる。この相対的な移動は、車両102の動きのためである。
前の画像200bと格納画像1006(例えば記憶された光景または環境モデル)内に位置する点とに対して位置推定が行われた場合、格納画像内の点1000a,b,cの位置を車両102の軌跡とともに用いることによって、ライブ画像内部の点1002a,b,cの探索を制限することができる。
この探索制限方法を使用する実施形態は、より効率的であるとともに、当てにならないマッチングを行う可能性を低減するので、有益である。図10と関連して略述されたような方法は、パッチマッチングと称してもよい。
一実施形態において、照明不変画像を用いたVO軌跡推定は単色画像を用いたもの(別記にて説明)ほどは正確ではないので、単色画像からのVO軌跡推定を用いて、照明不変の特徴空間での特徴予測を行う。すなわち、単色画像920からの一番最近のフレーム間VO軌跡推定を用いて、光不変VOパイプライン918にどこを見るべきかを通知するのを支援することができる。
図9に示されているものと類似する実施形態では、未変換画像VOパイプラインを用いて、図10と関連して上述したようなパッチマッチングと同様の方法で変換画像VOパイプラインを制限する。つまり、未変換画像VOパイプラインから得られた特徴予測を用いて、変換画像VOパイプライン内において、変換画像VOパイプラインの頑健性を高められる特徴が現れる場所を予測できる。図9のVOパイプラインの両方が変換画像(RGBから単色へ、及びRGBから照明不変へ)に依存していることが理解されよう。
図11は、ある道路箇所に沿って走るテスト車両102が遭遇した極端な視覚的変化を強調した画像を示している。図11内の画像の各々は、車両102の周囲の環境の同じ風景であるが、光の変化のせいで異なって見える。
以下の説明で用語を明確にするために、不変画像を使用しない(RGBのみ、つまり未変換画像VOパイプラインを使用する)システムがベースラインシステム、不変画像を使用する(つまり変換画像VOパイプライン)のみを使用するシステムが不変システム、両方を併用するシステムが併用システムである。
網羅的1個抜き検証法(exhaustive leave−one−out approach)を用いて、15個のデータセットを取り込んで処理する。これにより、各データセットはライブ画像ストリームとして取り込まれ、次に残りの14個のデータセットを対象とする位置推定が行われる。
その結果を表1に示す。ここでは、15個のデータセットの各々をライブで実行するものとして用いた適用範囲の割合を提示している。この適用範囲の割合は、フレーム総数に対する位置推定が実行できたフレーム数で定義され、14個のデータセットで比較した平均値である。全ケースで不変システムがベースラインシステムよりも改善しており、併用システムが常にベースラインシステムより性能が優れていることを意味する。ベースラインシステムは難しい採光条件であっても満足に機能することに注目されたい。しかし、ロボット工学の長期自律性(例えば自律型車両)という状況では、頑健性を高めることは有用であり、したがって信頼性のいかなる向上も有用である。
表1:ベースラインシステムに対する本実施形態の併用システムで比較した適用範囲の結果。提供範囲は、取り込まれた総フレーム数の割合としての位置推定が実行できたフレーム数で定義されている。1個のテストデータセット当たり14個のトレーニングデータセットの平均値である。
図4は、3システム、つまり、ベースラインシステム、不変システム、及び併用システムの位置推定の実施状況を示したものである。グラフ400は、説明中の実施形態の場合に走行した距離に対する、正常に実施できた位置推定を示している。線402は、画像を認識処理に使用するベースラインシステムが車両の位置特定に成功した領域を示している。この図は、190mから270m付近に車両の位置が推定されなかった広い領域403が存在することを強調している。
線404は、不変システム(すなわちVOパイプラインにおいて変換画像を使用する)が車両の位置特定に成功した領域を示している。照明不変画像認識処理は、位置推定せずに走行した距離をRGB画像認識処理よりも短くする結果になるが、位置推定が行われなかった領域(例えば405)がまだ存在することが分かる。
線406は、未変換画像パイプラインと変換画像パイプラインを両方使用する併用システムをプロットしている。線406には隙間が全く含まれておらず、したがって併用システムは、ほぼ全点において車両102の位置を推定できたことが分かる。
図5は、ベースラインシステム(500)が100mまでの間は計器走行する可能性は40%に近いが、併用システム(502)を用いるとその可能性はちょうど5%であることを示している。これにより、併用システムを設けた実施形態は、図5に図示されているような困難な採光条件で車両102の位置を推定する頑健性や能力が向上するという点で有益である。
上記で言及されている位置推定処理を、ここで図6を参照して詳細に説明する。
局所座標系フレームR602を有する既知の3D光景Sにおける位置A604に車両102がある場合、各実施形態は、図6に図示されているように、位置A604で取り込まれた1つの照明不変画像Iのみを用いて変換GARを探索する。既知の3D光景Sは調査車両によってサンプリングされた(つまり上述の表現によって与えられる)点群からなり、ここで各点
は、表現が生成されたときの調査時にサンプリングされた、前の関連する照明不変特徴
を有していると仮定される。
位置A604から見た点qの見掛けIは、点qを以下のカメラ投影パラメータκを用いて画像平面x上に再投影することによって見いだせる。
変換GARを再確認するには、位置A604から見て、前の見掛けIと見掛けIとの間で情報を整合させることが求められる。点のサブセットSの位置A604からの視覚的な見掛けとその点の前の見掛けIとの間の不一致を測定する目的関数(f)は以下のように定義される。
目的関数として、正規化情報距離(Normalized Information Distance:NID)が選定される。その理由は、局所的な照明の変化や排除に対して頑健な真の測定基準が得られるからである。
2つの離散確率変数{X,Y}が与えられれば、NIDは以下のように定義される。
ここでH(X,Y)は結合エントロピーを、I(X;Y)は相互情報量を表す。
式11から目的関数にNIDを代入すると、以下の式が得られる。
よって、位置推定問題は、以下のように式11を最小化することであることが分かる。
最初の推定値
は、センサの前の位置に設定することも、または、車輪の符号器、ビジュアルオドメトリ、または他の情報源によって与えられる漸進的な動きの情報を組み込むこともできる。
一実施形態において、上記の式12の最小化問題は、準ニュートンBFGS法を用いて解決される。この方法は、N.Jorge及びJ.W.Stephen「Numerical optimization」(シュプリンガー出版、米国、1999年)において説明されており、Bスプライン補間を用いて得られた、A.D.Stewart及びP.Newman「Laps−localization using appearance of prior structure: 6−dof monocular camera localization using prior pointclouds」Robotics and Automation (ICRA),2012 IEEE International Conference(IEEE,2012年、2625〜2632ページ)に提示された解析的微分を用いて、Ceres(S.Agarwal,K.Mierle他「Ceres solver」https://code.google.com/p/ceres−solver/)において論じられている。あるセットアップにおいて、費用関数はOpenCL言語で構築され、Nvidia社製GTX Titan GPUを用いて解き、要する時間は1評価あたり約8ミリ秒である。このような処理時間により、本明細書で説明されている実施形態をリアルタイムと見なしてもよい状況において利用することができる。ここでリアルタイムとは、車両が移動するときに、本明細書で説明されている実施形態によって提供される位置推定を用いて車両102の位置を確立することができるようなことを意味することを意図している。

Claims (17)

  1. 可搬式装置を該装置の周囲の環境内で位置推定する、電算化された方法であって、
    前記環境の画像系列を取得し、
    前記画像系列から1つ以上の変換画像系列を生成し、前記画像系列からの画像は、前記変換画像系列内の変換画像を与えるために既に変換が施されていて、
    処理回路を使用して、前記変換画像系列からの1つ以上の画像と、
    i)前記画像系列と、
    ii)別の変換画像系列
    のうちの少なくとも1つからの1つ以上の画像とを、前記環境の表現と比較し、
    前記比較は、前記画像及び/または変換画像、並びに前記表現内の、対応する特徴を特定し、
    前記可搬式装置を前記1つ以上の対応する特徴の位置に従って位置推定する、方法。
  2. 前記画像系列と1つの変換画像系列を、それぞれ格納された表現と比較する、請求項1記載の方法。
  3. 2つの変換画像系列では、各系列を構成する前記画像が前記画像系列に対する異なる変換によって既に生成されており、前記2つの変換画像系列を、それぞれ格納された表現と比較する、請求項1記載の方法。
  4. 前記方法は、前記2つの比較のうちの一方を選定し、前記装置の位置推定のために使用する、請求項2または3に記載の方法。
  5. 前記環境の前記表現は、1つ以上の格納画像系列によって与えられる、請求項1から4のいずれか1項に記載の方法。
  6. 前記比較のうちの少なくとも1つが実行されるために、前記格納画像系列には変換が施される、請求項5記載の方法。
  7. 前記環境の前記表現は、3D点群であってもよい前記環境の3Dモデルである、請求項1から4のいずれか1項に記載の方法。
  8. 前記画像系列は、光学カメラ、立体光学カメラ、熱探知カメラのうちのいずれかを用いて取得される、請求項1から7のいずれか1項に記載の方法。
  9. 前記画像系列内の前記画像はRGB色空間の範囲内にある、請求項1から8のいずれか1項に記載の方法。
  10. 画像に対して行われる変換は、前記画像を、照明不変色空間とグレースケールのうちの1つに変換する、請求項1から9のいずれか1項に記載の方法。
  11. 環境内で自身の位置推定を行うように構成されている装置であって、
    前記装置の周囲の環境の画像系列を生成するように構成されているセンサと、
    i)前記画像系列から1つ以上の変換画像系列を生成し、前記画像系列からの画像は、前記変換画像系列内の変換画像を与えるために、既に変換が施されていて、
    ii)前記変換画像系列からの1つ以上の画像と、
    a)前記画像系列と、b)別の変換画像系列のうちの少なくとも1つからの1つ以上の画像とを、前記環境の格納表現と比較し、
    iii)前記比較中に、前記画像及び/または前記変換画像、並びに前記格納表現内の、対応する特徴を特定し、
    iv)前記装置を前記1つ以上の対応する特徴の位置に従って位置推定する、
    ように構成されている処理回路と、
    を備えている、装置。
  12. 機械可読媒体であって、
    コンピュータによって読み取られると、前記コンピュータに、
    i)前記装置の周囲の環境の画像系列を取得し、
    ii)前記画像系列から1つ以上の変換画像系列を生成し、前記画像系列からの画像は、前記変換画像系列内の変換画像を与えるために既に変換が施されていて、
    iii)前記変換画像系列からの1つ以上の画像と、
    a)前記画像系列と、
    b)別の変換画像系列
    のうちの少なくとも1つからの1つ以上の画像とを、前記環境の格納表現と比較し、
    iv)前記比較は、前記画像及び/または変換画像、並びに前記表現内の、対応する特徴を特定するように構成されており、
    v)前記可搬式装置を前記1つ以上の対応する特徴の位置に従って位置推定する、
    ことを行わせる命令を収容している媒体。
  13. 可搬式装置のメトリックな位置推定を前記可搬式装置の周囲の環境を表す座標系内で行うコンピュータによって実行される方法であって、前記座標系に対する前記可搬式装置の座標を決定する位置推定方法であり、
    センサを用いて、前記環境の少なくとも一部を表す画像を生成し、
    前記画像を処理して、前記環境の前記一部を照明不変色空間で表す変換画像に変換し、
    前記変換画像を処理して、前記変換画像内の前記環境の特徴を認識し、
    前記可搬式装置を、前記座標系内で、前記1つ以上の認識要素の位置に従って位置推定する、方法。
  14. 前記変換はグレースケール照明不変色空間への数学的変換である、請求項13記載の方法。
  15. 前記メトリックな位置推定は、6自由度のメトリックな位置推定である、請求項13または14に記載の方法。
  16. 可搬式装置の周囲の環境を表す座標系内で自身のメトリックな位置推定を行うように構成されている装置であって、
    前記装置の周囲の環境の画像系列を生成するように構成されているセンサと、
    i)前記画像を処理して、前記環境の前記一部を照明不変色空間で表す変換画像に変換し、
    ii)前記変換画像を処理して、前記変換画像内の前記環境の要素を認識し、
    iii)前記可搬式装置を、前記座標系内で、前記1つ以上の認識要素の位置に従って位置推定して、前記装置の座標を生成する
    ように構成されている処理回路と、
    を備えている、装置。
  17. コンピュータによって読み取られると、前記コンピュータに、可搬式装置のメトリックな位置推定を、前記可搬式装置の周囲の環境を表す座標系内で行わせる命令を収容している機械可読媒体であって、
    i)前記装置の周囲の環境の画像系列を取得し、
    ii)前記画像を処理して、前記環境の一部を照明不変色空間で表す変換画像に変換し、
    iii)前記変換画像を処理して、前記変換画像内の前記環境の要素を認識し、
    iv)前記可搬式装置を、前記座標系内で、前記1つ以上の認識要素の位置に従って位置推定する
    ことを行わせる命令を収容している媒体。
JP2016570854A 2014-05-30 2015-05-29 車両位置の推定 Active JP6586430B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1409625.9 2014-05-30
GBGB1409625.9A GB201409625D0 (en) 2014-05-30 2014-05-30 Vehicle localisation
PCT/GB2015/051566 WO2015181561A1 (en) 2014-05-30 2015-05-29 Vehicle localisation

Publications (3)

Publication Number Publication Date
JP2017528685A true JP2017528685A (ja) 2017-09-28
JP2017528685A5 JP2017528685A5 (ja) 2018-07-05
JP6586430B2 JP6586430B2 (ja) 2019-10-02

Family

ID=51214474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016570854A Active JP6586430B2 (ja) 2014-05-30 2015-05-29 車両位置の推定

Country Status (7)

Country Link
US (1) US10255680B2 (ja)
EP (1) EP3149704B1 (ja)
JP (1) JP6586430B2 (ja)
KR (1) KR20170012316A (ja)
CN (1) CN106462970A (ja)
GB (1) GB201409625D0 (ja)
WO (1) WO2015181561A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508717A (ja) * 2016-03-03 2019-03-28 フォーディ インテレクチュアル プロパティーズ エルエルシー4D Intellectual Properties,Llc 画像取得および解析用の能動パルス式4dカメラのための方法および装置
JP2020012735A (ja) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 車載環境認識装置
JP2020030795A (ja) * 2018-08-23 2020-02-27 富士ゼロックス株式会社 地図画像背景から位置を推定するためのシステム、方法、及びプログラム
CN112004696A (zh) * 2018-05-01 2020-11-27 大陆汽车系统公司 牵引车辆和拖车的对准

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201301281D0 (en) 2013-01-24 2013-03-06 Isis Innovation A Method of detecting structural parts of a scene
GB201303076D0 (en) 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
GB2537681B (en) 2015-04-24 2018-04-25 Univ Oxford Innovation Ltd A method of detecting objects within a 3D environment
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10317901B2 (en) 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
US10520904B2 (en) 2016-09-08 2019-12-31 Mentor Graphics Corporation Event classification and object tracking
US10678240B2 (en) 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
JP7061964B2 (ja) * 2016-11-01 2022-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ データ生成方法及びデータ生成装置
US10515390B2 (en) 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10884409B2 (en) 2017-05-01 2021-01-05 Mentor Graphics (Deutschland) Gmbh Training of machine learning sensor data classification system
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10635116B2 (en) * 2017-10-19 2020-04-28 Ford Global Technologies, Llc Video calibration with illumination invariant image
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
GB201800811D0 (en) * 2018-01-18 2018-03-07 Univ Oxford Innovation Ltd Localising a vehicle
US10553044B2 (en) 2018-01-31 2020-02-04 Mentor Graphics Development (Deutschland) Gmbh Self-diagnosis of faults with a secondary system in an autonomous driving system
US11145146B2 (en) 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
US10789487B2 (en) 2018-04-05 2020-09-29 Here Global B.V. Method, apparatus, and system for determining polyline homogeneity
DE102018113344A1 (de) * 2018-06-05 2019-12-05 Valeo Schalter Und Sensoren Gmbh Verfahren zum Lokalisieren eines Kraftfahrzeugs in einer Umgebung nach einer Lernfahrt; Steuereinrichtung sowie Fahrassistenzsystem
CN116088783A (zh) * 2018-07-24 2023-05-09 奇跃公司 用于确定和/或评价图像显示设备的定位地图的方法和装置
CN109934230A (zh) * 2018-09-05 2019-06-25 浙江大学 一种基于视觉辅助的雷达点云分割方法
CN111238494B (zh) 2018-11-29 2022-07-19 财团法人工业技术研究院 载具、载具定位系统及载具定位方法
CA3122868A1 (en) * 2018-12-13 2020-06-18 Continental Automotive Gmbh Method and system for generating an environment model for positioning
US10922840B2 (en) 2018-12-20 2021-02-16 Here Global B.V. Method and apparatus for localization of position data
US11112252B2 (en) * 2019-02-14 2021-09-07 Hitachi Ltd. Sensor fusion for accurate localization
DE102019208384A1 (de) * 2019-06-07 2020-12-10 Robert Bosch Gmbh Verfahren zum Erstellen einer universell einsetzbaren Merkmalskarte
US11915449B2 (en) 2019-06-14 2024-02-27 Korea University Research And Business Foundation Method and apparatus for estimating user pose using three-dimensional virtual space model
KR102387797B1 (ko) * 2019-06-14 2022-04-19 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
US11509875B1 (en) 2021-08-06 2022-11-22 Ford Global Technologies, Llc Enhanced color consistency for imaging
CN113581256B (zh) * 2021-09-02 2023-05-30 浙江众合科技股份有限公司 一种基于bim和gis技术的列车自主定位方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
US20050031167A1 (en) * 2003-08-04 2005-02-10 Guohui Hu Method of three dimensional positioning using feature matching
JP2010515135A (ja) * 2006-12-29 2010-05-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ カメラからのカメラ画像に基づいて位置を判定する装置、方法およびコンピュータ・プログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3538476B2 (ja) 1995-05-12 2004-06-14 本田技研工業株式会社 車両の走行路区分線などの認識装置
JP3052286B2 (ja) 1997-08-28 2000-06-12 防衛庁技術研究本部長 飛行システムおよび航空機用擬似視界形成装置
US7068808B1 (en) * 1998-06-10 2006-06-27 Prokoski Francine J Method and apparatus for alignment, comparison and identification of characteristic tool marks, including ballistic signatures
US6711475B2 (en) 2000-03-16 2004-03-23 The Johns Hopkins University Light detection and ranging (LIDAR) mapping system
US20110285842A1 (en) * 2002-06-04 2011-11-24 General Electric Company Mobile device positioning system and method
WO2004042662A1 (en) 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
US6879279B2 (en) 2003-01-14 2005-04-12 The Regents Of The University Of California Differential optical synthetic aperture radar
DE10305861A1 (de) 2003-02-13 2004-08-26 Adam Opel Ag Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges
US7474332B2 (en) 2003-08-28 2009-01-06 Raytheon Company Synthetic aperture ladar system and method using real-time holography
WO2005054799A2 (en) 2003-11-26 2005-06-16 Florida Environmental Research Institute, Inc. Spectral imaging system
GB2411532B (en) * 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
US7697748B2 (en) 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
WO2007094765A2 (en) 2005-02-10 2007-08-23 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
US7417717B2 (en) 2005-10-05 2008-08-26 Utah State University System and method for improving lidar data fidelity using pixel-aligned lidar/electro-optic data
GB2434269B (en) 2006-01-17 2010-04-28 3D Laser Mapping Ltd Measuring apparatus
ATE514055T1 (de) 2007-11-07 2011-07-15 Tele Atlas Bv Computeranordnung und verfahren zum berechnen von bewegungsvektoren unter verwendung von entfernungsdaten
EP2093699A1 (en) 2008-02-19 2009-08-26 British Telecommunications Public Limited Company Movable object status determination
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
CN101640788B (zh) 2008-07-29 2012-06-20 深圳市朗驰欣创科技有限公司 一种监控控制方法、装置及监控系统
CN101488185B (zh) * 2009-01-16 2010-10-20 哈尔滨工程大学 基于分块矩阵的步态识别方法
JP2011080845A (ja) 2009-10-06 2011-04-21 Topcon Corp 3次元データ作成方法及び3次元データ作成装置
WO2011120141A1 (en) 2010-03-31 2011-10-06 Ambercore Software Inc. Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination
CN103038761B (zh) 2010-04-13 2016-07-06 视觉智能有限合伙公司 自校准的远程成像和数据处理系统
WO2011152841A1 (en) 2010-06-01 2011-12-08 Hewlett-Packard Development Company, L.P. Replacement of a person or object in an image
CN102402954B (zh) * 2010-09-09 2016-08-03 京东方科技集团股份有限公司 液晶显示器的驱动方法及液晶显示器
AU2011323798A1 (en) * 2010-10-25 2013-05-02 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures
EP2633339B1 (en) 2010-10-25 2019-02-27 Lockheed Corp DETECTION OF STRUCTURAL MODIFICATIONS OF UNDERWATER STRUCTURES
JP5686342B2 (ja) 2011-01-28 2015-03-18 国立大学法人東北大学 レーザレーダ装置およびレーザ合成開口レーダ装置
GB201121216D0 (en) 2011-12-09 2012-01-18 Isis Innovation Methods and apparatus for utilising solutions to sat problems
US9411824B2 (en) * 2012-10-26 2016-08-09 Lida Huang Method and apparatus for image retrieval
GB201301281D0 (en) * 2013-01-24 2013-03-06 Isis Innovation A Method of detecting structural parts of a scene
GB201303076D0 (en) * 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
US9058683B2 (en) * 2013-02-21 2015-06-16 Qualcomm Incorporated Automatic image rectification for visual search
US9336436B1 (en) * 2013-09-30 2016-05-10 Google Inc. Methods and systems for pedestrian avoidance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
US20050031167A1 (en) * 2003-08-04 2005-02-10 Guohui Hu Method of three dimensional positioning using feature matching
JP2010515135A (ja) * 2006-12-29 2010-05-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ カメラからのカメラ画像に基づいて位置を判定する装置、方法およびコンピュータ・プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508717A (ja) * 2016-03-03 2019-03-28 フォーディ インテレクチュアル プロパティーズ エルエルシー4D Intellectual Properties,Llc 画像取得および解析用の能動パルス式4dカメラのための方法および装置
CN112004696A (zh) * 2018-05-01 2020-11-27 大陆汽车系统公司 牵引车辆和拖车的对准
JP2021519998A (ja) * 2018-05-01 2021-08-12 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 牽引車両およびトレーラの位置合わせ
JP7326334B2 (ja) 2018-05-01 2023-08-15 コンチネンタル オートモーティブ システムズ インコーポレイテッド 牽引車両とトレーラとを位置合わせする方法およびシステム
CN112004696B (zh) * 2018-05-01 2024-04-12 大陆汽车系统公司 牵引车辆和拖车的对准
JP2020012735A (ja) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 車載環境認識装置
JP7219561B2 (ja) 2018-07-18 2023-02-08 日立Astemo株式会社 車載環境認識装置
JP2020030795A (ja) * 2018-08-23 2020-02-27 富士ゼロックス株式会社 地図画像背景から位置を推定するためのシステム、方法、及びプログラム
JP7318239B2 (ja) 2018-08-23 2023-08-01 富士フイルムビジネスイノベーション株式会社 地図画像背景から位置を推定するためのシステム、方法、及びプログラム

Also Published As

Publication number Publication date
US10255680B2 (en) 2019-04-09
WO2015181561A1 (en) 2015-12-03
KR20170012316A (ko) 2017-02-02
JP6586430B2 (ja) 2019-10-02
EP3149704A1 (en) 2017-04-05
EP3149704B1 (en) 2018-08-01
US20170076455A1 (en) 2017-03-16
GB201409625D0 (en) 2014-07-16
CN106462970A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6586430B2 (ja) 車両位置の推定
AU2013213659B2 (en) Method and system for using fingerprints to track moving objects in video
Correal et al. Automatic expert system for 3D terrain reconstruction based on stereo vision and histogram matching
Hu et al. A multi-modal system for road detection and segmentation
US10373339B2 (en) Hyperspectral scene analysis via structure from motion
Paton et al. Expanding the limits of vision‐based localization for long‐term route‐following autonomy
JP2014071902A5 (ja)
Dai et al. Building segmentation and outline extraction from UAV image-derived point clouds by a line growing algorithm
US11030478B1 (en) System and method for correspondence map determination
Garg et al. Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation
US20140133753A1 (en) Spectral scene simplification through background subtraction
US9036910B1 (en) Method and system for processing a sequence of images using fingerprints
JP5941514B2 (ja) スペクトル的および空間的物体モデルから識別する方法
Jafarzadeh et al. Crowddriven: A new challenging dataset for outdoor visual localization
Li et al. Seeing through the grass: Semantic pointcloud filter for support surface learning
Beltrán et al. Dense Semantic Stereo Labelling Architecture for In-Campus Navigation.
US8891870B2 (en) Substance subtraction in a scene based on hyperspectral characteristics
Chen et al. The obstacles detection for outdoor robot based on computer vision in deep learning
Sun et al. Spectral 3D Computer Vision--A Review
Schmitz et al. Semantic segmentation of airborne images and corresponding digital surface models–additional input data or additional task?
McLaughlin A Deep Learning Approach for Automating Concrete Bridge Defect Assessment Using Computer Vision

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190909

R150 Certificate of patent or registration of utility model

Ref document number: 6586430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113