JP6272217B2 - 移動する物体の近傍の自由空間を推定する方法および装置 - Google Patents

移動する物体の近傍の自由空間を推定する方法および装置 Download PDF

Info

Publication number
JP6272217B2
JP6272217B2 JP2014261809A JP2014261809A JP6272217B2 JP 6272217 B2 JP6272217 B2 JP 6272217B2 JP 2014261809 A JP2014261809 A JP 2014261809A JP 2014261809 A JP2014261809 A JP 2014261809A JP 6272217 B2 JP6272217 B2 JP 6272217B2
Authority
JP
Japan
Prior art keywords
free space
image
curve
moving object
vicinity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014261809A
Other languages
English (en)
Other versions
JP2015138550A (ja
JP2015138550A5 (ja
Inventor
スリクマール・ラマリンガム
ジアン・ヤオ
田口 裕一
裕一 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015138550A publication Critical patent/JP2015138550A/ja
Publication of JP2015138550A5 publication Critical patent/JP2015138550A5/ja
Application granted granted Critical
Publication of JP6272217B2 publication Critical patent/JP6272217B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、包括的には、自由空間推定に関し、より詳細には、カメラシステムによって取得された画像から自由空間を推定することに関する。
自律ナビゲーション及びコンピュータービジョンの分野では、自由空間は、移動する物体が他の物体と衝突することなく操縦することができる、当該移動する物体の前方のエリア、例えば、車両、ボート、又はロボットの前方又は後方のエリアとして定義される。この自由空間の別称は、運転可能空間(drivable space)である。
正確なマップ及びローカライゼーションシステムを用いることによって、自律ナビゲーションは、移動する物体に対して、地点Aから地点Bにその経路に沿っていずれの障害物にも衝突することなく進行するようにインクリメンタルナビゲーション(incremental navigation:漸近的ナビゲーション)方向を提供する。これを行うには、障害物を回避するのに必要となる重要な情報、及びこの重要な情報を取得する最も費用効果の高い手法を知ることが必要である。
自律ナビゲーションに最も重要な情報は自由空間である。自由空間は、ステレオカメラを用いて推定することができることがよく知られている。例えば、ステレオカメラシステムを用いると、地表平面と、この地表平面上の障害物とを推定することが可能である。占有グリッドの概念は、自由空間推定に密接に関係している。占有グリッドは、あらゆるセルが環境の占有エビデンス(occupancy evidence)をモデル化する2次元(2D)グリッドを指し、通常、走査型LIDAR及び超音波センサーのアレイ等の、環境の平面スライス上で距離を測定する3次元(3D)センサーを用いて推定される。
自由空間推定問題には、スティクセル世界(stixel world)表現が用いられてきた。スティクセル世界は、地表平面と、障害物を表す地上の垂直なスティックのセットとを用いた、世界の単純化したモデルを指す。このモデルは、2つの曲線を用いて画像をコンパクトに表すことができる。第1の曲線は、カメラの前方の最も大きな自由空間を囲む地表平面上に延びるものであり、第2の曲線は、自由空間の境界にある全ての垂直な障害物の高さ(垂直座標)を示すものである。スティクセル世界は、ステレオカメラから取得された奥行きマップを用いて求めることができる。ステレオ画像から奥行きマップを求めるアルゴリズムには、準大域ステレオマッチング法(SGM)等の幾つかのアルゴリズムがある。スティクセルは、動的計画法(DP)を用いてステレオ画像から奥行きマップを明示的に推定することなく求めることもできる。それらの技法は、立体視センサー又は3Dセンサーを用いて奥行きを暗黙的又は明示的に求める。
システムの複雑度及びコストを低減するには、移動する物体に搭載された単眼カメラによって取得された画像のシーケンス、すなわちビデオから自由空間を求めることが望まれている。ステレオビデオの代わりに単眼ビデオを用いてこの問題を解決する際には、幾つかの課題がある。他のセグメンテーション問題とは異なり、色又はエッジに完全に依拠することが可能ではない。例えば、道路のビデオには、横断歩道及び車線区分線からの強い勾配が存在することが多い。水面の場合には、近傍のボート、建物、又は空からの反射が存在することが多い。平面の道路に依拠するホモグラフィーに基づく特徴は、道路が平坦でないことに起因して正確でない場合がある。さらに、移動する物体は、単眼の自由空間推定において更なる課題を有する。
単一の画像から幾何学的レイアウト推定を実行する方法が知られている。所与の画像内のピクセルを地表、建物、及び空に分類することが可能である。この分類は、建物のポップアップ3Dモデルを取得するのに用いられてきた。シーンは、画像を上部領域、中部領域、及び下部領域に分割する2本の水平曲線を用いてモデル化することができる。画像を領域にセグメンテーションするこの問題は、大域最適法を用いて行うことができることが示されている。
動的計画法を列方向(column-wise:カラムワイズ)マッチングに用いるという一般的なアイデアが、建物の3Dモデルを推定するのに用いられてきており、都市シーンをモデル化するための高さマップの幾つかの層を取り扱うために一般化されている。
単眼ビデオは、同時ローカライゼーションマッピング(SLAM)法によって用いられてきた。それらの方法のほとんどは、疎な点群を提供し、自律ナビゲーションに最も重要な情報である自由空間を明示的に推定するものではない。
本発明者らが知る限りでは、従来技術のコンピュータービジョン技法を用いた水面のボートの自由空間推定方法は分かっていない。シーンの画像内の水面のセグメンテーションは、近傍の障害物又は空が水面で反射する等のその鏡面のような性質に起因して特に困難である。色及びエッジ等の特徴は、そのような状況の下では十分に機能しない。
この発明の実施の形態は、単眼カメラによってシーンから取得されたビデオ、すなわち画像のシーケンスから、移動する物体の近傍の自由空間を推定する方法を提供する。この方法は、路上の車両及び水面のボートの自律ナビゲーションに用いることができる。この方法は、動的計画法(DP)を用いて、移動する物体の前方又は後方で取得された画像を自由空間及び障害物にセグメンテーションする。
立体視センサー又は3Dセンサーを用いる従来の手法と異なり、この発明は、単眼カメラによって取得されたビデオを用いてこの問題を解決することを可能にしている。この発明の方法は、水面及び道路の外観、エッジ情報、連続した画像間のホモグラフィー、並びに平滑性等の幾つかの画像特徴及び幾何学的特徴に依拠している。これらの特徴は、目的関数又はエネルギー関数のポテンシャルの集合を求めるのに用いられる。
自由空間推定問題は、マルコフ確率場(MRF)における最適化問題として定式化される。MRFは、各ノードが画像内のピクセルの列に対応する1次元(1D)グラフとして定義される。この発明のグラフは1Dチェーンを形成するので、DPを用いて正確な推論を行うことができる。MRFのエネルギー関数のパラメーターは、手動で設定することもできるし、構造化サポートベクターマシン(SVM)を用いてトレーニング画像のシーケンスから自動的に求めることもできる。
この発明の方法は、単眼キューしか用いていないが、自由空間を確実に推定する。この発明の方法は、単眼ビデオから求められたオプティカルフロー、及びカメラの動きを推定するとともに単眼ビデオ内の複数のフレームを複数の画像として用いることによって求められる奥行きマップ等の他の単眼キューを組み込むこともできる。この発明の主要な焦点は単眼カメラシステムにあるが、ステレオカメラ又は複数のカメラが利用可能である場合、複数のカメラから求められた奥行きマップ等の、ステレオカメラ又はマルチカメラのキューを組み込むこともできる。
本発明者らは、建物ではなく困難な交通条件を有するシーンに関心があり、また、海上シーンにも関心がある。さらに、ビデオシーケンスにわたって平滑に変化する自由空間セグメンテーションが取得される。
自由空間がこの発明の実施の形態に従って求められるシーンの画像の図である。 自由空間がこの発明の実施の形態に従って求められるシーンの画像の図である。 この発明の実施の形態による自由空間を推定する方法の流れ図である。 この発明の実施の形態によるエネルギー関数のパラメーターを求める方法の流れ図である。 この発明の実施の形態による、自由空間とこの自由空間に対応する曲線とを求めるのに用いられる1次元グラフである。
図2Aに示すように、この発明の実施の形態は、移動する物体上に配置されたカメラシステムによってシーンから取得された画像のシーケンス201から、移動する物体の近傍の自由空間101を推定する方法を提供する。対応する自由空間を有する路上の車両及び水面のボートから取得された例示の画像は、それぞれ図1A及び図1Bに示されている。カメラシステムは、単眼ビデオシステムとすることができるし、ステレオカメラシステム又はマルチカメラシステムとすることもできる。
この発明の実施の形態に従って求められるような自由空間は、或るロケーションから別のロケーションに移動する車両の自律ナビゲーション、停泊又は係留中のボートの操縦、車両の駐車、及び自動電気掃除機等のロボットの移動等の複数の用途において用いることができる。
先ず、1Dグラフ301(図3参照)が作成される(210)。この1Dグラフでは、各ノードは、画像内のピクセルの列に対応し、各エッジは、近接した列を接続する。次に、エッジ、外観、ホモグラフィー、幾何学的状況、及び平滑性に基づいて画像から特徴が求められる(220)。これらの特徴は、上記グラフに基づいて自由空間推定のためのエネルギー関数を作成する(230)のに用いられる。これらの特徴は、画像内のオプティカルフロー、又は単眼ビデオシーケンスから求められた奥行きマップに基づくこともできる。次に、動的計画法が用いられ、エネルギー関数を最大化することによって自由空間101が推定される(240)。
エネルギー関数は、対応する重みパラメーターを有する、特徴によって求められたポテンシャル関数の和として定義される。重みパラメーターは、手動で設定することもできるし、図2Bに示すように、学習アルゴリズムを用いることによって間違いのないデータ(ground truth annotation)を有するトレーニング画像のシーケンス250から自動的に求めることもできる。パラメーターを学習するために、最初に、トレーニング画像のシーケンス250を用いて、1Dグラフが作成され(210)、特徴が求められ(220)、エネルギー関数が作成される(230)。次に、構造化SVMを用いて、重みパラメーター270が推定される(260)。この方法のステップは、当該技術分野において知られているように、バスによってメモリ及び入力/出力インターフェースに接続されたプロセッサ200において実行することができる。
単眼自由空間推定
具体的には、図1に示すように、本発明者らは、船舶ナビゲーション及び都市ナビゲーションの双方の状況において単眼イメージが与えられた場合の自由空間の推定に関心がある。この目標を達成するために、ピクセルの各画像列yについて障害物の垂直座標を推定する問題が、マルコフ確率場(MRF)における推論の問題として表現される。図3に示すように、MRFは、1Dグラフ301として表され、その解は、画像における1D曲線310を提供する。
1Dグラフ301は、画像のw個の列に対応する、yによって示されるノードの集合を含む。各ノードは離散変数を表し、これらの離散変数の値は、画像内のh個の行によって与えられるラベルの集合から得られる。これらのラベルは、最下部のピクセルがラベル1を有し、最上部のピクセルがラベルhを有するように順序付けられている。グラフ上のエネルギー最大化問題を解き、これらのノードをラベル付けすることによって、1D曲線310が取得される。この曲線の下方のエリアが、車両又はボートの近傍の自由空間101を規定する。この1D曲線は、車両、ロボット、及びボートの前方又はおそらく後方の近傍の自由空間を推定するのに用いることができる。
以下では、エネルギー関数、ポテンシャル、推論、及びパラメーター学習に関する詳細を提供する。
エネルギー関数
ビデオ内の時刻tにおける画像をIで示すことにする。画像の寸法はw×hである。ここで、w及びhは、それぞれ幅及び高さである。上記問題は、w個の離散変数y,i∈{1,…,w}があり、各変数がh個の離散ラベルy∈{1,…,h}からの値を取ることができるようにモデル化される。
1Dグラフ301 G={V,E}を考えることにする。ここで、頂点はV={1,…,w}であり、エッジは(i,i+1)∈E,i∈{1,…,w−1}である。yの状態は、地表平面よりも常に上にある水平線320よりも決して上にならないように更に制限することができる。水平線の推定値は、カメラシステムの構成(例えば、カメラの位置及び視野)に基づいて手動で求めることもできるし、トレーニング画像のセットを用いて自動的に求めることもでき、この推定値を用いて、推論手順においてラベルを制限することができる。したがって、水平線の推定値は、シーン内の障害物の垂直座標を制限するのに用いことができる。
画像Iの曲線310を求めるために、画像It−1からの特徴も用いられる。この発明のエネルギー関数Eは以下のとおりである。
Figure 0006272217
ここで、Tは転置演算子であり、y=(y,…,y)であり、エネルギー関数のポテンシャルφは、以下のように1変数項及び2変数項に分解される。
Figure 0006272217
1変数ポテンシャルはφ(y)であり、2変数ポテンシャルはφ(y,y)である。1変数項及び2変数項の重みパラメーターは、それぞれw及びwである。重みパラメーターは、
Figure 0006272217
として形成することができる。これらのパラメーターは、手動で設定されるか、又は構造予測技法を用いてトレーニング画像のセットから学習される。ここで、
Figure 0006272217
は、1変数ポテンシャルの集合を指し、これらについては、次に、より詳細に説明する。
外観
それぞれが5つの成分を有する2つのガウス混合モデル(GMM)を用いて、道路又は水面、及び背景の外観モデルがモデル化される。ここで、道路及び水面という用語は、区別なく用いることができる。GMMは、各ピクセルが道路若しくは水面、又は背景である確率を求めるのに用いられる。対象シーンに固有のGMMは、期待値最大化(EM)法を用いて、間違いのないデータを有するトレーニング画像250から求めることができる。GMMは、間違いのないデータを有する道路/水及び背景を含む画像を用いることによって、より一般的なシーンについても求めることができる。
この発明の目標は、曲線が道路と非道路との間(又は水面と障害物との間)の境界に位置するように自由空間を推定することである。この目標を達成するために、以下のように、ラベルの周囲のパッチにおける分布のエントロピーを考慮したポテンシャルが導出される。
Figure 0006272217
ここで、エントロピーH(i,j)は、各ピクセルロケーション(i,j)を中心としたパッチ内の道路/非道路(又は水面/非水面)ピクセルの分布に関して求められる。エントロピーH(i,j)は、道路/非道路ピクセル間の境界の近傍では高いはずである。曲線は、障害物及び道路の最も接近した集合間の境界を通過するので、画像の最下部を通過する曲線について最大値を達成する累積和が用いられる。この関数は、曲線が、非ゼロのH(i,k)値を有するピクセルを通過することも保証する。この推定値は、かなりの雑音を有する可能性がある。
曲線を平滑化するために、各ピクセルについて道路である確率を表すロケーション事前確率が求められる。この確率は、トレーニングデータから曲線よりも下にある道路ピクセルの実験的なカウントを求めることによって推定される。次に、全ての画像において道路であるピクセルが求められ、それらのピクセルのエントロピーがゼロにされる。これは、控え目な推定値ではあるが、それにもかかわらず、結果をかなり平滑化する。
エッジ
グラウンドトゥルース曲線は、地表平面と障害物との間の境界にある。この曲線が輪郭と一致している方がよいことを符号化したものであるエッジポテンシャルが導出される。画像には多くの輪郭が存在する場合があるが、この曲線は、画像の最下部の近傍に位置するエッジであることが好ましい。これらのエッジは、シーンの3D空間において最も近いエッジに対応する。これを考慮に入れるために、以下のようにエッジエビデンス(edge evidence)を累算する以下のポテンシャルが定義される。
Figure 0006272217
ここで、(i,j)ピクセルにエッジが存在するときはe(i,j)=1であり、そうでないときはゼロである。
幾何学的状況
単一の画像が与えられると、この画像内のピクセルを地表、建物(水平に向いている)、及び空に分類することが可能である。G(i,j)が、この分類に基づいて、ピクセルが地表であるか否かに対応するブールラベルを指すものとする。本発明者らは、最も大きな自由空間を囲む曲線を得ることに関心があるので、以下のポテンシャルを用いる。
Figure 0006272217
ホモグラフィー
画像シーケンスにわたって平滑である自由空間を取得することが重要である。1つの可能性は、或る画像内のノードと直前の画像内のノードとの間のペアになった接続を考慮することによって、2つの連続した画像内の曲線を併せて推定することである。この結果、画像I内のピクセルp(i,j)のラベル付けは、画像It−1内のp(i’,j’)の近接ピクセルを用いて制約され、これによって、1Dチェーンでもなく木構造グラフでもない2Dグラフが得られる。その結果、推論はNP困難となる。
したがって、画像にわたって平滑性を課すとともに、それでも、推論中は1Dグラフを維持するために、ホモグラフィーが用いられる。近傍のピクセルにわたる平滑性を用いる代わりに、地表平面に基づいてホモグラフィー行列が求められる。これによって、或る画像内の地表のピクセルから直前の画像内の地表の対応するピクセルへの1対1マッピングが与えられる。これによって、或る画像内の自由空間曲線と別の画像内の自由空間曲線との間のマッピングも提供される。以下の式によって与えられるように、画像I内の(i,j)におけるピクセルロケーションを画像It−1内のロケーション(i’,j’)におけるピクセルにマッピングするホモグラフィー行列をH(t,t−1)とする。
Figure 0006272217
このようにすることで、ポテンシャルは、以下のように記述することができる。
Figure 0006272217
ここで、u∈U\ホモグラフィーであり、φ(yi’=j’)は、直前の画像It−1内の1変数ポテンシャルである。
画像It−1内の種々の1変数ポテンシャルが、I内のホモグラフィーポテンシャルにマッピングされる。ホモグラフィーは、ランダムサンプルコンセンサス(RANSAC)の枠組みにおけるスケール不変特徴変換(SIFT)を用いて求められる。水面の場合、直前の自由空間曲線の近傍の対応関係のみが検出される。なぜならば、水面には、あまりにも多くの偽りの対応関係が存在するからである。水面での物体の反射からのエッジは、ホモグラフィー行列を用いると整合せず、したがって、この発明の曲線から反射をフィルタリングすることができることに留意されたい。道路シーンの場合、反射は問題とはならないので、直前の自由空間曲線よりも下のSIFTの整合するものを用いて、ホモグラフィー行列が求められる。
平滑性
トランケートされた2次ペナルティを用いて、曲線の平滑化が促進される。この曲線は、障害物が存在するときにしか非平滑でなく、これは数個の列でしか起こらないことに留意されたい。したがって、以下のようになる。
Figure 0006272217
ここで、α、λ、及びTは定数である。
推論
MAP推定値、又は最大エネルギー構成は、以下の式を解くことによって求めることができる。
Figure 0006272217
この発明のグラフは1Dチェーンを形成し、したがって、複雑度O(wn)を有する動的計画法を用いて正確な推論を行うことができる。ここで、wは、画像の幅であり、nは、水平線制約を課した後の各変数のラベルの数である。
重みパラメーター
Figure 0006272217
は、手動で設定することもできるし、以下で説明するように、トレーニング画像250を用いて自動的に求めることもできる。
パラメーター学習
トレーニング画像を用いて重みパラメーターを学習するのに、以下の式の構造化SVMが用いられる。
Figure 0006272217
ここで、y(i)は第iインスタンスのグラウンドトゥルース曲線であり、Δ(y,y(i))は損失関数であり、Nはトレーニング例の総数である。損失関数は、以下の式に示すように、相対ギャップをトランケートしたものである。
Figure 0006272217
ここで、Tは定数である。平面切断(cutting plane)手順が用いられる。この手順では、各反復において、以下の損失増大推論(loss augmented inference)を解いて、最も違反した制約が求められる。
Figure 0006272217
損失は、1変数ポテンシャルに分解されるので、損失増大推論は、動的計画法を介して正確に解くことができる。
この発明の方法は、追加される特徴ごとに1変数ポテンシャルを定義し、このポテンシャルを式(3)の1変数ポテンシャルの集合に追加することによって、他の特徴を組み込むこともできる。これらの他の特徴の重みパラメーターは、手動で設定することもできるし、式(11)に定式化された学習方法によって自動的に求めることもできる。他の特徴には、単眼ビデオから求められたオプティカルフロー及び奥行きマップが含まれる。ステレオカメラ又は複数のカメラが利用可能である場合、複数のカメラから求められた奥行きマップ等の、ステレオカメラ又はマルチカメラのキューから取得された特徴も組み込むことができる。式(3)の1変数ポテンシャルの集合をそれに応じて変更することによって、任意の数の特徴及び特徴の組み合わせをこの発明の方法において用いることができることに留意されたい。

Claims (21)

  1. 移動する物体の近傍の自由空間を推定する方法であって、
    移動する前記物体上に配置された単眼カメラシステムによってシーンの画像のシーケンスを取得するステップと、
    前記画像のシーケンスにおける各画像に対して、
    1次元グラフとしてマルコフ確率場を作成するステップであって、前記1次元グラフ内の各ノードは前記画像内のピクセルの列のための離散変数に対応するものと、
    前記画像内の特徴を求めるステップと、
    求められた前記特徴に基づいて前記一次元グラフ上にエネルギー関数を作成するステップと、および
    動的計画法を用いるステップであって、前記エネルギー関数を最大にして曲線を取得するステップであって、前記曲線の下方のエリアが前記物体の近傍の前記自由空間を規定し、前記自由空間は、或るロケーションから別のロケーションに移動する前記物体の自律ナビゲーションに用いられるものと、
    を含み、
    前記ステップは、前記単眼カメラシステムに接続されたプロセッサにおいて実行され、
    前記エネルギー関数は1変数および2変数のポテンシャル関数の和を有し、各ポテンシャル関数は、求められた特徴の中の対応する特徴とトレーニング画像のシーケンスから学習した対応する重みパラメーターを用いて求められる、移動する物体の近傍の自由空間を推定する方法。
  2. 前記移動する物体は車両であり、前記シーンは道路を含む、請求項1に記載の方法。
  3. 前記移動する物体はボートであり、前記シーンは水面を含む、請求項1に記載の方法。
  4. 前記画像内のピクセルの前記各列について、障害物の垂直座標を推定するステップ、
    を更に含む、請求項1に記載の方法。
  5. 前記自由空間は、前記移動する物体の前方又は後方にある、請求項1に記載の方法。
  6. 水平線の推定値を用いるステップであって、前記障害物の前記垂直座標を制限するもの、
    を更に含む、請求項4に記載の方法。
  7. 前記水平線の前記推定値は、前記単眼カメラシステムの構成に基づいて求められる、請求項6に記載の方法。
  8. 前記水平線の前記推定値は、トレーニング画像のセットを用いて求められる、請求項6に記載の方法。
  9. 前記重みパラメーターは手動で設定される、請求項1に記載の方法。
  10. 前記重みパラメーターは、構造化サポートベクターマシンを用いてトレーニング画像のセットから自動的に求められる、請求項1に記載の方法。
  11. 前記特徴は、エッジ、外観、ホモグラフィー、幾何学的状況、平滑性、オプティカルフロー、奥行きマップ、及びそれらの組み合わせからなる群から選択される、請求項1に記載の方法。
  12. 前記外観は、ガウス混合モデルによってモデル化される、請求項11に記載の方法。
  13. 前記画像内の前記各ピクセルのロケーション事前確率を求めるステップであって、前記曲線を平滑化するもの、
    を更に含む、請求項1に記載の方法。
  14. 前記ホモグラフィーは、前記画像にわたり平滑性を課し、前記ホモグラフィーは、前記画像内の地表平面に基づいている、請求項11に記載の方法。
  15. トランケートされた2次ペナルティが、前記曲線を平滑化するのに用いられる、請求項1に記載の方法。
  16. 移動する前記物体が車両であり、前記自由空間は、或るロケーションから別のロケーションに移動する前記車両の自律ナビゲーションに用いられる、請求項1に記載の方法。
  17. 移動する前記物体がボートであり、前記自由空間は、前記ボートを停泊又は係留中に操縦するのに用いられる、請求項1に記載の方法。
  18. 移動する前記物体が車両であり、前記自由空間は、前記車両の駐車支援に用いられる、請求項1に記載の方法。
  19. 移動する前記物体が屋内移動ロボットであり、前記自由空間は、前記屋内移動ロボットによって建物内の移動に用いられる、請求項1に記載の方法。
  20. 移動する前記物体が真空掃除ロボットであり、前記自由空間は、前記真空掃除ロボットによって用いられる、請求項1に記載の方法。
  21. 移動する物体の近傍の自由空間を推定する装置であって、
    シーンの画像のシーケンスを取得するために移動する前記物体上に配置された単眼カメラシステムと、
    前記単眼カメラシステムに接続されたプロセッサであって、
    1次元グラフとしてマルコフ確率場を作成し、前記グラフ内の各ノードは前記画像内のピクセルの列のための離散変数に対応し、
    前記画像内の特徴を求め、
    求められた前記特徴に基づいて前記一次元グラフ上にエネルギー関数を作成し、および
    動的計画法を用いて、前記エネルギー関数を最大にして曲線を取得し、前記曲線の下方のエリアが前記物体の近傍の前記自由空間を規定し、前記自由空間は、或るロケーションから別のロケーションに移動する前記物体の自律ナビゲーションに用いられる、
    ことができるものと、
    を備え、
    前記エネルギー関数は1変数および2変数のポテンシャル関数の和を有し、各ポテンシャル関数は、求められた特徴の中の対応する特徴とトレーニング画像のシーケンスから学習した対応する重みパラメーターを用いて求められる、
    移動する物体の近傍の自由空間を推定する装置。
JP2014261809A 2014-01-23 2014-12-25 移動する物体の近傍の自由空間を推定する方法および装置 Active JP6272217B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/162,370 US9305219B2 (en) 2014-01-23 2014-01-23 Method for estimating free space using a camera system
US14/162,370 2014-01-23

Publications (3)

Publication Number Publication Date
JP2015138550A JP2015138550A (ja) 2015-07-30
JP2015138550A5 JP2015138550A5 (ja) 2017-10-05
JP6272217B2 true JP6272217B2 (ja) 2018-01-31

Family

ID=53545066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014261809A Active JP6272217B2 (ja) 2014-01-23 2014-12-25 移動する物体の近傍の自由空間を推定する方法および装置

Country Status (2)

Country Link
US (1) US9305219B2 (ja)
JP (1) JP6272217B2 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104487864B (zh) 2012-08-27 2017-06-23 伊莱克斯公司 机器人定位系统
CN105101855A (zh) 2013-04-15 2015-11-25 伊莱克斯公司 具有伸出的侧刷的机器人真空吸尘器
WO2014169943A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner
CN105744872B (zh) 2013-12-19 2020-01-14 伊莱克斯公司 旋转侧刷的自适应速度控制
EP3082544B1 (en) 2013-12-19 2020-10-07 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
WO2015090397A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device
US9811089B2 (en) 2013-12-19 2017-11-07 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
EP3082542B1 (en) 2013-12-19 2018-11-28 Aktiebolaget Electrolux Sensing climb of obstacle of a robotic cleaning device
EP3084539B1 (en) * 2013-12-19 2019-02-20 Aktiebolaget Electrolux Prioritizing cleaning areas
US10617271B2 (en) 2013-12-19 2020-04-14 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
US10231591B2 (en) 2013-12-20 2019-03-19 Aktiebolaget Electrolux Dust container
CN106415423B (zh) 2014-07-10 2021-01-01 伊莱克斯公司 用于检测机器人清洁装置的测量误差的方法
KR20230042386A (ko) 2014-08-15 2023-03-28 에이아이, 아이엔씨. 레이더 전송을 위한 방법 및 시스템
US10729297B2 (en) 2014-09-08 2020-08-04 Aktiebolaget Electrolux Robotic vacuum cleaner
WO2016037635A1 (en) 2014-09-08 2016-03-17 Aktiebolaget Electrolux Robotic vacuum cleaner
WO2016091291A1 (en) 2014-12-10 2016-06-16 Aktiebolaget Electrolux Using laser sensor for floor type detection
CN114668335A (zh) 2014-12-12 2022-06-28 伊莱克斯公司 侧刷和机器人吸尘器
CN107003669B (zh) 2014-12-16 2023-01-31 伊莱克斯公司 用于机器人清洁设备的基于经验的路标
EP3234713B1 (en) 2014-12-16 2022-06-15 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
US9928430B2 (en) * 2015-04-10 2018-03-27 GM Global Technology Operations LLC Dynamic stixel estimation using a single moving camera
US11099554B2 (en) 2015-04-17 2021-08-24 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
WO2017033422A1 (ja) * 2015-08-21 2017-03-02 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
JP6736831B2 (ja) 2015-09-03 2020-08-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスのシステム、清掃デバイスを制御する方法、コンピュータプログラム及びコンピュータプログラム製品
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US10754015B2 (en) 2016-02-18 2020-08-25 Aeye, Inc. Adaptive ladar receiver
US10908262B2 (en) 2016-02-18 2021-02-02 Aeye, Inc. Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions
US9933513B2 (en) 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
KR102588486B1 (ko) 2016-03-15 2023-10-11 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치에서의 절벽 검출 실시 방법
WO2017173115A1 (en) * 2016-03-31 2017-10-05 Faraday&Future Inc. Camera based auto drive for auto charge
WO2017194102A1 (en) 2016-05-11 2017-11-16 Aktiebolaget Electrolux Robotic cleaning device
JP6660595B2 (ja) * 2016-06-07 2020-03-11 パナソニックIpマネジメント株式会社 駐車空間探索装置、プログラムおよび記録媒体
EP3264763A1 (en) * 2016-06-29 2018-01-03 Thomson Licensing Method and apparatus for improved significance flag coding using simple local predictor
EP3293668B1 (en) * 2016-09-13 2023-08-30 Arriver Software AB A vision system and method for a motor vehicle
DE112017006840B4 (de) * 2017-01-16 2023-11-02 Fujitsu Limited Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung
US10185028B2 (en) 2017-02-17 2019-01-22 Aeye, Inc. Method and system for ladar pulse deconfliction using delay code selection
US20180239969A1 (en) * 2017-02-23 2018-08-23 Ford Global Technologies, Llc Free Space Detection Using Monocular Camera and Deep Learning
US10726614B2 (en) * 2017-05-30 2020-07-28 Edx Technologies, Inc. Methods and systems for changing virtual models with elevation information from real world image processing
US11474533B2 (en) 2017-06-02 2022-10-18 Aktiebolaget Electrolux Method of detecting a difference in level of a surface in front of a robotic cleaning device
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
US10620638B2 (en) 2017-08-18 2020-04-14 Wipro Limited Method, system, and device for guiding autonomous vehicles based on dynamic extraction of road region
EP3682308B1 (en) 2017-09-15 2024-04-10 Aeye, Inc. Intelligent ladar system with low latency motion planning updates
EP3687357A1 (en) 2017-09-26 2020-08-05 Aktiebolaget Electrolux Controlling movement of a robotic cleaning device
DE102017123582A1 (de) * 2017-10-11 2019-04-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Region von Interesse in einem von einer Kamera eines Kraftfahrzeugs aufgenommenen Bild, Steuereinrichtung, Kamerasystem sowie Kraftfahrzeug
DE102017223206A1 (de) 2017-12-19 2019-06-19 Robert Bosch Gmbh Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden
DE102018202244A1 (de) * 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
KR102054926B1 (ko) * 2018-02-27 2019-12-12 주식회사 만도 Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
US11733387B2 (en) 2018-10-25 2023-08-22 Aeye, Inc. Adaptive ladar receiver control using spatial index of prior ladar return data
US10311324B1 (en) * 2018-10-26 2019-06-04 StradVision, Inc. Learning method, learning device for detecting objectness by detecting bottom lines and top lines of nearest obstacles and testing method, testing device using the same
JP7103202B2 (ja) * 2018-12-20 2022-07-20 株式会社デンソー 画像認識装置
US10656272B1 (en) 2019-04-24 2020-05-19 Aeye, Inc. Ladar system and method with polarized receivers
FI20195678A1 (fi) * 2019-08-14 2021-02-15 Ponsse Oyj Menetelmä ja järjestelmä metsäkoneessa
US11586861B2 (en) 2019-09-13 2023-02-21 Toyota Research Institute, Inc. Embeddings + SVM for teaching traversability
US11378967B2 (en) * 2019-09-25 2022-07-05 Baidu Usa Llc Enumeration based failure prevention QP smoother for autonomous vehicles
KR102177614B1 (ko) * 2020-01-09 2020-11-12 렉스젠(주) 교통 정보 수집을 위한 차로 생성 시스템 및 그 방법
US11604264B2 (en) 2021-03-26 2023-03-14 Aeye, Inc. Switchable multi-lens Lidar receiver
US20220317249A1 (en) 2021-03-26 2022-10-06 Aeye, Inc. Hyper Temporal Lidar with Switching Between a Baseline Scan Mode and a Pulse Burst Mode
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US20220308187A1 (en) 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar Using Multiple Matched Filters to Determine Target Retro-Reflectivity
US11686845B2 (en) 2021-03-26 2023-06-27 Aeye, Inc. Hyper temporal lidar with controllable detection intervals based on regions of interest
US11630188B1 (en) 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11460553B1 (en) 2021-03-26 2022-10-04 Aeye, Inc. Hyper temporal lidar with dynamic laser control using different mirror motion models for shot scheduling and shot firing
DE102021117223A1 (de) 2021-07-05 2023-01-05 Connaught Electronics Ltd. Bestimmen eines Freiraums auf einer Straße in einem Umfeld eines Fahrzeugs

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288543A (ja) * 1992-04-07 1993-11-02 Fujitsu Ltd 視覚情報と触覚情報とを統合した認識装置
US6356664B1 (en) * 1999-02-24 2002-03-12 International Business Machines Corporation Selective reduction of video data using variable sampling rates based on importance within the image
JP2001103470A (ja) * 1999-09-29 2001-04-13 Canon Inc 領域分割装置及び方法並びに記憶媒体
KR100391442B1 (ko) * 2000-12-27 2003-07-12 현대자동차주식회사 차선 이탈 방지용 영상 처리방법
US7412107B2 (en) * 2004-12-17 2008-08-12 The Regents Of The University Of California, Santa Cruz System and method for robust multi-frame demosaicing and color super-resolution
US7539557B2 (en) 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
US9275465B2 (en) * 2006-04-18 2016-03-01 Ge Healthcare Bio-Sciences Corp. System for preparing an image for segmentation
EP2153419A4 (en) 2007-05-15 2011-12-07 Lg N Sys Inc DEVICE FOR MEDIA RECOGNITION AND METHOD FOR MEDIA DISTINCTION THEREWITH
US8332134B2 (en) * 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
US8487993B2 (en) * 2009-07-29 2013-07-16 Ut-Battelle, Llc Estimating vehicle height using homographic projections
JPWO2011155123A1 (ja) * 2010-06-07 2013-08-01 株式会社日立ハイテクノロジーズ 観察画像の分類基準の最適化方法、および画像分類装置
US8432434B2 (en) * 2011-07-08 2013-04-30 Mitsubishi Electric Research Laboratories, Inc. Camera and method for focus based depth reconstruction of dynamic scenes
US8195394B1 (en) 2011-07-13 2012-06-05 Google Inc. Object detection and classification for autonomous vehicles
US9275472B2 (en) * 2011-11-18 2016-03-01 Disney Enterprises, Inc. Real-time player detection from a single calibrated camera
US10008002B2 (en) * 2012-02-28 2018-06-26 NXP Canada, Inc. Single-camera distance estimation
US20140071240A1 (en) * 2012-09-11 2014-03-13 Automotive Research & Testing Center Free space detection system and method for a vehicle using stereo vision

Also Published As

Publication number Publication date
JP2015138550A (ja) 2015-07-30
US20150206015A1 (en) 2015-07-23
US9305219B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
JP6272217B2 (ja) 移動する物体の近傍の自由空間を推定する方法および装置
KR102566724B1 (ko) 항만 모니터링 장치 및 항만 모니터링 방법
US10366538B2 (en) Method and device for illustrating a virtual object in a real environment
CN108985171B (zh) 运动状态估计方法和运动状态估计装置
Muhovič et al. Obstacle tracking for unmanned surface vessels using 3-D point cloud
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
Yao et al. Estimating drivable collision-free space from monocular video
US9390560B2 (en) Method and device for illustrating a virtual object in a real environment
CN112184589B (zh) 一种基于语义分割的点云强度补全方法及系统
Siegemund et al. A temporal filter approach for detection and reconstruction of curbs and road surfaces based on conditional random fields
EP3686775B1 (en) Method for detecting pseudo-3d bounding box based on cnn capable of converting modes according to poses of objects using instance segmentation
WO2014114923A1 (en) A method of detecting structural parts of a scene
JP2010282615A (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
CN111091038A (zh) 训练方法、计算机可读介质和检测消失点的方法及装置
Rangesh et al. Ground plane polling for 6dof pose estimation of objects on the road
Guo et al. Robust road boundary estimation for intelligent vehicles in challenging scenarios based on a semantic graph
Surgailis et al. Avoiding forward car collision using stereo vision system
Catalin et al. Object tracking from stereo sequences using particle filter
Bullinger et al. 3D object trajectory reconstruction using stereo matching and instance flow based multiple object tracking
Guo et al. Semantic-based road environment recognition in mixed traffic for intelligent vehicles and advanced driver assistance systems
Martinez et al. Map-based lane identification and prediction for autonomous vehicles
Qin Autonomous environment and target perception of underwater offshore vehicles
Barrozo et al. Simulation of an Autonomous Vehicle Control System Based on Image Processing
Bigorgne et al. Backward segmentation and region fitting for geometrical visibility range estimation
Kim et al. Depth estimation with manhattan world cues on a monocular image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170823

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R150 Certificate of patent or registration of utility model

Ref document number: 6272217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250