JP5782088B2 - 歪みのあるカメラ画像を補正するシステム及び方法 - Google Patents

歪みのあるカメラ画像を補正するシステム及び方法 Download PDF

Info

Publication number
JP5782088B2
JP5782088B2 JP2013225264A JP2013225264A JP5782088B2 JP 5782088 B2 JP5782088 B2 JP 5782088B2 JP 2013225264 A JP2013225264 A JP 2013225264A JP 2013225264 A JP2013225264 A JP 2013225264A JP 5782088 B2 JP5782088 B2 JP 5782088B2
Authority
JP
Japan
Prior art keywords
image
warping
optical flow
images
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013225264A
Other languages
English (en)
Other versions
JP2014137815A (ja
Inventor
ディグメーラー ヨルク
ディグメーラー ヨルク
アイネッケ ニル
アイネッケ ニル
エガート ジュリアン
エガート ジュリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2014137815A publication Critical patent/JP2014137815A/ja
Application granted granted Critical
Publication of JP5782088B2 publication Critical patent/JP5782088B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、自己運動(ego-motion)に起因するオプティカルフローを算出するための画像処理方法及び光(視覚)センサシステム、特にカメラシステムに関する。特に、本発明は、光センサから与えられる複数画像/画像ストリームからオプティカルフローを決定/算出するよう適合されたセンサシステムを備える乗り物、特に、陸上用、航空用、又は海洋用の乗り物に関する。
本センサシステムは、カメラ(CCD、CMOS、...)、レーザスキャナ、赤外線センサ等の、少なくとも一つの光センサを備える。この視覚センサは、画像を生成し、これらの画像を処理ユニットへ、例えば画像のストリームとして送信する。本光センサは、例えばステレオカメラとすることができる。
処理ユニットは、画像を処理して、上記少なくとも一つの光センサから与えられた画像から画像情報を引き出す。処理ユニットは、光センサシステムの一部とすることもできるが、センサシステムから離れた位置に置かれるものとすることもできる。例えば、画像ストリームは、カメラベースのストリーム記録システムから処理ユニットへ送信されて処理されるものとすることができる。
自己運動は、視覚センサにより画像シーケンスを取得している間の、環境内における当該視覚センサの動きの推定に関連する。環境内での視覚センサの動きを推定する処理は、運動する視覚センサにより撮像された画像のシーケンスにビジュアルオドメトリ技術(visual odometry technique)(システムの位置と方向を、関連するカメラ画像を解析することにより特定する処理)を用いて行うことができる。これは、通常、特徴検出を用いて、一つ又は複数の視覚センサから生成された画像シーケンス又は画像ストリームに含まれる2つの画像フレームから、オプティカルフローを構成することにより行われる。各(時間)フレームのステレオ画像ペア(複数)を用いることは、誤差を低減し、追加的な奥行きとスケールに関する情報を出力するのに役立つ。
第1のフレームから特徴(features)が検出され、次に、第2のフレームにおいてマッチングが行われる。次に、この情報を用いて、2つの画像において検出された特徴についてのオプティカルフローが推定される。カメラ軸に沿う前方への動きの場合には、オプティカルフローフィールドは、これらの特徴が単一点すなわち消失点(focus of expansion)からどのように発散するかを表すものとなる。この消失点は、オプティカルフローフィールドから検出することができる。この消失点は、カメラの運動の方向を示しており、したがってカメラ運動の推定を与えるものである。
オプティカルフローは、基本的には、画像シーケンス内の全部又は一部のピクセルの運動方向及び又は運動速度を表す変位ベクトルフィールドであり、処理ユニットにより、少なくとも一つの視覚センサにより与えられる連続した画像間でのピクセル又は画像パッチの相関計算を行うことで算出される。
相関は、その前に撮影された1枚の画像からの複数のピクセル又は複数のパッチを、当該画像に対し時間的に続いて撮影された他の画像からの複数のパッチ又は複数のピクセルと比較することにより算出される。
非特許文献1には、最新のオプティカルフロー推定についての概要と論評が記載されている。
非特許文献2には、勾配に基づくオプティカルフロー技術(gradient-based optical flow technique)に粗密戦略(coarse-to-fine strategy)を適用する手法が記載されている。勾配に基づくオプティカルフロー技術は、その探索範囲が数個のピクセルに限定されるという大きな問題を抱えている。したがって、検出できるのは非常に小さな運動のみである。この問題を軽減するため、複数の画像解像度を用いてオプティカルフローが計算される。画像解像度が小さい状態においては、はっきりと判る運動は非常に小さく、勾配に基づくオプティカルフロー法が適用できる。この情報は、その後、ワーピングにより次の解像度に伝えられる。したがって、粗密ワーピング(coarse-to-fine warping)により、横方向運動を低減させることで、勾配に基づくオプティカルフローをより大きな運動に対して適用することが可能となる。
オプティカルフローを決定することは、例えば、図1に例示的、概要的に示した車両1のように、車両乗員からの計画的な介入が行われることなく開始点から目的地まで移動するような自律車両又は半自律車両においては、特に重要である。開始点から目的地までの移動経路上では、自律車両は、その途中において、自身の移動経路を交通状態に自動的に適合させる。
自身の環境を知覚するため、自律車両は、通常、当該環境を感知するための複数のセンサを備え、少なくとも一つの光センサを含む少なくとも一つの光センサシステム2を備えてる。基本的には、この場合の「感知」とは、自律車両が、当該センサから与えられるデータを処理ユニット3により処理して、環境についての象徴的側面を表すパラメータを導出することを意味する。また、導出されたパラメータは、当該環境についての当該車両の視野像(view)を構成する。
自律車両1は、上記パラメータを継続的に監視し、当該パラメータに基づいて決定を行う。すなわち、計算又はパラメータ比較の結果により、指定された処理の実行が行われる。決定は、当該パラメータが特定の制約条件又は閾値に達したときに行われる。種々の数多くの決定を行うことができるが、自律移動においては、当該車両の動きの変化を引き起こすこととなる決定が重要となる。そのような決定は、他の交通参加者に影響を与えるためである。
動きを変化させるために、車両1は、通常、ステアリングを動かしたり、当該車両を加速し又は減速したり(ブレーキをかけたり)、及び又は乗員と通信するための、少なくともアクチュエータを備えている。決定が行われると、すなわち処理が開始されると、自律車両1は、それぞれの処理に規定されたステップ、計算、及び又は比較処理に従って、アクチュエータを作動させる。
視覚センサの少なくともいくつかは、画像シーケンスを生成するために用いられるカメラとすることができ、当該生成された画像シーケンスは、ナビゲーションを強化して自律車両1の移動経路内にある障害物/物体を回避するための、オプティカルフロー計算に用いられる。
車両の移動経路内に障害物/物体が検出された場合に必要となるアクションを決定するためには、その物体が移動物体か静止物体かを特定することが重要である。例えば、自律車両が自動車である場合には、移動物体は、通常、他の自動車、トラック、オートバイ、自転車、歩行者等である。他の事例として、自律式芝刈り機の場合には、移動物体は、移動する人間や動物であり得る。
車両の自己運動に起因するオプティカルフローを算出できるときは、視覚センサシステム2から与えられるデータ内で移動する物体の影響を特定することも可能であり、したがって、移動物体を検出してその動きを追跡することが可能である。
Deqing Sun, Stephan Roth, Michael J. Black (2010). Secrets of optical flow estimation and their principles. IEEE Conf. on Computer Vision and Pattern Recognition. Thomas Brox, Andres Bruhn, Nils Papenberg, Joachim Weickert (2004). High Accuracy Optical Flow Estimation Based on a Theory for Warping. European Conference on Computer Vision.
例えば視覚センサシステムを備える車両の自己運動に起因するオプティカルフローを、画像のシーケンスを用いて算出する場合においては、その画像シーケンス内の画像が歪んでいるとオプティカルフローを正しく算出することができないという問題が存在する。
したがって、本発明は、歪みを含んだ画像からのオプティカルフローの算出性能を向上する方法及びシステムを提供する。
一の態様は、画像のシーケンスを処理するための画像処理方法である。本方法は、光センサ(ステレオセンサシステム等のマルチセンサシステムを含む)から前記画像のシーケンスの少なくとも2つの画像を取得するステップと、前記画像の一つが歪みを含むか否かを判断する任意選択のステップと、前記画像の少なくとも一つの画像内の歪みを少なくとも部分的に補償する画像ワーピングファンクションを決定するステップと、前記少なくとも一つの画像に前記決定したワーピングファンクションを適用して当該画像を変形することにより前記歪みを少なくとも部分的に補償するステップと、前記変形した画像及び前記少なくとも2つの画像のうちの他の画像から、オプティカルフローを変位ベクトルフィールドとして算出して出力するステップと、を有する。
前記フローフィールドは、前記ワーピングファンクションの適用により導入されたシフト量を減算することにより補正されるものとすることができる。
前記オプティカルフローは、一方の画像のパッチを他の画像とマッチングさせることにより算出されるものとすることができる。
前記ワーピングファンクションは、前記視覚センサにより記録されたシーンに関する仮定、即ち、予め記憶された演繹的な知識と、視覚システムの運動に関する知識から決定される。
前記ワーピングファンクションは、例えば光センサにより与えられる前記歪みの原因である運動を表す運動情報から決定されるものとすることができる。
前記歪みは、運動歪み及び又はレンズ歪みとすることができる。
複数の画像ワーピングファンクションを、前記歪みを含む画像(単数)に適用するものとすることができる。
前記画像ワーピングファンクションは、前記少なくとも2つの画像の一つに適用される。
前記方法は、1回の実行毎に異なる画像ワーピングファンクションを同じ画像に対して適用して複数回実行されるものとすることができ、複数のオプティカルフローの算出結果を結合させて、一つのオプティカルフロー、すなわち、一つの変位ベクトルフィールドとすることができる。
画像ワーピングファンクションを適用した画像からのオプティカルフローの計算に加えて、画像ワーピングファンクションを適用していない画像から第2のオプティカルフローを算出し、二つのオプティカルフロー算出結果を結合させることができる。
前記画像ワーピングファンクションは、その前に行われたオプティカルフロー計算から決定するものとすることができる。
前記画像ワーピングファンクションは、予め決定された固定された画像ワーピングファンクション、アフィン・ワーピングファンクション、及び又はホモグラフィとすることができる。
画像内の物体及び又は移動物体を、オプティカルフローに基づいて検出することができる。これは、オプティカルフローを、例えばフローが一様に又は連続的に見える空間領域にセグメント化又はクラスタ化することにより行うことができる。例えば、フロントパラレルな平面のフローは、放射状に拡大するベクトルフィールドに似ており、画像内で特定することが可能である。同様に、接近してくる自動車は、それらが持つ特徴的なフローフィールドによってセグメント化することができる。
第2の態様は、少なくとも一つの視覚センサを備えるセンサシステムである。本センサシステムは、
画像のシーケンスを供給する手段と
前記視覚センサから前記画像のシーケンスの少なくとも2つの画像を取得する手段と、
前記画像(複数)が歪みを含んでいるか否かを判断する任意選択の手段と、
前記画像(複数)の少なくとも一つの画像内の歪みを少なくとも部分的に補償する画像ワーピングファンクションを決定する手段と、
前記少なくとも一つの画像に前記決定したワーピングファンクションを適用して当該画像を変形することにより前記歪みを少なくとも部分的に補償し、且つ、当該変形した画像及び前記少なくとも2つの画像の他の画像から、オプティカルフローを変位ベクトルフィールドとして算出して出力する処理手段と、
を備える。
任意選択として、本システムは、前記少なくとも2つの画像の一つが歪みを含むか否かを判断する手段を備えることができる。
前記オプティカルフローは、前記ワーピングファンクションに起因して導入されたシフト量を減算することにより補正されるものとすることができる。
前記処理は、計算を行い、画像が歪んでいる場合には当該歪みを補償するよう算出したワーピングファンクションを前記歪みを含む画像に適用するものとすることができる。
前記システムは、前述において概説した方法を実行するものとすることができる。
さらに他の態様によると、本発明は、前述において概説したセンサシステムを備えた陸上用、航空用、海洋用、又は宇宙用の乗り物を提供する。
前記乗り物は、ロボット若しくはオートバイ、スクータ、その他の車輪を備えた乗り物、乗用自動車、又は芝刈り機とすることができる。
更に他の態様によると、本発明は、上記において定義したセンサシステムを備えた車両用(乗り物用)運転者支援システムを提供する。
更に他の態様によると、本発明は、コンピュータで実行されたときに、上記において概説した方法を実行する、コンピュータプログラム製品である。
自律車両の一例を模式的に示す図である。 第1画像の一例と、当該第1画像の非並進変換により得られる第2画像を示す図である。 図2に示す画像を上段に示し、当該画像をワーピングして得られる第2画像を下段に示した図である。 本発明の主要なステップの概略を示す図である。
以下では、図面を参照しつつ本発明について説明する。
本発明は、視覚センサシステム、特にカメラを用いたストリーム記録システムにおけるオプティカルフロー推定の性能を向上するものである。特に、本視覚センサシステムは、図1にその一例を概略的に示したように、車両の一部、より詳細には自律車両又は半自律車両の一部である。
オプティカルフローを推定するためには、時間的に前にある(第1)画像と、時間的に続いた(第2)画像との間で、対応関係にある画像ピクセルを見つけ出す必要がある。このピクセルの対応関係は、或る探索範囲を用いて探索される。すなわち、第1画像のピクセル位置x、yから開始して、第2画像における同じ位置の近接部分を探索する。オプティカルフロー計算のコストは探索範囲に依存するので、探索範囲は小さいほうが有利である。
最も基本的な仮定は、第2画像のパッチが、同じピクセル値を持ちつつ第1画像のパッチが平行移動したものであって、第1画像の位置x,yの周辺のピクセルは、第2画像の位置x’,y’の周辺のピクセルと、(x,y及びx,yの周辺のピクセル値が一致しているという観点において)同じ構造を示している、というものである。
パッチが矩形である場合、これらの手法はブロックマッチング手法と称される。結果として得られる各ピクセル位置についての変位ベクトルx’−x、y’−yは、第1画像から第2画像に至るまでに、どのピクセルがどの新しい位置へ動いたかを示すオプティカルフローフィールドを構成する。
その後、オプティカルフローフィールドに対し、例えば視界内で並進する物体の一様(coherent)なフローフィールド(当該物体の全ての位置に同じフローベクトルが存在)のような、ある一定の形態の一様なフローを持つエリアを探索することにより、物体運動についての分析が更に行われるものとすることができる。オプティカルフローの品質は、自己運動特定の品質を左右するほか、例えば車両の移動経路内の移動物体の検出、及び又は物体運動の推定の品質を左右する非常に重要なファクタである。
オプティカルフロー計算のため、パッチ比較が行われる探索範囲分の並進変換が2つの画像間で行われる。通常、第1画像と第2画像の相対応するパッチの構造は同じであるという仮定、即ち、これらの相対応するパッチは互いに並進したものであるという仮定が為される。しかしながら、それらの画像パッチが、互いに並進したものとは言えない場合がある。特に、画像の一つが、非並進変換、例えば回転変換を受けている場合には、それらのパッチは互いに対し並進変換されたものではないので、標準的なパッチ整合手法ではうまくいかない。
その一例として、画像回転の場合の例を図2に示す。
図2の上段には、1枚の画像を回転した2つの画像が示されている。カメラの光軸が回転した場合には、このようなことが発生する。第2画像は、第1画像に対して半時計方向に90°回転している。図2の下段には、中央部分のパッチが示されている。これらのパッチは互いに対して回転したものであるので、これらのパッチのピクセルベースの相関検出はうまくいかない。
パッチベースの対応関係探索を実際に行う前に、第1画像又は第2画像のいずれかに全体的な画像ワープファンクションを適用してパッチ回転を補償すれば、パッチベースの対応関係探索をうまく機能させることができる。この画像ワーピングは、見え方の影響、あるいは自己運動により誘発された見た目の変化の影響を少なくとも軽減して、パッチベースの対応関係探索における相関計算の誤りや失敗を回避する(ワーピングファンクションの選択肢については後述する)。
「画像をワーピングする」とは、変形された画像(warped image)が変形されていない画像を歪ませたものとなるように、画像に対して幾何学的歪みを与えることを意味する。数学的には、ワーピングされた画像の位置x,yにおけるピクセル値Iwarpedが、ワーピングされていない画像Iの元の位置x,yにおけるピクセル値から得られるように、ピクセル値I(x,y)に対して次の(1)式に示す関数を適用することで行われる。
Figure 0005782088
ここで、位置変換は、関数ω(しばしば、線形/アフィン関数と称される)を用いて、次の(2)式で与えられる。
Figure 0005782088
図3には、図示下段に、第1画像とワーピングされた第2画像(反対方向へ90°回転して戻したもの)との比較の一例、及び、それらの対応するパッチ間の比較の一例が示されている。
第1画像とワーピングされた第2画像とのパッチ比較から得られたオプティカルフローのオプティカルフロー値(変位ベクトル)は、ワーピングの影響を受けているので、そのワーピングの影響を、それぞれの位置x,yにおいて算出されたオプティカルフローから減算しなければならない。これは、ワーピングx−x,y−yによるシフト量を、フローフィールド
Figure 0005782088
から減算することにより行われ、最終的な正しいフローフィールドは、次の式(3)となる。
Figure 0005782088
オプティカルフロー計算のためのワーピングモデルのソースは、複数とすることができる。直裁的な方法の一つは、上述した例におけるカメラ回転などの、カメラの運動を検出する追加のセンサを用いて、どのワーピングを用いるべきかを推定することである。すなわち、センサにより、カメラがどのように運動するか/したかについての情報が提供される。この情報は、当該運動に起因する撮像画像における歪みを補償するのに必要なワーピングを示している。他の方法は、運動推定の手法を用いて、ワーピングされていない画像(複数)、又はその前の時間ステップにおいて取得された画像(複数)から、直接的に、(アフィンモデルやホモグラフィのような)パラメトリック・ワーピングモデルを推定することである。
ワーピングファンクションを推定する簡単な方法は、画像センサにより記録されたシナリオ(例えば、地面を一定速度で移動する車両)に関する固定的な仮定を用いることである。この知識から、理論的に予測されるフローを計算することにより、ワーピングファンクションを導出することができる。
考慮すべき一つの事項は、ワーピングモデルに従わないピクセルの空間関係が、画像ワーピングによって劣化してしまう場合があるということである。この場合には、例えば、そのワーピングモデルが適合すると予想される画像部分に、当該モデルを適用するものとすることができる。
その一例は、車両が地面を移動するときに生成されるオプティカルフローである。この場合、地面に関して予想されるワーピングモデルが導出され得るが、当該ワーピングモデルは、地平線より下の画像エリアに適合し、それより上のエリア(例えば空)には適合しないと予想することができるので、地面が見えている画像部分についてのみ適用される。モデルが適合するか否かは、各ピクセル位置x,yでのパッチ比較で得られた値から直接的に判断することができる。
他の方法は、異なる複数のワーピングモデルを用いて複数のオプティカルフロー計算を行い、異なる複数の補正されたオプティカルフロー算出結果を結合し、ピクセル毎に最適/最良のピクセルを選択して一つの統合されたオプティカルフローを得ることである(「最適」性は、例えば信頼度値やマッチングスコアにより評価することができる)。複数のワーピングモデルの一つのインスタンスは、ヌルモデル(すなわち、ワーピングを行わない元画像)とすることができる点に注意されたい。
異なる複数のワーピングモデルから得られた複数のオプティカルフロー算出結果を一つのオプティカルフローへの統合する処理は、各ピクセルについて、最も高い信頼度値、従って最も良好な相関値を有するフローを選択することにより行うことができる。
全体として、オプティカルフローに関する本発明は、以下に示す方法に要約することができる。
−第1:カメラから画像(第1画像及び第2画像)を取得する。
−第2:前記カメラ画像の少なくとも一方(例えば第2画像)に、画像ワーピングファンクションを適用して、ワーピングモデルに従うワーピング(変形)を施す。
−第3:標準的なパッチベースのオプティカルフロー計算アルゴリズムを用いて、第1画像から第2画像(そのうちの一方はワーピングされている)への変位フィールドを算出する。
−第4:第2画像のワーピングにより導入されたシフト量を減算して、前記変位フィールドを補正する。
図4に、これらの基本ステップをフローチャートとして示す。
まとめると、本方法により、オプティカルフロー推定の応用分野において、ステレオ画像のワーピングを行わない通常のステレオ処理に比べて、より正確なオプティカルフローフィールドを算出することができる。これは、例えば異なるカメラが異なる視野を持つことに起因して発生し相関関係の発見プロセスを妨害する画像変形を補正することにより達成される。その結果、オプティカルフロー推定の精度、及びその後に行われる物体認識などの処理ステージの精度が、向上する。
オプティカルフローの計算は、パッチベースのマッチング手法を用いて行うことができる。パッチベースのマッチング手法では、正規化相互相関の和を相関尺度として用いることができる(相互相関は、例えば欧州特許出願番号第10162822号明細書に定義が記載されている)。ワーピングモデルは、カメラ運動情報から推定することができる。カメラ画像は、これに加えて又はこれに代えて、レンズ歪みが補正されるものとすることができる。これも、オプティカルフローを改善するために実行される。予め定義されたワーピングファンクションを適用してレンズ歪みを補償することができる。複数のワーピング(例えば、レンズ歪み用のワーピングと運動歪み用のワーピング、及び又は歪みを補正するための複数のワーピング)を用いて、一つのカメラ画像にワーピングを行うものとすることができる。
本方法は、1回の実行毎に同じ画像に対し異なる画像ワーピングファンクションを適用して複数回実行することができ、複数の補正されたオプティカルフローの算出結果を結合させ、例えば相関値を信頼度値として用いて、上述したように各ピクセルについて最良フローを選択することにより、一つのオプティカルフローを得るものとすることができる。
ワーピングした画像からのオプティカルフロー計算に加えて、ワーピングしていないカメラ画像からのオプティカルフロー計算を実行し、2つの計算結果を合成して各ピクセルについての最良値を選択し、最終的な結果を得るものとすることができる。最良のオプティカルフロー値は、より良好な相関値を持つ値とすることができる。相関値は、通常、最新の正規化相互相関又はこれと同様の手法を用いて2つのパッチ間で算出される。
現在の画像フレームについてのワーピングモデルは、最後のオプティカルフロー画像又は、直近のタイムステップ(複数)で算出されたオプティカルフロー(複数)のセットから、推定することができる(例えば、線形位置変換関数ωを選択し、或る距離関数、例えばユークリッド距離に従い、直近のタイムステップ(複数)でのオプティカルフローに対して今回得られるオプティカルフローが密に近似するように、関数ωのパラメータを推定する)。当該ワーピングモデルは、演繹的に与えられて固定されるものとすることができる。本ワーピングモデルは、アフィンモデルとすることができる。本ワーピングモデルは、一般的なホモグラフィとすることができる。オプティカルフローの計算結果を用いて、一つ又は複数のカメラにより観測されたシーン内の物体又は移動物体を検出することができる。
適用可能な他の用途は、衝突警告などのドライバ支援システム、又はクルーズコントロールである。例えば、移動物体検出の向上により、ブレーキングや回避操縦をより良好に推定したり、最適走行経路をより良好に算出することができる。他の応用分野はロボットシステムであり、当該分野では改善されたオプティカルフロー推定が物体検出に用いられる。
他の用途は、自律式芝刈り機である。この用途では、移動物体認知の向上により、庭を利用する人を傷つけたり煩わすことのない予測的な経路計画が可能となる。
さらに、本発明は、ロボティクスを含む他の種々の分野や、人間のオペレータを支援するために設計されたシステムを一般的に含む陸上用、海洋用、空中用の乗り物用のシステムにも用いることができる。ここに開示した方法及びシステムは、一般に、技術的システム(例えば電気的システム)が、当該システムに与えられた、観測された移動経路に生ずる特徴、及び又は物体の特性(例えば、サイズ、距離、他の物体までの相対的/絶対的な位置、空間配置、相対的な動き、速度、及び又は方向、及びその他の関連する物体特徴又は特徴パターン)を自律的に扱わなければならないときには、いつでも用いることができる。
取得された情報(観測値)を処理するため、本発明は、処理モジュール3を用いた分析手段を用い及び備え、及び又はニューラルネットワークを適用する。ニューラルネットワークは、一般に、観測値から情報を推測するのに用いることができる。ニューラルネットワークは、解決すべき問題についての演繹的な知識を全く又はほとんど用いることなく機能し、且つ耐障害性の高い振る舞いを示す。例えば特徴同定、制御(車両制御、プロセス制御)、意思決定、人工視覚、及び又はパターン認識(顔認識、物体認識、ジェスチャー認識、音声認識、文字及びテキスト認識)などに関連する問題が扱われる。ニューラルネットワークは、ニューロンの集合と、シナプスの集合で構成される。シナプスは、ニューロンに結合し、重みと称されるパラメータに情報を保存する。これらの情報は、ニューラルネットワークが行う変換(transformation)や、学習プロセスに用いられる。
通常、観測を行うため、入力信号又は入力パターンが、検出手段2から入力され、ハードウェアユニット、及び又はソフトウェアコンポーネントを用いて処理される。出力信号又は出力パターンが取得され、これらの出力は更なる処理(例えば視覚化処理)のための他のシステムへの入力となり得る。
入力信号は、移動に影響を与える検出された特徴物についての情報を含むことができる。この入力信号は、一つ又は複数のセンサ(例えば、上述した視覚検出手段2)により与えられるものとすることができるが、ソフトウェアインタフェース及び又はハードウェアインタフェースにより与えられるものとすることもできる。出力パターンも、ソフトウェアインタフェース及び又はハードウェアインタフェースを介して出力されるものとすることもできるし、車両の動きや振る舞いに影響を与えるための他の処理モジュール3や作用装置(actor)(例えば、パワーステアリング制御やブレーキ制御装置)に、送信されるものとすることもできる。
本発明に求められる、評価、処理、保守、調整、及び実行(例えば、移動変更コマンドや作動コマンドの実行)に必要な計算及び変換は、処理モジュール3により実行されるものとすることができる。処理モジュール3は、例えば一つ又は複数のプロセッサ(CPU)、信号処理ユニット、又は、その他の処理や計算を行うハードウェア及び又はソフトウェアであり、これらは、並列処理を行うように適合されるものとすることもできる。処理及び計算は、標準的な既製(オフザシェルフ、off the shelf、OTS)のハードウェアコンポーネント、又は専用に設計されたハードウェアコンポーネントにより実行されるものとすることができる。プロセッサのCPUは、計算を実行するものであり、メインメモリ(RAM、ROM)、制御ユニット、及び演算論理ユニット(ALU)を含むことができる。当該プロセッサは、専用のグラフィックプロセッサと通信するものとすることができる。このグラフィックプロセッサは、必要な計算のための専用メモリと処理能力を提供するものとすることができる。
通常は、データメモリも備えられる。データメモリは、取得された情報及び又はデータや、処理・決定・結果出力に必要とされる情報及び又はデータを保存するのに用いられる。保存された情報は、本発明に必要な他の処理手段、ユニット、又はモジュールにより使用されるものとすることができる。当該メモリは、また、イベントに関連する観測値や、当該観測値から推論された知識であって将来のイベントに対する動作や反応に影響を与える知識の保存や記憶を可能とする。
本メモリは、ハードディスク(SSD、HDD)、RAM及び又はROMなどのデバイスにより提供されるものとすることができ、フロッピーディスク、CD−ROM、テープ、USBドライブ、スマートカード、ペンドライブ等の他の(持ち運び可能な)記憶媒体により補われるものとすることができる。したがって、本発明に従う方法をコード化したプログラムや、本発明のシステム及び又は方法の実施において取得され、処理され、学習され、又は必要とされるデータを、それぞれの記憶媒体に保存しておくことができる。
特に、本発明に記載された方法は、(例えば持ち運び可能な)物理的な記憶媒体に保存されたソフトウェアプログラム製品として提供されるものとすることができる。当該記憶媒体は、処理システムや処理デバイスに本発明に係る方法を実行するよう指示すべく、当該プログラム製品を当該システムやデバイスに転送するのに使用される。さらに、本方法は、処理デバイスに直接的に組み込むこともできるし、処理デバイスとの組み合わせとして実施することもできる。
上述の事項は、本発明のこれら実施形態にのみ関連するものではなく、特許請求の範囲に示された本発明の範囲から逸脱することなく、これらの実施形態に対し多くの変更や改変を行い得るものと理解されたい。

Claims (23)

  1. 画像のシーケンスを処理する方法であって、
    光センサから前記画像のシーケンスの少なくとも2つの画像を取得するステップと、
    前記光センサの運動情報及び又は前記シーケンスに含まれる画像の画像情報を含む追加の情報に基づいて、前記少なくとも2つの画像のうちの少なくとも一つの画像の歪みを少なくとも部分的に補償するためのワーピングモデルを決定するステップと、
    前記決定されたワーピングモデルに従って記少なくとも一つの画像内の歪みを少なくとも部分的に補償する画像ワーピングファンクションを決定するステップと、
    前記少なくとも一つの画像に前記決定したワーピングファンクションを適用して、当該画像を変形することにより前記歪みを少なくとも部分的に補償するステップと、
    前記変形した画像及び前記少なくとも2つの画像のうちの他の画像から、オプティカルフローを変位ベクトルとして算出して出力するステップと、
    を有する方法。
  2. 前記補償するステップでは、前記少なくとも一つの画像のうち前記決定されたワーピングモデルが適合すると予想される画像部分に、前記決定された画像ワーピングファンクションが適用される、
    請求項1に記載の方法
  3. 前記オプティカルフローは、前記ワーピングファンクションの適用により導入されたシフト量を減算することにより補正され、及び又は、前記方法は、前記少なくとも2つの画像の一つが歪みを含むか否かを判断するステップを有する、請求項1又は2に記載の方法。
  4. 前記オプティカルフローは、一の画像のパッチを他の画像とマッチングすることにより算出される、請求項1ないし3のいずれか一項に記載の方法。
  5. 前記ワーピングファンクションは、前記センサにより記録されたシーンについての仮定と、視覚システムの運動についての知識から決定される、請求項1ないしのいずれか一項に記載の方法。
  6. 前記ワーピングファンクションは、視覚システムのセンサにより与えられる前記歪みの要因である運動を示す運動情報から決定される、請求項1ないしのいずれか一項に記載の方法。
  7. 前記歪みは、運動歪み及び又はレンズ歪みである、請求項1ないしのいずれか一項に記載の方法。
  8. 複数のワーピングファンクションが前記歪みを含む前記画像に適用される、請求項1ないしのいずれか一項に記載の方法。
  9. 前記画像ワーピングファンクションは、前記少なくとも2つの画像の一つに適用される、請求項1ないしのいずれか一項に記載の方法。
  10. 前記方法は、1回の実行毎に異なる画像ワーピングファンクションを同じ前記画像に適用して複数回実行され、複数のオプティカルフローの算出結果が結合されて一つのオプティカルフロー、すなわち単一の変位ベクトルフィールドが生成される、請求項1ないしのいずれか一項に記載の方法。
  11. 前記画像ワーピングファンクションを適用した前記画像からのオプティカルフロー計算に加えて、前記画像ワーピングファンクションを適用しない前記画像からの第2のオプティカルフロー計算を行い、両方のオプティカルフロー計算結果を結合する、請求項1ないし10のいずれか一項に記載の方法。
  12. 前記画像ワーピングファンクションは、その前に行われたオプティカルフロー計算から決定される、請求項1ないし11のいずれか一項に記載の方法。
  13. 前記画像ワーピングファンクションは、予め定められ固定された画像ワーピングファンクション、アフィン・ワーピングファンクション、及び又はホモグラフィである、請求項1ないし12のいずれか一項に記載の方法。
  14. 前記画像内の物体及び又は移動物体が、前記オプティカルフローに基づいて検出される、請求項1ないし13のいずれか一項に記載の方法。
  15. 画像のシーケンスを出力するよう適合された少なくとも一つの光センサを備えたセンサシステムであって、
    前記光センサから、前記画像のシーケンスの少なくとも2つの画像を取得する手段と、
    前記光センサの運動情報及び又は前記シーケンスに含まれる画像の画像情報を含む追加の情報に基づいて、前記少なくとも2つの画像のうちの少なくとも一つの画像の歪みを少なくとも部分的に補償するためのワーピングモデルを決定する手段と、
    前記決定されたワーピングモデルに従って記少なくとも一つの画像内の歪みを少なくとも部分的に補償する画像ワーピングファンクションを決定する手段と、
    前記少なくとも一つの画像に前記決定したワーピングファンクションを適用して、当該画像を変形することにより前記歪みを少なくとも部分的に補償する手段と、
    前記変形した画像及び前記少なくとも2つの画像のうちの他の画像から、オプティカルフローを変位ベクトルフィールドとして算出して出力する手段と、
    を備えるシステム。
  16. 前記補償する手段は、前記少なくとも一つの画像のうち前記決定されたワーピングモデルが適合すると予想される画像部分に、前記決定された画像ワーピングファンクションを適用する、
    請求項15に記載のシステム
  17. 前記オプティカルフローは、前記ワーピングファンクションの適用により導入されたシフト量を減算することにより補正される、請求項15又は16に記載のシステム。
  18. 前記処理ユニットは、計算を行い、前記画像が歪んでいる場合には、当該歪みを含む前記画像に前記画像ワーピングファンクションを適用するよう適合され、前記画像ワーピングファンクションは、前記歪みを補正するために算出され、及び又は前記視覚センサの運動を示す運動センサを備える、請求項15ないし17のいずれか一項に記載のシステム。
  19. 請求項1ないし14のいずれか一項に記載の方法を実行するように適合された、請求項15ないし18のいずれか一項に記載のシステム。
  20. 請求項15ないし19のいずれか一項に記載のセンサシステムを備えた陸上用、航空用、海洋用、又は宇宙用の乗り物。
  21. 前記乗り物は、ロボット若しくはオートバイ、スクータ、その他の2輪車両、乗用自動車、又は芝刈り機である、請求項20に記載の乗り物。
  22. 請求項15ないし19のいずれか一項に記載のセンサシステムを含む乗り物用運転者支援システム。
  23. コンピュータで実行されたときに、請求項1ないし14のいずれか一項に記載の方法を実行する、コンピュータプログラム。
JP2013225264A 2013-01-16 2013-10-30 歪みのあるカメラ画像を補正するシステム及び方法 Active JP5782088B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP13151525.6 2013-01-16
EP13151525.6A EP2757527B1 (en) 2013-01-16 2013-01-16 System and method for distorted camera image correction

Publications (2)

Publication Number Publication Date
JP2014137815A JP2014137815A (ja) 2014-07-28
JP5782088B2 true JP5782088B2 (ja) 2015-09-24

Family

ID=47559319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013225264A Active JP5782088B2 (ja) 2013-01-16 2013-10-30 歪みのあるカメラ画像を補正するシステム及び方法

Country Status (3)

Country Link
US (1) US9330472B2 (ja)
EP (1) EP2757527B1 (ja)
JP (1) JP5782088B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10116885B2 (en) 2015-04-05 2018-10-30 Hema Imaging Llc Systems and approaches for repeated thermal imaging determinations
EP4220537A3 (en) 2015-05-10 2023-08-16 Mobileye Vision Technologies Ltd. Road profile along a predicted path
CN107437258B (zh) * 2016-05-27 2020-11-06 株式会社理光 特征提取方法、运动状态估计方法以及运动状态估计装置
US11300450B2 (en) 2016-08-10 2022-04-12 Korea Advanced Institute Of Science And Technology Hyperspectral imaging spectroscopy method using kaleidoscope and system therefor
WO2018030592A1 (ko) * 2016-08-10 2018-02-15 한국과학기술원 만화경을 이용한 초분광 영상 관측 방법 및 시스템
US10085006B2 (en) * 2016-09-08 2018-09-25 Samsung Electronics Co., Ltd. Three hundred sixty degree video stitching
AU2016266019A1 (en) * 2016-11-30 2018-06-14 Canon Kabushiki Kaisha Image registration method
JP6654999B2 (ja) 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
JP6984130B2 (ja) 2017-01-17 2021-12-17 オムロン株式会社 画像処理装置、制御システム、画像処理装置の制御方法、制御プログラム、および記録媒体
US10430671B2 (en) * 2017-04-22 2019-10-01 Honda Motor Co., Ltd. System and method for remapping surface areas of a vehicle environment
CN108106623B (zh) * 2017-09-08 2021-06-04 同济大学 一种基于流场的无人车路径规划方法
KR20190035462A (ko) * 2017-09-25 2019-04-03 한국과학기술원 프리즘을 이용한 초분광 영상 재구성 방법 및 시스템
US10513037B2 (en) * 2017-12-15 2019-12-24 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and mobile robot using the same
DE112020002175T5 (de) * 2019-05-28 2022-06-30 Mobileye Vision Technologies Ltd. Systeme und verfahren zur fahrzeugnavigation
CN112438114B (zh) * 2019-08-27 2022-11-11 南京泉峰科技有限公司 自行走割草机
US20230055140A1 (en) * 2021-08-18 2023-02-23 Firefly Automatix, Inc. Determining orientation of a mower using horizon mapping

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239706B1 (en) 1997-08-06 2007-07-03 Deutsche Telekom Ag Transcoder for decoding encoded TV programs
EP1506471A2 (en) * 2002-05-17 2005-02-16 Sarnoff Corporation Method and apparatus for determining optical flow
US7558320B2 (en) * 2003-06-13 2009-07-07 Microsoft Corporation Quality control in frame interpolation with motion analysis
US8027531B2 (en) * 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
WO2007056601A2 (en) * 2005-11-09 2007-05-18 The Regents Of The University Of California Methods and apparatus for context-sensitive telemedicine
JP4967062B2 (ja) * 2007-08-22 2012-07-04 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
JP5421072B2 (ja) 2008-11-19 2014-02-19 クラリオン株式会社 接近物体検知システム
EP2209091B1 (en) * 2009-01-16 2012-08-08 Honda Research Institute Europe GmbH System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
JP5216010B2 (ja) * 2009-01-20 2013-06-19 本田技研工業株式会社 ウインドシールド上の雨滴を同定するための方法及び装置
US8564657B2 (en) * 2009-05-29 2013-10-22 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3D warping techniques and a proper object motion detection
EP2256690B1 (en) * 2009-05-29 2016-08-17 Honda Research Institute Europe GmbH Object motion detection system based on combining 3D warping techniques and a proper object motion detection
JP5731911B2 (ja) 2010-07-14 2015-06-10 キヤノン株式会社 画像処理装置及びその制御方法
US8497897B2 (en) * 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US8818131B2 (en) * 2010-08-20 2014-08-26 Adobe Systems Incorporated Methods and apparatus for facial feature replacement
JP5482672B2 (ja) * 2011-01-12 2014-05-07 株式会社デンソーアイティーラボラトリ 移動物体検出装置
CN103404154A (zh) * 2011-03-08 2013-11-20 索尼公司 图像处理设备、图像处理方法以及程序
CN103493493A (zh) * 2011-04-28 2014-01-01 索尼公司 编码装置和编码方法以及解码装置和解码方法
US8649558B2 (en) * 2011-05-31 2014-02-11 Wisconsin Alumni Research Foundation Video processing with region-based warping
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
EP2757524B1 (en) * 2013-01-16 2018-12-19 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles

Also Published As

Publication number Publication date
JP2014137815A (ja) 2014-07-28
US20140198955A1 (en) 2014-07-17
US9330472B2 (en) 2016-05-03
EP2757527A1 (en) 2014-07-23
EP2757527B1 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
JP5782088B2 (ja) 歪みのあるカメラ画像を補正するシステム及び方法
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
Garnett et al. Real-time category-based and general obstacle detection for autonomous driving
Asvadi et al. 3D object tracking using RGB and LIDAR data
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
JP4751429B2 (ja) 物体追跡の方法
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
Shim et al. An autonomous driving system for unknown environments using a unified map
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
US11398095B2 (en) Monocular depth supervision from 3D bounding boxes
US20220269900A1 (en) Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds
US20220301099A1 (en) Systems and methods for generating object detection labels using foveated image magnification for autonomous driving
WO2021070651A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US11321859B2 (en) Pixel-wise residual pose estimation for monocular depth estimation
Rashed et al. Bev-modnet: Monocular camera based bird's eye view moving object detection for autonomous driving
Aditya et al. Collision Detection: An Improved Deep Learning Approach Using SENet and ResNext
KR102270827B1 (ko) 360도 주변 물체 검출 및 인식 작업을 위한 다중 센서 데이터 기반의 융합 정보 생성 방법 및 장치
JP2022035033A (ja) 情報処理システム、情報処理方法、プログラムおよび車両制御システム
Wirges et al. Self-supervised flow estimation using geometric regularization with applications to camera image and grid map sequences
US20230394680A1 (en) Method for determining a motion model of an object in the surroundings of a motor vehicle, computer program product, computer-readable storage medium, as well as assistance system
Lee et al. Realtime object-aware monocular depth estimation in onboard systems
Unger et al. Multi-camera Bird's Eye View Perception for Autonomous Driving
Agand et al. DMODE: Differential Monocular Object Distance Estimation Module without Class Specific Information
Yang et al. Panorama-based multilane recognition for advanced navigation map generation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150716

R150 Certificate of patent or registration of utility model

Ref document number: 5782088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250