JP2019046434A - 画像の動き補償のためのシステムおよび方法 - Google Patents

画像の動き補償のためのシステムおよび方法 Download PDF

Info

Publication number
JP2019046434A
JP2019046434A JP2018024461A JP2018024461A JP2019046434A JP 2019046434 A JP2019046434 A JP 2019046434A JP 2018024461 A JP2018024461 A JP 2018024461A JP 2018024461 A JP2018024461 A JP 2018024461A JP 2019046434 A JP2019046434 A JP 2019046434A
Authority
JP
Japan
Prior art keywords
camera
image
motion
movement
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018024461A
Other languages
English (en)
Other versions
JP6563050B2 (ja
Inventor
プアケイト プラク
PURKAIT Pulak
プアケイト プラク
ザッハ クリストファー
Zach Christopher
ザッハ クリストファー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2019046434A publication Critical patent/JP2019046434A/ja
Application granted granted Critical
Publication of JP6563050B2 publication Critical patent/JP6563050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】ローリングシャッタカメラにおける画像撮影中のカメラの動きを補償する方法を提供する。
【解決手段】ローリングシャッタを有するカメラにより撮影されたシーンの画像を受け取ることと、画像中の線分を抽出することと、受け取った画像からの画像の撮影中のカメラの動きを推定することと、画像の撮影中の動きを補償した画像を生成することとを備え、シーンが無限遠直線で交差する水平面および2つの垂直面によって近似され、画像の撮影中のカメラの動きを推定することが、抽出された線分が垂直であり垂直面上にあると仮定することを備える。
【選択図】図3

Description

本明細書に記載される実施形態は、一般的に、コンピュータビジョンの分野に関する。
運転手不要の自動車両が、多数のビジョン研究の口火を切り、コンピュータビジョンにおけるいくつかの未解決の問題についての即時解決の要望を明らかにしている。市販の安いカメラはこれらの車両の魅力的な選択肢であるが、撮影された画像には、著しい歪が観察され得る。これらのカメラは、一般的に、ローリングシャッタ(RS)として幅広く知られている普及しているメカニズムを持っているCMOSセンサに基づいて作られる。グローバルシャッタ(GS)とは対照的に、それは、一定の行間遅延で上から下まで行ごとにシーンを撮影する。RS撮像は、異なる行について、見かけ上のカメラの動きを捕らえ、パースペクティブカメラモデルの特性に違反する。これは、目立って顕著な歪を引き起こす。
アッカーマン運動を説明するために使用される、回転を受ける車両の概略図。 アッカーマン運動を説明するために使用される、並進を受ける車両の概略図。 車両および車両上のカメラにより観察されるシーン近似を示す概略図。 シーンが対称的でない、車両および車両上のカメラにより観察されるシーン近似を示す概略図。 一実施形態にしたがう方法を示す流れ図。 図3の方法におけるモデルパラメータを導出するステップをより詳細に示す流れ図。 単に角速度を呈する車両についての、測定された角速度対実際の角速度のプロット。 単に並進速度を呈する車両についての、測定された並進速度対実際の並進速度のプロット。 20km/hの並進速度を有する車両についての、測定された角速度および並進速度対実際の角速度のプロット。 60km/hの並進速度を有する車両についての、測定された角速度および並進速度対実際の角速度のプロット。 100km/hの並進速度を有する車両についての、測定された角速度および並進速度対実際の角速度のプロット。 140km/hの並進速度を有する車両についての、測定された角速度および並進速度対実際の角速度のプロット。 合成のローリングシャッタ画像。 図6(a)の動き補償した画像。 一実施形態にしたがう装置の概略図。
一実施形態では、ローリングシャッタカメラにおける画像撮影中のカメラの動きを補償する方法が提供され、
この方法は、
ローリングシャッタを有するカメラにより撮影された(captured)シーンの画像を受け取ることと、
画像中の線分を抽出することと、
受け取った画像からの画像の撮影中のカメラの動きを推定することと、
画像の撮影中の動きを補償した画像を生成することと
を備え、
シーンが無限遠直線で交差する水平面および2つの垂直面によって近似され、画像の撮影期間中のカメラの動きを推定することが、抽出された線分が垂直であり垂直面上にあると仮定することを備える。
上記の方法は、線分を抽出する。画像において、線分は、建造物などの側面に対応し得る。上記の方法は、シーンの簡略化したモデルも提供し、これらの線分をモデルに適合させる。線分を簡略化したモデルに適合させることにより、他の特徴に対応する線分は無視され得る。一実施形態では、4つの線分が適合される。
一実施形態では、上記の方法は、道路の境界、たとえば建造物などが2つの垂直面によってモデル化される道路に沿って運転する車両上にカメラが搭載されている、都市部用設定で使用される。しかし、道路の側部の境界は、道路の側部のガードレールにより提供され得る。
たとえば、垂直面が掃除される部屋の壁に対応する真空掃除機などといった、車両が自律ロボットであり得る他の設定が使用され得る。しかし、ローリングシャッタカメラについての動き補償の問題は、カメラが迅速に動いている状況では、より深刻である。
一実施形態では、線分が垂直面上にあるかどうかを決定することが、線分に対する法線が垂直方向に対して直角であるかどうかを決定することを備える。さらなる実施形態では、受け取った2次元画像中の画素を、同次座標を使用して3次元で表すことにより、この条件が満足されているかどうかを決定することが可能である。
上で言及されたように、一実施形態では、カメラが車両上に搭載され、道路上の4輪車両の動きが、転回期間に車両の4輪すべてが共通点の周りを動くと仮定される、いわゆるアッカーマン運動によりモデル化され得る。一実施形態では、カメラの動きを推定することが、
ローリングシャッタカメラを使用して撮影された画像中の画素の位置を、カメラの動きを補償した画像の位置に関係付けること
を備え、
画像の撮影中のカメラの動きがアッカーマン運動を使用してモデル化される。
しかし、方法は、純粋な回転運動(すなわち、動きに対して並進成分がない)および純粋な並進運動(すなわち、動きに対して回転成分がない)のために使用され得る。
一実施形態では、垂直の動きがないことが仮定される。
一実施形態では、カメラの場所が垂直である、すなわち、カメラが車に対して垂直に取り付けられていることが仮定される。さらなる実施形態では、カメラ位置は、垂直に対して回転もされ得、画像の撮影中のカメラの動きを推定することが、垂直からのカメラの回転を補正することを備える。
上記の方法が解を提供することになる。しかし、場合によっては、抽出された線分のうちの少なくとも1つが、垂直の側壁からのものでない可能性があるといった、解に誤りが存在し得る。したがって、実施形態では、上記のフレームワークは、無作為抽出一致法(RANSAC)などについての最小の解法を提供する。したがって、一実施形態では、方法は、ロバスト推定器(robust estimator)を使用してモデルを改良することをさらに備え、モデルのモデルパラメータが、シーンの深度および画像撮影を使用してカメラの動きを記述する。
たとえば、ロバスト推定器は、
モデルパラメータを最良モデルの最良モデルパラメータとして設定することと、
最良モデルの適合(fit)を評価することと、
前記画像からさらなる線分を抽出することおよび新しいモデルを生成するために新しいモデルパラメータを計算することと、
新しいモデルの適合を評価することと、
新しいモデルの適合が最良モデルの適合よりも良好である場合、最良モデルパラメータを新しいモデルパラメータで更新することと、
停止基準が達成されるまで、新しいモデルを生成するためにさらなる線分を選択すること、新しいモデルの適合を評価すること、および新しいモデルの適合が最良モデルの適合よりも良好である場合に最良モデルパラメータを新しいモデルパラメータで更新することのプロセスを継続的に繰り返すことと、
を備え得る。
適合は、インライア(inlier)の数を計算することにより評価され得る。
上記の方法は、画像の撮影中のカメラの動きを、単一の受け取った画像からの画像データのみを使用して推定し得ることに留意されたい。
カメラの動きの推定を速めるために、様々な方法が採用され得る。たとえば、カメラ動きパラメータおよびシーンの深度に関係するパラメータの推定を得るために、抽出された線分のうちの3つが、前記垂直面のうちのただ1つに適合され得、
次いで、シーンの深度に関係するさらなるパラメータが、他の線分の制約に対して既に推定されたパラメータを代入することによって推定される。
画像が撮影されたシーンにおける3DポイントPについてのシーン深度は、カメラからの3DポイントPの前方距離である。ローリングシャッタカメラにより撮影された画像中の画素に対応するポイントPのシーン深度は、カメラの動きに依存することになる。しかし、いくつかの実施形態では、ローリングシャッタカメラにより撮影された画像中の逆シーン深度(inverse scene depth)およびカメラの動きを補償した画像中の逆シーン深度が線形であると仮定される。
さらなる実施形態では、誤った解を処理することを避けるために、抽出された線分は、前記線分が前記2つの垂直面のうちの少なくとも1つの上にあるかどうかを決定する前に決定するための、少なくとも1つの閾値を有し得る。たとえば、線分の長さが閾値と比較され得、閾値よりも短い線は破棄される。
さらなる実施形態では、(補正なしの)ローリングシャッタが撮影した画像についての、同次座標中における抽出された線分のうちの2つの外積が計算される。この計算されたベクトルと垂直との内積の大きさが次いで閾値と比較され、閾値を超えた場合、線は破棄される。代数的誤差
を使用する、こうした線分の事前フィルタ処理は、明らかなアウトライア(outliers)を除去するために、著しくRANSACの効率を増加する。上記の数式は、線分が垂直であるかどうかを決定する。
さらなる実施形態では、上記されたロバスト処理期間に、現実的でない解(たとえば、200km/hを超える絶対並進速度および90度/sを超える絶対角速度に対応する解)を破棄することによって、解の中でも、可能性のあるものだけが考慮される。
さらなる実施形態では、ローリングシャッタカメラによる画像の撮影中のカメラ動きを補償するためのシステムが提供され、
このシステムは、プロセッサを備え、
このプロセッサは、
ローリングシャッタを有するカメラにより撮影されたシーンの画像を受け取るための受信ポートと、
画像の撮影中のカメラの動きを補償した画像データを出力するための出力と
を備え、
プロセッサが、
受け取った画像から線分を抽出し、
受け取った画像からの画像の撮影中のカメラの動きを推定し、
画像の撮影中のカメラの動きを補償した画像データを生成する
ように構成され、
シーンが無限遠直線で交差する水平面および2つの垂直面によって近似され、画像の撮影中のカメラの動きを推定することが、抽出された線分が垂直であり垂直面上にあると仮定することを備える。
上記は、画像が表示されるように、画像が出力されることを可能にし得る。あるいは、画像は、たとえば物体認識のために画像から特徴を決定することといった、さらなる処理のために出力され得る。1つのさらなる実施形態では、補償した画像が、自律運転システムへの入力として使用される。ここで、RS補償した画像は、道路に対する車両の位置を決定する、および/または衝突回避のために使用され得る。
シーン深度および車の速度の逆数が、ゲージ自由度を導入する。ここで、並進速度が知られている場合、垂直面に対する車の位置を推定することが可能である。また、壁に対する車の位置が知られている場合、並進速度が推定され得る。
実施形態にしたがういくつかの方法はソフトウェアにより実装され得るために、いくつかの実施形態は、任意の好適なキャリア媒体上で汎用コンピュータに提供されるコンピュータコードを含む。キャリア媒体は、フロッピー(登録商標)ディスク、CD ROM、磁気デバイス、もしくはプログラム可能メモリデバイスなどの任意の記憶媒体、またはたとえば電気、光、もしくはマイクロ波信号といった任意の信号などの任意の過渡的な媒体を備え得る。
上記は、画像中の検出された垂直線分を使用しアッカーマン運動原理を使用してローリングシャッタ画像センサにより撮影された単一画像からカメラの動きを推定する方法、単一のローリングシャッタ画像から粗い深度マップを計算する方法、および単一のローリングシャッタ画像からローリングシャッタ歪を補償する方法を提供する。
図1(a)および図1(b)は、カメラ(図示せず)を備えている車両1の動きを説明するために使用されるモデルを示す図である。図1(a)は、純粋な円運動を呈示し、図1(b)は、純粋な並進運動を呈示し、さらに、シーン深度と画素座標との間の関係を示す。
グローバルシャッタカメラとローリングシャッタカメラは、写真を撮影するとき、どのように画像センサが露出されるかが異なる。前者の場合、光は、一定の時間期間にわたって同時に画像センサの行のすべてに当たる。ローリングシャッタカメラでは、各行は、規則的な時間間隔の間に露出されるが、カメラは、(小さい)動きを受ける。
図1(a)では、車両1の回転運動が考慮されることになる。図1(a)では、
を、GSカメラ座標に対する空間中の3Dポイントとする。ここで、RSカメラ座標に対するポイントPの位置は以下である。
上式は、次のように、正規化された画素座標で書かれ得る。
ここで、p=[p1,p2,1]T、および
は、それぞれGSカメラおよびRSカメラの画素(p1,p2)の同次画素座標である。sおよび
は、対応するシーン深度である。Kは、固有カメラ行列である。
および
は、時間
における車両1の回転および並進であり、ここで、τは、2つの連続した行の間の時間遅延である。Aは、アッカーマン運動パラメータである。読みやすさのため、本分析の残りでは、pおよびprsは、画像面上と考えられ、すなわち、K-1によって事前に乗算される。したがって、(2)式は、次となる。
ここで、
は、
の転置である。シーン深度
が画素で、またカメラの動きで変化することに留意されたい。
アッカーマンステアリング原理は、転回期間に車両の4輪すべてが共通点の周りを動くと仮定する。この原理は、車輪のすべてが転動運動を呈することを確実にする、任意の自動推進車両に当てはまる。この共通点は、瞬間回転中心(ICR)3として知られており、車輪の転動軸すべてを交差することにより計算される。ICR3は、図1(a)に示される。図1(a)では、円運動の半径は、純粋な前進運動下では、無限大になる。
車両は、画像を撮影するとき、固定の並進速度および角速度を始めると仮定される。車両1が回転角θtで純粋な円運動を実施する場合、車両は、図1(a)に示されるように、円運動の制約
を満足しなければならない。ここで、x軸は、ICRに向かう半径に沿っていることに留意されたい。車両の(以前の位置と現在の位置の)間の相対的な姿勢は、次のように書かれ得る。
ここで、θtは相対的なヨー角であり、ρtは時間tにおける車両の変位である。(3)式に代入すると、シーン深度は次で得られる。
これは、図1(a)によっても検証され得る。車両が角速度αおよび並進速度βで円運動を受けると仮定する。この仮定の下では、次の通りである。
ここで、A={α,β}は、知られていないローリングシャッタパラメータの組である。シーン深度srs Aは、
へと簡略化される。動きパラメータAの3次以上を含む項が無視されていることに留意されたい。小さい回転の下では、回転行列は、線形に近似され得る。したがって、(6)から2次項をさらに落として(最終的に、γtが1になり)、(3)に代入する。
ここで、[.]Xは、歪対称外積行列を示し、I3は、3×3単位行列である。
および
は、角回転および並進に対する円運動の寄与である。
たとえば慣性計測装置(IMU)といった外部ハードウェア発生源から容易に入手可能な、垂直方向が知られていることが仮定され得る。IMUの加速度計およびジャイロスコープは、カメラフレームにおける重力加速度の方向(ロール角およびピッチ角)の正確な測定を可能にし、これから垂直方向eyが導出され得る。一般性を失うことなく、カメラの知られている垂直方向は、シーン座標に対してやはり垂直である、すなわちey=[0,1,0]であることが、さらに仮定され得る。
i=[(ui1i2i3)]Tおよびvi=[(vi1i2i3)]Tを線分liの動き補償した端点とする。ここで、liのインタープリテーション面(interpretation plane)の法線は、ui×viである。liが垂直である場合、インタープリテーション面は垂直軸を通過しなければならず、このことが、(uixviTy=0、すなわち次式をもたらす。
ローリングシャッタ画素座標に換算して代入すると、上の式(8)は、知られていない動きパラメータAと知られていないシーン深度sとを有する多項式をもたらす。この実施形態では、ローリングシャッタ補償は、あらゆる個々の画素において、シーン深度sの推定を必要とする。以下のセクションでは、都市区域で運転している車両についてほぼ有効な、シーン深度sの簡略化したパラメータ表示が採用される。
図2(a)および図2(b)は、一実施形態でどのように深度がパラメータ化されるのかを説明するために使用されることになる。シーンは、2つの垂直面13、15(建造物など)と1つの水平面(道路)11とから構成されると仮定される。図2(a)および図2(b)は、道路11の2つの側部が、無限遠直線で交差する2つの垂直面によって近似されることを示す。道路11は、水平の地面と考えられる。ここで、カメラが垂直であると仮定されるので、水平線は、カメラの主点を通過しなければならない。任意の画素におけるシーン深度は、面により囲まれるシーンの最小深度と考えられる。
シーン深度の逆数は、無限遠直線に対応する列についてゼロであると仮定され、道路の側部に沿って線形に増加する。
(p1,p2)を、深度sにおける地面上の3Dポイント
の正規化された画素座標とする。ピンホールカメラモデルによって、
であり、すなわち、図1(b)に示されるように、s-1=h-12であり、ここで、hは、地面からのカメラの高さである。
同様に、垂直面のいずれかの点について、s-1=d-11であって、ここで、dは垂直面からの車両の距離である。一般的に、図2(b)に示されるように、垂直面に斜めに向いている車両では、s-1=d-1(p1−δ)であり、ここで、δは、無限遠直線に対応する列である。ここで、シーン深度の逆数s-1は、正規化された画素座標において、画素の列数に線形である。
ここで、この実施形態では、s-1=max{λ’(p−δ),λ(p−δ),λ*p}が、画素(p1,p2)における逆深度であることが仮定され得る。列δは、無限遠直線に対応する。λ’、λは、垂直面からのカメラの距離の逆数である。λ*は、知られていると仮定される、カメラの高さの逆数である。この構造によって、垂直な線分は、λ’、λによって表記される3Dにおける垂直面のいずれかになければならない。したがって、式(7)は次式となる。
ここで、[x]-=−min{0,x}および[x]+=max{0,x}は、それぞれの垂直面上でのみ、非ゼロである。深度パラメータλ’、λのスケール、および並進速度βのスケールが、ゲージ自由度を導入する。したがって、1つのパラメータを知れば、他の2つは、明示的に推定され得る。
この作業では、ゲージは、λ’=1を選択することによって固定される、すなわち、垂直面のうちの1つに対する車両の位置が知られていると仮定され、車両の並進速度βおよび垂直面の他の側のパラメータλが推定される。一方、車両の速度βが知られている場合、垂直面のパラメータλ’およびλの推定は、同じ解法に至る。さらに、検出された垂直線分が、画素座標が知られている地面に接触する場合、車両の速度ならびに位置は、λ*から計算され得る。それにもかかわらず、歪んだ画像は、スケール(速度、深度など)を知ることなく、常に補償され得る。
2つの動きパラメータ{α,β}および2つの深度パラメータ{λ,δ}を解くために、モデルならびにシーンの深度を推定するため、4つの線分が必要である。上記において、s-1=[p1−δ]-+λ[p1−δ]+が、GSカメラ座標に対して計算されることに注意されたい。式(9)を式(8)に代入することが、29個の単項を有する自由度5の8つの多項式の系をもたらす。この系についてのグレブナー基底解法は、各問題の事例について、約0.1秒かかる、467×478行列を除去することを含む。
以下の近似で、効率が改善される。深度の逆数s-1は、RS画素座標に対して線形であると仮定され、すなわち
である。そのような近似を用いてさえ、パラメータが依然として非常に正確に推定され得ることを、実験は呈示する。
一実施形態では、問題は、グレブナー基底法により解かれる、垂直面のうちの1つの中の3つの線分を考えることによって、さらに簡略化される。それは、αと,βと、δとを計算する。これらは、次いで、他の線分の式(8)の制約に代入され、最小絶対解が選択されるλにおける2次方程式を形成する。グレブナー基底法は、G−J消去法が実施される、サイズ12×15の消去テンプレート行列を生成する。これは、3つの解を生成し、各問題の事例について、約0.001sかかる。現実的でない解(たとえば、200km/hを超える絶対並進速度および90度/sを超える絶対角速度に対応する解)を破棄することによって、解の中でも、可能性のあるものだけが考慮される。
カメラが直交行列Rω∈SO(3)により与えられる知られている角度で設置される、より一般的な場合が、ここで考慮されることになる。GSカメラ座標およびRSカメラ座標に対する式(1)中の3Dポイント
の画素座標は、s’Rωp=Pおよび
となり、ここで、s’および
は、シーン深度に対して比例する。したがって、(1)は、次となる。
上記は、次のように、GS座標フレームに換算しても書かれ得る。
ここで、
および
は、角回転および並進に対する円運動の寄与である。
は、Rωに沿った回転行列の直線化としても観察され得る。
および
であることに留意されたい。ここで、sは、画素pに対応するシーン深度であり、
は、Rωの第3の行である。上記に、


とを代入すると、以下の式が得られる。
tが
で置き換えられ得ることに留意されたい。このシナリオでは、p’座標における回転された線分が垂直である。上記を式(8)に代入すると、自由度5の式の組が得られ、次いで、グレブナー基底法により解かれる。これは、次いで、G−J消去法が実施される、サイズ37×43の消去テンプレート行列を生成する。これは、各問題の事例について、6つの解を生成する。
次いで、車両が純粋な並進運動、α=0を受けるシナリオが考えられることになる。したがって、面の左側について、式(9)は、次式となる。
ここで、
である。このシナリオでは、有限解を有するために、線分のうちの2つが一方の面上にあり、他の線分が他方の面上にある、3つの線のアルゴリズムが十分となる。したがって、p1−δは、次式のように、GS画素座標に換算して、直接計算され得る。
式(8)に、ローリングシャッタ画素座標に換算した画素を代入し、次いで式を簡略化すると、次式を得ることが可能である。
および
が、簡略化の間に代入されたことに留意されたい。2つの線分についての、式(16)における2つのそのような制約が、一意の解をもたらす。したがって、垂直面の両方について、有限解を有するため、3つの線分が十分であり、線分のうちの2つは、βおよびδを一意に計算する1つの面上にある。
他の線分に対応する、他の制約に対する推定されるパラメータの代入が、やはり一意の解を有するλにおける線形の制約をもたらす。この閉じた形態の解は、消去テンプレートなしで得られるために、極めて速い解法をもたらす。
次いで、車両が純粋な並進運動、β=0を受けるシナリオが考えられることになる。深度の変化
は、式(8)における垂直方向に影響を及ぼさない。このシナリオでは、GS画像フレームとRS画像フレームの間の幾何学的関係は、次式となる。
ここで、
である。簡略化後、制約(8)は、次式に簡略化される。
これは、αにおける2次方程式であり、最小絶対値を有する解のみが考慮される。したがって、αを推定するのに、単一の線分が十分であり、これが、効率的で、より速い1つの線のアルゴリズムをもたらす。
しかし、上のシナリオは、アッカーマン運動ではない(図1(a)に呈示される運動とも異なる)。
上記を説明するために、提案された最小の解法の有効性を検証する実験が、合成したデータセットおよび現実のデータセット上で実施された。合成した実験は、解法の効率および安定性を分析することを狙った。特に、カメラが純粋な並進または回転速度を受ける縮退した場合。使用された解法は以下である。
・4−LA:アッカーマン運動についての完全な4つの線の解法[グレブナー基底法、式(9)]。
・3−LA:純粋な並進運動についての3つの線の解法[式(17)]。
・1−LA:純粋な回転運動についての1つの線の解法[式(18)]。
提案された解法は、RANSACスケジュールに関して評価された。実験のすべてにおいて、インライア閾値は、0.5画素であると選択され、繰り返しの数は、信頼水準0.99で選択される。
sを決定するための能力は、生成されるべきシーンの粗い深度マップも可能にする。
図3は、RANSACを使用して、どのように最小の解法が評価され得るかを示すフローチャートである。
S101において、ローリングシャッタ画像が撮影される。この流れ図に関して議論される分析の残りは、まさにこの単一の画像からのデータに同意することになる。
S103において、画像中の線分が検出される。一実施形態では、線分検出器lsdが使用され、好適なlsdは、たとえば、von Gioi R Grompone、Jeremie Jakubowicz、Jean−Michel Morel、およびGregory Randall著 「LSD:a fast line segment detector with a false detection control」 IEEE TPAMI, 32(4):722−732, 2010に記載される。
本明細書には示されないが、ここで、線分がさらなる処理に好適であるかを見るために、線分について様々な試験が行われ得る。一実施形態では、35画素未満のサイズの線分が破棄される。
線分は、代数的誤差
で事前フィルタ処理される。これは、事前フィルタ処理が明らかなアウトライアを除去するために、著しくRANSACの効率を増加する。
次に、反復カウンタが1だけ増分される。システムを通じて最初のパスでは、これは、カウンタを1に設定することになる。次いで、停止基準に対して十分なサンプルが評価されたときを決定するため、このカウンタが使用されることになる。一般的に、RANSACは、決まった数のループを完了することになる。この数を決定するための多くの可能な方法があり、それらは主に、さらなるサンプルを選択することが、モデルパラメータのさらなる改良をもたらさないという基準に基づく。
次に、S107において、カウンタがその終止値に達したかが決定される。終止値は、上で説明された停止基準を満足するように設定されることになる。
次に、ステップS109において、RANSAC処理が開始する。最初に、n個の線分がランダムに選択される。次に、ステップS111において、モデルパラメータが推定される。図1および図2に関係する上の説明は、どのようにモデルパラメータが推定されるのかを詳細に説明した。しかし、図4は、ステップS109およびステップS111の一般的なプロセスの概要を示すフローチャートである。
ステップS151において、n個の線分が、抽出された線分から選択される。選択される線分の数は、解かれるべきモデルパラメータの数に依存する。車両は、おそらく、並進運動と回転運動の両方で動いており、4つの線分が選択される必要がある。車両が純粋な並進運動をのみ呈することが事前に知られている場合、3つのパラメータを解くことのみが必要であるために、単に3つの線が選択される必要がある。最後に、車両が純粋な回転運動をのみ呈することが知られている場合、1つのみ知られていないものがあり、したがって単に1つの線が選択される必要がある。
ステップS153において、各線分からの上限および下限の画素値が、RS画像から抽出され、同次座標へと変換される。これは、Z座標が1であると仮定することによって、達成される。
ステップS155において、RS同次座標は、上の式(9)にしたがって、動き補償された同次座標に変換される。これは、RS座標および知られていないモデルパラメータに換算した、動き補償された座標を表すことを含むことに留意されたい。
ステップS157において、ここで、シーンをモデル化するために使用される垂直面上に動き補償された線がなければならないという要件を表す1つの方法である式(8)に記載される条件に、動き補償された同次座標が挿入される。式(8)は、上側座標と下側座標、動き補償された線の外積によって水平線が生成されなければならないということを要求することによって、この条件を提供する。このことは、これらの座標が無限遠に延びる垂直面上にある場合に真でなければならない。知られている垂直とのその内積を計算することによって、生成された線が水平であるのかが決定される。
ここで、図3のフローチャートに戻って、ステップS113において、モデルパラメータが試験される。これは、データセット中の他の抽出された線分の各々について動き補償された同次座標を計算すること、およびこれらの線分が図4のステップS157に関して説明された基準を満足するかを見ることにより、これらの線分がインライアであるのかまたはアウトライアであるのかを決定することによって行われる。
ステップS115において、最新の繰り返しがより良い答を提供するか(すなわち、より多くのインライアを生成するか)どうかが決定される。そうである場合、これらのモデルパラメータは、最良モデルパラメータとして保存され、ループは、ステップS105でカウンタを増分して再開する。
停止基準が一旦達成されると、最良モデルパラメータは、カメラの動きを補償して、以下の、グローバルフレーム(3)へのRS画素の順方向マッピング手順により、歪のない画像を得るために使用される。
ここで、
および
である。λ*が、知られていると仮定される地面からの、カメラの高さの逆数であることに留意されたい。地面と垂直面の境界が、
または
である画素であることに留意されたい。順方向マッピングの後に、知られていない画素は、線形に補間される。補償されたフレームの外側に位置を特定される画素は、強度0で配置される。
図3および図4に関して説明された上のプロセスは、以下の擬似コードを通して視覚化され得る。
アルゴリズム1:
1: procedure COMPENSATEMOTION(Input image)
2: detectLineSegments(LSD)
3: pruneLineSegments
4: estimateMotion(α;β)andDepth(δ;λ)byAlgorithm 2 (below)
5: warpCompensatedImage
6: return The motion compensated image
7: end procedure
アルゴリズム2:
1: procedure RANSACACKERMANN(Line Segments)
2: while count ≠ maxIterations do
3: (urs ; vrs) ← get4random(LineSegments)
4: (urs ; vrs) ← get3leftmost(urs ; vrs)
5: (α;β;δ) ← estimateGrobnerBasis(urs ; vrs)
6: λ ← solveQuadraticrightmostLineSegment
/*** 式(8)における(α;β;δ)を代入する***/
7: if outofrange (α;β;δ,λ) then
8: continue
9: end if
10: countInliers(α;β;δ,λ)
11: updateBestfoundsofar(α;β;δ,λ)
12: count ← count + 1
13: end while
14: return Bestfoundsofar(α;β;δ,λ)
15: end procedure
カメラが、地面から1.2mの高さ、および道路の左側の垂直面から2.5mに配置される実験のために、きれいなGS画像が選択された。
RS画像は、並進速度10〜140km/hおよび角速度10〜70度/sの控えめな間隔でランダムにアッカーマン運動をシミュレーションすることにより、30フレーム/s(40%読出し時間)で合成された。動きをシミュレーションしているとき、標準2km/hおよび2度/sでランダム雑音がさらに加えられた。
RANSACと組み合わせる提案される最小の解法1−LA、3−LA、および4−LAは、合成RS画像の事例の各々上で実行される。
推定される動きの統計値が図5にプロットされる。ここで、提案される方法1−LA(図5(a))、3−LA(図5(b))、および4−LA(20km/hの並進速度では図5(c)、60km/hの並進速度では図5(d)、100km/hの並進速度では図5(e)、および140km/hの並進速度では図5(f))の評価が、合成データから取られて示される。点線は、シミュレーションされた速度を表す。x軸およびy軸に沿って、シミュレーションされ予測された動きが表示される。推定される並進速度および角速度は、それぞれ赤いボックスおよび青いボックスにより表され、ここで、推定値の75%は、ボックス内にある。0+0および0−0は、推定される動きの平均および中央値である。動きは、並進速度40〜80km/hおよび角速度50〜140度/sについて正確に推定され、さらに速度の合同推定が、個別推定と同じくらい正確であることが観察され得る。さらに、ほとんどすべての場合において、提案される最小の解法が、視覚的に美しい画像を生成する。
図6は、角速度40度/s、並進速度60km/hで車両がアッカーマン運動を受ける、図5からのランダムな事例のうちの1つの結果を表示する。推定される角速度は53.49度/sであり、並進速度は62.16km/hである。図6(a)は、合成のローリングシャッタ画像であり、図6(b)は動き補償された画像である。
提案される方法がMatlabに実装され、ランタイムは、単一のコアのみを利用して、i7 2.8GHz CPU上で計算される。平均で、LS検出および修正を除外して、360×520画像を修正するのに、ほとんどの最近の方法より2〜3桁速い、約0.087秒かかる。
詳細な比較については、表1を参照。
上の方法は、単一の視野からの、アッカーマン運動の下での、ローリングシャッタカメラ動き補償についての最小の解法を提供する。4つの線のアルゴリズムは、動きパラメータとともに、シーンの簡略化した深度を推定するために開発される。上の方法は、極めて速い補償方法を有することを可能にする、単眼ローリングシャッタ動き補償のため最小の解法を活用する、その種類の第1のものでもある。結果は、提案された手法の計算効率および有効性を呈示する。
上は、自己運動の並進部を組み込んだ、単一の歪んだ画像からの、RS補償のための最小の解法を記載する。上の方法は、ローリングシャッタ動き補償のための速い最小の解法を提供する。上の方法は、知られている垂直方向の制約を有するアッカーマン運動のために調整したアルゴリズムを使用する。これは、自動推進車両にとって、通常のシナリオである。RANSACに関して、提案される解法は、実時間で実行される。
現在の自動推進車両は、しばしば、安い市販のローリングシャッタカメラを備える。これらのデバイスは、画像を撮影するときの、カメラの行間遅延に起因する、歪んだ画像をしばしば生成する。
図7は、ローリングシャッタカメラを有する車両に適応されたシステム20の、可能な基本アーキテクチャを示す。システム20は、プログラム25を実行するプロセッサ23を備える。システム20は、記憶装置27をさらに備える。記憶装置27は、カメラから受け取ったデータを分析するため、プログラム25により使用されるデータを記憶する。
分析ユニット20は、入力モジュール31と出力モジュール33とをさらに備える。入力モジュール31は、カメラ入力35に接続される。カメラ入力35は、車両のスクリーン43上に位置決めされるローリングシャッタカメラ41であるカメラからカメラデータを受け取る。カメラ入力35は、カメラ41から直接データを単に受け取り得、あるいは、カメラ入力35は、外部の記憶媒体またはローリングシャッタカメラが位置決めされるネットワークからカメラデータを受け取り得る。
一実施形態では、出力モジュール33に接続されるのは、ディスプレイ37である。ディスプレイは、車両のダッシュボード上のディスプレイ37’としてもうけられ得る。ディスプレイ37は、カメラ入力35により受け取られたカメラデータから生成される動き補償された画像を表示するために使用され得る。ディスプレイ37の代わりに、出力モジュール33は、ファイルに、またはインターネットなどを介して出力し得る。
図7のシステムは、他の制御部を備え得る。たとえば、図7のシステムは、補償された画像データを取って、カメラにより撮影されたシーン中の物体を識別することができ得る。これは、次いで、自律運転および他の用途に使用され得る。
上の方法は、並進速度が与えられる場合に側壁に対する車両の位置の推定を上の方法が可能にするために、自動車産業界が、自律車両のために手頃なローリングシャッタカメラを組み込むことを可能にする(または、そこに向かう研究を進める)ことになる。
上の方法では、並進運動と回転運動の両方が、単一のフレームからのデータを使用してモデル化され得る。並進運動は、アッカーマン運動では無視され得ない。上の方法では、アッカーマン運動は、知られている垂直方向の下で推定される。上の方法は、動きパラメータを推定するとき、近似シーン深度も推定する。上記では、最小の解法がローリングシャッタカメラの動きを補償するために垂直線分を利用することによって開発され、提案される方法は、自動推進車両にとって通常のシナリオである、アッカーマン運動原理のために調整される。
上の方法では、最小の解法は、カメラの知られている垂直方向を仮定するローリングシャッタ動き補償について提案される。2つの動きパラメータと、簡略化した深度仮定のための2つのパラメータとだけからなる車両のアッカーマン運動モデルのおかげで、4つの線のアルゴリズムになる。いくつかの実施形態で使用されるRANSACに関する、提案される最小の解法は、ローリングシャッタカメラの動きの動きを効率的に正確に推定し、システムが実時間で動作できることも呈示する。
ある種の実施形態が記載されてきたが、これらの実施形態は、単に例として提示されており、本発明の範囲を限定する意図はない。実際に、本明細書に記載される新規の方法およびシステムは、様々な他の形態で具現化され得、さらに、本明細書に記載される方法およびシステムの形態において、様々な省略、代替、および変更を、本発明の精神から逸脱することなく行い得る。添付する請求項およびそれらの等価物は、本発明の範囲および精神に入るので、そのような修正形態をカバーすることが意図される。

Claims (20)

  1. ローリングシャッタカメラにおける画像撮影中のカメラ動きを補償する方法であって、
    ローリングシャッタを有するカメラにより撮影されたシーンの画像を受け取ることと、
    前記画像中の線分を抽出することと、
    前記受け取った画像から前記画像の撮影中の前記カメラの動きを推定することと、
    前記画像の撮影中の前記動きを補償した画像を生成することと
    を備え、
    前記シーンが無限遠直線で交差する水平面および2つの垂直面によって近似され、前記画像の撮影中の前記カメラの前記動きを推定することが、前記抽出された線分が垂直であり前記垂直面上にあると仮定することを備える、方法。
  2. 線分が垂直面上にあるかどうかを決定することが、前記線分に対する法線が垂直方向に対して直角であるかどうかを決定することを備える、請求項1に記載の方法。
  3. 前記カメラの前記動きを推定することが、受け取った2次元画像中の画素を、同次座標を使用して3次元で表すことを備える、請求項1または2に記載の方法。
  4. 前記カメラの前記動きを推定することが、前記ローリングシャッタカメラにより撮影された画像中の逆シーン深度と前記カメラの前記動きを補償した画像中の逆シーン深度との間に線形関係を仮定することを備え、前記シーンにおける3DポイントPについてのシーン深度が前記カメラからの前記3DポイントPの前方距離である、請求項1から3のいずれか一項に記載の方法。
  5. 前記カメラの前記動きを推定することが、
    前記ローリングシャッタカメラを使用して撮影された画像中の画素の位置を、前記カメラの前記動きを補償した画像の位置に関係付けること
    を備え、
    前記画像の撮影中の前記カメラの前記動きがアッカーマン運動を使用してモデル化される、請求項1から4のいずれか一項に記載の方法。
  6. 前記カメラの前記動きを推定することが、
    前記ローリングシャッタカメラを使用して撮影された画像中の画素の位置を、前記カメラの前記動きを補償した画像の位置に関係付けること
    を備え、
    前記画像の撮影中の前記カメラの前記動きが純粋な回転運動を使用してモデル化される、請求項1から4のいずれか一項に記載の方法。
  7. 前記カメラの前記動きを推定することが、
    前記ローリングシャッタカメラを使用して撮影された画像中の画素の位置を、前記カメラの前記動きを補償した画像の位置に関係付けること
    を備え、
    前記画像の撮影中の前記カメラの前記動きが純粋な並進運動を使用してモデル化される、請求項1から4のいずれか一項に記載の方法。
  8. 前記カメラの垂直位置が、前記画像を撮影した前記カメラに加えて、センサを介して決定される、請求項1から7のいずれか一項に記載の方法。
  9. 前記カメラの位置が、前記垂直に対して回転され、前記画像の撮影中の前記カメラの前記動きを推定することが、前記垂直からの前記カメラの回転を補正することを備える、請求項1から8のいずれか一項に記載の方法。
  10. ロバスト推定器を使用してモデルを改良することをさらに備え、前記モデルのモデルパラメータが、前記シーンの深度および画像撮影を使用して前記カメラの前記動きを記述する、請求項1から9のいずれか一項に記載の方法。
  11. 前記ロバスト推定器を使用することが、
    前記モデルパラメータを最良モデルの最良モデルパラメータとして設定することと、
    前記最良モデルの適合を評価することと、
    前記画像からさらなる線分を抽出し、新しいモデルを生成するために新しいモデルパラメータを計算することと、
    前記新しいモデルの適合を評価することと、
    前記新しいモデルの前記適合が前記最良モデルの前記適合よりも良好である場合、前記最良モデルパラメータを前記新しいモデルパラメータで更新することと、
    停止基準が達成されるまで、新しいモデルを生成するためにさらなる線分を選択すること、前記新しいモデルの前記適合を評価すること、および前記新しいモデルの前記適合が前記最良モデルの前記適合よりも良好である場合に前記最良モデルパラメータを前記新しいモデルパラメータで更新することのプロセスを継続的に繰り返すことと、
    を備える、請求項10に記載の方法。
  12. 前記適合がインライアの数を計算することにより評価される、請求項11に記載の方法。
  13. 前記画像の撮影中の前記カメラの前記動きが、単一の受け取った画像からの画像データのみを使用して推定される、請求項1から12のいずれか一項に記載の方法。
  14. 前記画像の撮影中の前記カメラの前記動きを推定することが、
    カメラ動きパラメータおよび前記シーンの深度に関係するパラメータの推定を得るために、前記抽出された線分のうちの3つを、前記垂直面のうちの1つに適合させることと、
    動き補償された座標で表されたときの前記画像から抽出されたさらなる線分の法線が、前記シーンの前記垂直に対して直角であると仮定することによって、前記シーンの前記深度に関係するさらなるパラメータを決定することと
    を備える、請求項5に記載の方法。
  15. 前記線分が前記2つの垂直面のうちの少なくとも1つの上にあるかどうかを決定する前に決定するために、前記抽出された線分を少なくとも1つの閾値と比較することをさらに備える、請求項1から14のいずれか一項に記載の方法。
  16. ローリングシャッタカメラにおける画像撮影中のカメラの動きを補償するためのシステムであって、
    前記システムが、プロセッサを備え、
    前記プロセッサが、
    ローリングシャッタを有するカメラにより撮影されたシーンの画像を受け取るための受信ポートと、
    前記画像の撮影中の前記カメラの動きを補償した画像データを出力するための出力と
    を備え、
    前記プロセッサが、
    前記受け取った画像から線分を抽出し、
    前記受け取った画像から前記画像の撮影中の前記カメラの前記動きを推定し、
    前記画像の撮影中の前記カメラの前記動きを補償した画像データを生成する
    ように構成され、
    前記シーンが無限遠直線で交差する水平面および2つの垂直面によって近似され、前記画像の撮影中の前記カメラの前記動きを推定することが、前記抽出された線分が垂直であり前記垂直面上にあると仮定することを備える、システム。
  17. 前記カメラが車両に搭載される、請求項16に記載のシステム。
  18. 車両に設けられる自律運転システムであって、請求項16に記載のシステムからの画像入力を備える、自律運転システム。
  19. 前記画像の撮影中の前記車両の動きを補償した画像データから物体を認識するように適応される、請求項18に記載の自律運転システム。
  20. コンピュータに請求項1に記載の方法を実施させるように構成されるコンピュータ可読コードを備えるキャリア媒体。
JP2018024461A 2017-08-29 2018-02-14 画像の動き補償のためのシステムおよび方法 Active JP6563050B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1713822.3 2017-08-29
GB1713822.3A GB2566020B (en) 2017-08-29 2017-08-29 System and method for motion compensation in images

Publications (2)

Publication Number Publication Date
JP2019046434A true JP2019046434A (ja) 2019-03-22
JP6563050B2 JP6563050B2 (ja) 2019-08-21

Family

ID=60037147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024461A Active JP6563050B2 (ja) 2017-08-29 2018-02-14 画像の動き補償のためのシステムおよび方法

Country Status (3)

Country Link
US (1) US10397479B2 (ja)
JP (1) JP6563050B2 (ja)
GB (1) GB2566020B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389650B (zh) * 2018-09-30 2021-01-12 京东方科技集团股份有限公司 一种车载相机的标定方法、装置、车辆和存储介质
US11334090B2 (en) * 2019-02-13 2022-05-17 GM Global Technology Operations LLC Method and system for determining autonomous vehicle (AV) action based on vehicle and edge sensor data
KR20210034253A (ko) * 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법
US11287269B2 (en) * 2019-12-10 2022-03-29 Pony Ai Inc. Map coordinate distortion compensation
US11405557B1 (en) * 2021-07-20 2022-08-02 Locus Robotics Corp. Rolling shutter compensation for moving digital optical camera sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302325A (ja) * 1994-04-30 1995-11-14 Suzuki Motor Corp 車載用画像認識装置
JP2007116394A (ja) * 2005-10-20 2007-05-10 Victor Co Of Japan Ltd 車載カメラ
JP2012222374A (ja) * 2011-04-04 2012-11-12 Hitachi Consumer Electronics Co Ltd 車載カメラシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4513871B2 (ja) * 2008-02-15 2010-07-28 ソニー株式会社 画像処理方法、画像処理プログラムおよび画像処理装置
US9256791B2 (en) * 2012-12-04 2016-02-09 Mobileye Vision Technologies Ltd. Road vertical contour detection
JP6354425B2 (ja) * 2014-07-30 2018-07-11 株式会社デンソー 車載カメラの取り付け姿勢検出方法およびその装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302325A (ja) * 1994-04-30 1995-11-14 Suzuki Motor Corp 車載用画像認識装置
JP2007116394A (ja) * 2005-10-20 2007-05-10 Victor Co Of Japan Ltd 車載カメラ
JP2012222374A (ja) * 2011-04-04 2012-11-12 Hitachi Consumer Electronics Co Ltd 車載カメラシステム

Also Published As

Publication number Publication date
GB201713822D0 (en) 2017-10-11
GB2566020B (en) 2020-07-01
GB2566020A (en) 2019-03-06
JP6563050B2 (ja) 2019-08-21
US20190068884A1 (en) 2019-02-28
US10397479B2 (en) 2019-08-27

Similar Documents

Publication Publication Date Title
JP6563050B2 (ja) 画像の動き補償のためのシステムおよび方法
US10097812B2 (en) Stereo auto-calibration from structure-from-motion
KR101961001B1 (ko) 단일-카메라 거리 추정
US10133279B2 (en) Apparatus of updating key frame of mobile robot and method thereof
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
EP2917754B1 (en) Image processing method, particularly used in a vision-based localization of a device
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
EP3430594B1 (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system as well as motor vehicle
US20160165140A1 (en) Method for camera motion estimation and correction
KR102397343B1 (ko) 비디오에서 가상 오브젝트를 블러링하기 위한 방법 및 디바이스
JP6110256B2 (ja) 対象物推定装置および対象物推定方法
JP2017215193A (ja) 情報処理装置および方法
Purkait et al. Minimal solvers for monocular rolling shutter compensation under ackermann motion
CN110793526A (zh) 基于可穿戴单目视觉和惯性传感器融合的行人导航方法及系统
Huttunen et al. A monocular camera gyroscope
KR101956312B1 (ko) Rgb-d 카메라 포즈 추정의 정확도 향상을 위한 깊이 맵 필터링 및 다중-레벨 예측자-수정자 방법
CN110428452B (zh) 非静态场景点的检测方法、装置、电子设备及存储介质
JP2021043486A (ja) 位置推定装置
Maxudov et al. Effect of camera-IMU displacement calibration error on tracking performance
Colomina et al. Pose versus state: are sensor position and attitude sufficient for modern photogrammetry and remote sensing?
Azartash et al. An integrated stereo ego-motion estimation framework with sparse depth map
CN115205328A (zh) 一种基于视觉的集束优化方法、装置及电子设备
JP5544408B2 (ja) 車両周辺監視装置
CN117629241A (zh) 一种基于连续时间模型的多相机视觉惯性里程计优化方法
CN113124906A (zh) 基于在线标定的测距方法、装置及电子设备

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190723

R151 Written notification of patent or utility model registration

Ref document number: 6563050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151