JP2016148512A - 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置 - Google Patents

単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置 Download PDF

Info

Publication number
JP2016148512A
JP2016148512A JP2013122896A JP2013122896A JP2016148512A JP 2016148512 A JP2016148512 A JP 2016148512A JP 2013122896 A JP2013122896 A JP 2013122896A JP 2013122896 A JP2013122896 A JP 2013122896A JP 2016148512 A JP2016148512 A JP 2016148512A
Authority
JP
Japan
Prior art keywords
image
optical flow
distance estimation
unit
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013122896A
Other languages
English (en)
Inventor
芳紀 倉貫
Yoshiki KURANUKI
芳紀 倉貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2013122896A priority Critical patent/JP2016148512A/ja
Priority to EP14810726.1A priority patent/EP3009789A4/en
Priority to PCT/JP2014/065152 priority patent/WO2014199929A1/ja
Publication of JP2016148512A publication Critical patent/JP2016148512A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/12Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with monocular observation at a single point, e.g. coincidence type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

【課題】撮影された画像中の物体までの距離を簡易に推定できる単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置を提供する。【解決手段】車両1に搭載される距離推定装置5において、画像を撮影するカメラ3と、撮影された画像を保存する画像保存部11と、複数の画像を基に画像中心からのオプティカルフローを算出するオプティカルフロー算出部13と、車両1の速度を計測する車速センサ9と、画像中心からのオプティカルフローと車速とから画像中の物体までの距離を推定する距離推定部15とを備えた距離推定装置5である。【選択図】図7

Description

本発明は、単眼カメラで撮影された複数の画像から距離を推定する単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置に関する。
従来、自動四輪車の運転支援および予防安全のための衝突防止装置を実現するために、車両周辺環境を3次元的に認識するシステムが開発されている。車両周辺環境を検出する方法として、ミリ波レーダー、レーザーレーダーなどのアクティブなセンサを用いる方法やステレオカメラ、単眼カメラなどのパッシブなセンサを用いる方法がある。アクティブなセンサは距離精度、光源環境によらず安定した出力が得られるが、高価な割に空間分解能が低い。
これに対して、パッシブセンサは、空間分解能や価格などで優れている場合が多い。代表的なセンサであるカメラを使う場合、3次元再構成する方法として2台以上のカメラを使用するステレオカメラが一般的である。しかしながら、ステレオカメラは複数のカメラ(レンズ、撮像素子)が必要になり、また複数のカメラを頑丈な筐体で固定する必要があるので高価なセンサになりやすい。また、距離精度を確保するためにはカメラ間の距離を大きく取る必要があり、撮影部自体のサイズが大きくなってしまう欠点が存在する。
一方、単眼カメラによるステレオ法も数多く研究されている。1台のカメラでも移動した状態で連続的に撮影し、カメラ間の相対位置が分かれば3次元再構成が可能となる。これを一般に、単眼ステレオ、モーションステレオ、ストラクチャーフロムモーション(SfM;Structure from Motion)と称することが多い。本発明では単眼モーションステレオと呼ぶ。単眼モーションステレオを実現するためには、時間の経過とともに移動したカメラ間の相対位置情報を何らかの方法で推定しなければいけない(特許文献1参照)。
(1)特許文献1の技術
特許文献1に記載の単眼モーションステレオ装置は、連続する画像間の特徴点を抽出し、抽出された特徴点のうち信頼性の高い対応点をエピポール誤差により選別する。さらに、精度の高い基礎行列(カメラ間の相対位置を表す行列)を算出する。
特許4943034号公報
しかしながら、特許文献1の技術では、特徴点の抽出から、特徴点の選別、また繰り返し計算による基礎行列の算出に相当な時間を必要とし、自動車用の低スペックなCPUでの演算では短い時間内に処理をすることができない問題がある。
本発明は、このような事情に鑑みてなされたものであって、撮影された画像中の物体までの距離を簡易に推定できる単眼モーションステレオ距離推定方法およびそれを用いた単眼モーションステレオ距離推定装置を提供することを目的とする。
上記目的を達成するために、本発明は次のような構成をとる。
すなわち、本発明に係る第1の発明は、移動体からの単眼ステレオ距離推定方法において、画像を撮影する撮影ステップと、時系列に撮影された複数の前記画像を基に画像中心からのオプティカルフローを算出するオプティカルフロー算出ステップと、前記移動体の速度を計測する速度計測ステップと、画像中心からの前記オプティカルフローと前記速度とから前記画像中の物体までの距離を推定する距離推定ステップとを備えた単眼ステレオ距離推定方法である。
第1の発明によれば、撮影ステップにより前方の画像を撮影する。オプティカルフロー算出ステップでは、時系列に撮影された複数の画像を基に、画像中心からのオプティカルフローを算出する。また、速度計測ステップにより移動体の速度が検出される。距離推定ステップでは、画像中心からのオプティカルフローと、計測された移動体の速度とから前記画像中の物体までの距離を推定する。
時系列に撮影された画像の画像中心からのオプティカルフローを算出することで、オプティカルフローの方向が画像中心から外側に向かう方向に制限され、画像全体の各画素からの縦横方向のオプティカルフローの算出を省略することができ、距離推定の演算負荷を大幅に低減することができる。これにより、撮影された画像中の物体までの距離を簡易に推定することができる。
また、画像を撮影する撮影部の移動量を推定する撮影部移動量推定ステップと、前記撮影部の前記移動量を基に、消失点が画像中心に位置するように前記画像を補正する画像補正ステップとを備え、前記オプティカルフロー算出ステップは、撮影された前記画像と補正された画像とから画像中心からの前記オプティカルフローを算出することが好ましい。
撮影部移動量推定ステップにより、画像を撮影する撮影部の移動量を推定するので、走路状況に応じて運動するカメラの移動量を推定することができる。画像補正ステップは、推定された撮影部の移動量を基に、消失点が画像中心に位置するように画像を補正する。これにより、消失点が走路状況に応じて画像中心から外れる場合であっても、画像中心に位置するように補正されるので、オプティカルフロー算出ステップにより、撮影された画像と補正された画像とから画像中心からのオプティカルフローを算出することができ、走路状況に依存することなく、距離推定の演算負荷を軽減することができる。
また、本発明に係る第2の発明は、移動体に搭載される単眼ステレオ距離推定装置において、画像を撮影する撮影部と、撮影された画像を保存する画像保存部と、複数の前記画像を基に画像中心からのオプティカルフローを算出するオプティカルフロー算出部と、前記移動体の速度を計測する速度センサと、画像中心からの前記オプティカルフローと前記速度とから前記画像中の物体までの距離を推定する距離推定部とを備えた単眼ステレオ距離推定装置である。
第2の発明によれば、撮影部により撮影部前方の画像を撮影する。画像保存部は、撮影された画像を順次保存する。オプティカルフロー算出部は、時系列に撮影された複数の画像を基に、画像中心からのオプティカルフローを算出する。速度センサは移動体の速度を計測する。距離推定部は、画像中心からのオプティカルフローと、計測された移動体の速度とから画像中の物体までの距離を推定する。
時系列に撮影された画像の画像中心からのオプティカルフローを算出することで、オプティカルフローの方向が画像中心から外側に向かう方向に制限され、画像全体の各画素からの縦横方向のオプティカルフローの算出を省略することができ、距離推定の演算負荷を大幅に低減することができる。これにより、撮影された画像中の物体までの距離を簡易に推定することができる。
また、前記撮影部の移動量を推定する撮影部移動量推定部と、前記撮影部の前記移動量を基に画像中心に消失点が位置するように前記画像を補正する画像補正部とを備え、前記オプティカルフロー算出部は、撮影された前記画像と補正された画像とから画像中心からの前記オプティカルフローを算出することが好ましい。
撮影部移動量推定部により、画像を撮影する撮影部の移動量を推定するので、走路状況に応じて運動するカメラの移動量を推定することができる。画像補正部は、推定された撮影部の移動量を基に、消失点が画像中心に位置するように画像を補正する。これにより、消失点が走路状況に応じて画像中心から外れる場合であっても、画像中心に位置するように補正されるので、オプティカルフロー算出部により、撮影された画像と補正された画像とから画像中心からのオプティカルフローを算出することができる。これにより、画像全体の各画素からのオプティカルフローの算出を省略することができ、距離推定の演算負荷を大幅に低減することができる。また、走路状況に依存することなく、距離推定の演算負荷を軽減することができる。
また、撮影された複数の前記画像における特定領域のオプティカルフローを算出する特定領域オプティカルフロー算出部を備え、前記撮影部移動量推定部は、特定領域の前記オプティカルフローから前記撮影部の前記移動量を推定してもよい。
特定領域オプティカルフロー算出部は、撮影された複数の前記画像における特定領域のオプティカルフローを算出する。さらに、撮影部移動量推定部は、特定領域のオプティカルフローから撮影部の移動量を推定する。このように、撮影部の移動量を撮影された画像のみから推定することができるので、コスト高を抑制し、既存の移動体に簡易に適用することができる。
また、撮影された複数の前記画像における特定領域のオプティカルフローを算出する特定領域オプティカルフロー算出部と、前記移動体または前記撮影部の動きを検出するセンサを備え、前記撮影部移動量推定部は、前記センサの検出値と、特定領域の前記オプティカルフローとから前記移動量を推定してもよい。
特定領域オプティカルフロー算出部は、撮影された複数の前記画像における特定領域のオプティカルフローを算出する。また、これとは別に、移動体または撮影部の動きを検出するセンサを備えることで、移動体または撮影部の動きをセンサにより直接検出することができる。撮影部移動量推定部は、このセンサの検出値と、特定領域の前記オプティカルフローとから前記移動量を推定することで、撮影部の移動量を精度良く推定することができ、これにより、撮影された画像中の物体までの距離推定の精度をより向上することができる。
また、前記移動体または前記撮影部の動きを検出するセンサを備え、前記撮影部移動量推定部は、前記センサの検出値より前記撮影部の前記移動量を推定してもよい。この構成により、移動体または撮影部の動きを検出するセンサを備えることで、移動体または撮影部の動きをセンサにより直接検出することができる。撮影部移動量推定部は、このセンサの検出値より撮影部の移動量を推定するので、画像処理の演算負荷を低減することができ、より高速に距離推定をすることができる。
また、前記特定領域は、画像中心点であることが好ましい。画像中心点を特定領域とすることで、容易に特定領域のオプティカルフローを算出することができる。
また、前記特定領域は、画像下端中心点でもよい。特定領域を画像下端中心点とすることで、容易に特定領域のオプティカルフローを算出することができる。
また、前記センサは、ジャイロセンサまたは加速度センサであることが好ましい。ジャイロセンサまたは加速度センサを用いることで、適切に、移動体または撮影部の動きを検出することができる。
また、前記センサは前記移動体の操舵角を検出する操舵角センサであり、前記撮影部移動量推定部は、前記操舵角センサにより検出された前記操作舵角と、前記速度センサにより検出された前記速度と、特定領域の前記オプティカルフローとを基に前記撮影部移動量を推定してもよい。移動体に操舵角センサが用いられている場合、新たにセンサを備える必要がないので、コスト高を抑制することができ、容易に撮影部の移動量を推定することができる。
本発明によれば、撮影された画像中の物体までの距離を簡易に推定できる単眼モーションステレオ距離推定方法およびそれを用いた単眼モーションステレオ距離推定装置を提供することができる。
現在のフレームの画像を説明する説明図である。 過去フレームの画像を説明する説明図である。 単眼カメラと各軸との関係を示す説明図である。 カメラと撮像面との関係を示す説明図である。 画像中心からのオプティカルフローを説明する説明図である。 実施例に係る車両を示す側面図である。 実施例1に係る距離推定装置の構成を示すブロック図である。 実施例1に係る画像中心からオプティカルフローを求める説明図である。 実施例1に係る距離推定の流れを示すフローチャートである。 実施例2に係る距離推定装置の構成を示すブロック図である。 実施例2に係る距離推定の流れを示すフローチャートである。 変形例3に係る特定領域を示す説明図である。 実施例4に係る距離推定装置の構成を示すブロック図である。 実施例4に係る距離推定の流れを示すフローチャートである。 変形例に係る距離推定装置の構成を示すブロック図である。
1.実施例1の理論的説明
最初に、本発明の理論的説明をする。
1.1オプティカルフロー
まず、オプティカルフローについて図1および図2を用いて説明する。図1は、現在のフレームの画像を説明する説明図であり、図2は過去フレームの画像を説明する説明図である。オプティカルフローとは、時系列的に前後する画像中の対応する各点の移動量を示すベクトルである。例えば、現在フレームの画像A(図1参照)と画像Aよりも過去に取得された過去フレームの画像B(図2参照)とからオプティカルフローを求めるには、画像A中に存在する点が画像B中のどこから移動したかを探索することから始まる。なお、画像上方向にV軸をとり、画像右方向にU軸をとる。また、画像中心をU軸およびV軸の原点とする。
画像Bから画像Aにかけて点Pが、図1に示すように移動したとする。画像Bでの点Pの位置が(u−Δu,v−Δv)であり、画像Aでは点Pの位置が(u,v)である。この画像Aにおける点Pの位置と画像Bにおける点Pの位置の差である(Δu,Δv)が画像Aの点(u,v)におけるオプティカルフローとなる。すなわち、画像Aの点(u,v)はオプティカルフローの終点であり、画像Bの点(u−Δu,v−Δv)に対応する画像A上の点(u−Δu,v−Δv)はオプティカルフローの始点ともいえる。
1.2.単眼モーションステレオ
次に単眼モーションステレオについて説明する。単眼モーションステレオは、画像Aおよび画像B間のオプティカルフローからカメラの移動量(以下、カメラ運動パラメータと称す)を推定し、画像中に存在する物体までの距離を推定することである。したがって、単眼モーションステレオを実施するには、画像Aおよび画像B間のオプティカルフローと、カメラ運動パラメータと、物体までの距離との関係が必要となる。カメラ運動パラメータは本願発明における撮影部移動量に相当する。
ここで、カメラが撮影した物体は静止しているものと仮定する。図3に示されるような一般的なピンホールカメラのモデルでは、カメラと撮像面は図4のようなモデルが使われる。カメラ座標のX、Y軸と撮影された画像におけるU、V軸とはそれぞれ平行であり、撮影された画像中心はカメラ座標での(0,0,f)の位置であるとする(図4参照)。ここでfはカメラの焦点距離である。仮想撮像平面PLは撮影された画像がカメラ座標系において位置すると想定される仮想平面である。
カメラ運動パラメータは、図3に示すように6自由度ある。すなわち、回転移動量(ωx,ωy,ωz)についての3自由度と、並進移動量(tx,ty,tz)についての3自由度である。これらのカメラ運動パラメータ(ωx,ωy,ωz)、(tx,ty,tz)と、カメラで撮影された物体までの距離zと、画像中のある点(u,v)およびその点におけるオプティカルフロー(Δu,Δv)との間には次の関係があることが知られている。
Figure 2016148512
Figure 2016148512
上式(1)、(2)を用いてオプティカルフローからカメラ運動パラメータを推定する。なお、車両が直進運動する場合は、カメラ運動パラメータをより簡単にすることができる。カメラが単眼であるので、直進の場合のカメラ運動パラメータは以下の式となる。
(数3)
(ωx,ωy,ωz)=(0,0,0) ・・・(3)
(数4)
(tx,ty,tz)=(0,0,tz) ・・・(4)
式(3)および式(4)を用いると、式(1)および式(2)が以下のようになる。
Figure 2016148512
Figure 2016148512
式(5)および式(6)の両辺を二乗して足し合わせると次式となる。
Figure 2016148512
ここで、画像中心からの距離wは、w=u+vであるので、式(7)は式(5)と式(6)を用いることで次式となる。
Figure 2016148512
式(8)は、画像中心から放射状に伸びる方向のオプティカルフローΔw(図5参照)と車速tzを用いれば、距離zが推定できることを意味している。以上のように演算することで、距離zが推定できることが理論的に説明される。図5は、画像A上に、画像Bにおけるオプティカルフローの始点も表示した画像である。図5は、オプティカルフローのベクトル集合の画像ともいえる。これらのオプティカルフローΔwが始点側に収束する点が消失点である。すなわち、消失点は、各オプティカルフローΔwを始点側に延長した直線が交差する点ともいえる。図5においては、消失点Pと画像中心とが一致している。
2.実施例1の車両
上述した理論を実施する実施例1を図面を参照して説明する。図6は、実施例1に係る車両1の側面図である。本発明における移動体の実施形態として、四輪の車両1を挙げる。車両1は乗用車に限られず、工場や果樹園で走行する無人搬送車やゴルフカートも含まれる。車両1は本願発明における移動体に相当する。また、移動体は四輪車に限られず、三輪車でもよいし、モノレール型でもよい。
車両1の車幅方向の中央部に単眼のカメラ3が設けられている。また、車両1には、車両1の前方の物体との距離を推定する距離推定装置5と、車両1の車速を検出する車速センサ9と、推定された距離情報を表示するモニタ10が設けられている。車速センサ9は、例えば、車輪7の回転速度から車速を検出する車輪速センサである。なお、以下の説明で、前後および左右とは車両1の前進する方向を基準としている。
3.実施例1の距離推定装置
次に図7を参照して車両1に備えられた距離推定装置5の構成を説明する。図7は、距離推定装置の構成を示すブロック図である。
距離推定装置5は、車両1の前方の画像を撮影するカメラ3と、カメラ3により撮影された画像を一時的に保存する画像保存部11と、画像中心からのオプティカルフローを算出するオプティカルフロー算出部13と、画像中心からのオプティカルフローを基に各画素の距離情報を推定する距離推定部15と、車両1の車速を検出する車速センサ9とを備える。オプティカルフロー算出部13および距離推定部15はマイクロプロセッサまたはFPGA(Field Programmable Gate Array;再構成可能なゲートアレイ)で構成される。次にそれぞれの構成部について順に説明する。
カメラ3は、単眼のカメラで構成される。カメラ3はCCDやCMOSなど一般的な可視光センサである。カメラ3の光軸は車両1の進行方向を向くように設置されている。これにより、カメラ3により撮影された画像中心は車両1の進行方向を向いている。カメラ3の光軸が車両1の進行方向を向いていない場合は、光軸と車両進行方向のズレを予め計測しておき、車両1が平坦な走路を直進する際の消失点が画像のどの位置に存在するかを確認する。この消失点が平坦な走路を直進する際の画像中心に位置するようにカメラ3の画像全体を平行移動させるなどの画像補正としてのカメラキャリブレーションを実施する。このように、カメラ3の光軸が車両1の進行方向を向いていない場合は、単眼モーションステレオを実施する前に、カメラキャリブレーションを実施するカメラキャリブレーション部を備える必要がある。
画像保存部11は、カメラ3で撮影した画像をフレームごとに一時的に保存する。保存された各画像は画像拡大部21へ出力される。画像保存部11は、メモリ、フラッシュメモリ、ハードディスク(HDD)などで構成される。
オプティカルフロー算出部13は、カメラ3から入力される現フレームの画像Aと、画像保存部11から入力される1フレーム前の画像Bとから、画像中心からのオプティカルフローを算出する。オプティカルフロー算出部13は、1フレーム前の画像Bの画像を拡大する画像拡大部21と、拡大された画像Bと現フレームの画像Aとをマッチングするマッチング部23とを有する。次に、画像中心からのオプティカルフローを算出する方法を説明する。
従来のオプティカルフロー計算では、画像の縦横方向、つまりUV方向のオプティカルフローを求めなければならなかった。しかしながら、画像中心からのオプティカルフローに限定することで、直接Δwを求めることができる。つまり、ΔuおよびΔvを求めなくとも、Δwを求めることができるので、演算負荷を大幅に軽減することができる。
画像拡大部21は、図8に示すように、1フレーム前の画像Bを(1+a)倍、(1+b)倍、…、(1+n)倍、と順に拡大する。ここで、a<b<…<nの関係がある。図8は、画像中心からのオプティカルフローを求める説明図である。a、b、…、nの値は、例えば、0.1、0.2、…、のように、0.1ずつ増やしていってもよい。拡大率の増加率および最大拡大率は、車速およびフレームレート等により決めるとよい。
マッチング部23は画像Bおよび拡大された各画像B、B、…、Bを画像Aと画像中心を基準に順にブロックマッチングする。ブロックマッチングは、画像間の類似性を評価関数によって評価する方法であり、ここでの評価関数には、SAD(Sum of Absolute Difference)、SSD(Sum of Squares Difference)、面積相関法等が用いられる。実施例1においても、マッチング窓サイズ(2M+1)×(2N+1)に関して下式のSADを用いて類似性を評価する。
Figure 2016148512
マッチング部23は、画像Bおよび画像Bに関する拡大された各画像と画像Aとを式(9)によるSADを用いて、画像A上の各画素においてSADが最少となる画像Bの拡大率を求める。例えば、画像Aの点(u,v)と画像Bが(1+a)、…、(1+n)倍と拡大された各画像B、…、Bの中で(1+a)倍した画像Bの点(u,v)が最も類似度が高いとの結果が出たとする。画像Bにおける実際の(u,v)は(u(1+a),v(1+a))に移動しているので、画像Aにおける点(u,v)は、画像Baでは点(u(1+a),v(1+a))に移動したと考えることが出来る。すなわち、オプティカルフロー(Δu,Δv)=(ua,va)となる。
=u+vであるので、Δw=waとなる。これにより式(8)は以下の式となる。
Figure 2016148512
距離推定部15は、式(10)により、車速tzと画像の拡大率(1+a)から物体までの距離zを推定する。すなわち、画像中の各画素の拡大率から画素が表示する物体までの距離情報を得ることができる。
4.実施例1の距離推定方法
次に、実施例1における距離推定の動作を図9を用いて説明する。図9は距離推定の処理手順を示すフローチャートである。
車両1の前面に設けられたカメラ3により前方の画像を撮影する(ステップS01)。カメラ3による撮影は、例えば、1/30秒のフレーム間隔で時系列的に連続して行われる。撮影された画像は画像保存部11に保存されるとともに、マッチング部23へ送られる。
現フレームの画像Aが撮影されるのと並行して、画像保存部11に保存されている1フレーム前の画像Bが画像拡大部21へ送られる。画像拡大部21は、入力された画像Bを複数の倍率でそれぞれ拡大した画像B、B、…、Bを作成する(ステップS02)。拡大された各画像B、B、…、Bと画像Bとがマッチング部23へ送られる。マッチング23では、1フレーム前の画像Bおよび拡大された各画像B、B、…、Bと現フレームの画像Aとで、各画素ごとにブロックマッチングする(ステップS03)ことで、画像中心からのオプティカルフローを算出する。算出された画像中心からのオプティカルフローは距離推定部15へ送られる。ステップS02およびステップS03は、本発明におけるオプティカルフロー算出ステップに相当する。
また、ステップS01における画像撮影と同じタイミングで車両1の車速が車速センサ9により検出される(ステップS11)。検出された車速は距離推定部15へ送られる。距離推定部15は、車速センサ9から得られる車両1の車速tzとマッチング部23から入力される画像中心からのオプティカルフローΔwとを基に各画素に表示されている物体までの距離zを推定する(ステップS04)。推定された距離情報はモニタ10に出力される。モニタ10は、物体までの距離に応じて色分けして距離情報を表示する。また、推定された距離情報は、モニタ10に表示するだけでなく、車両の走行制御に利用してもよい。
このように、実施例1によれば、車両1が直進運動する場合、撮影画像の縦横方向に探索してオプティカルフローを求めるのではなく、過去に撮影した画像を拡大したものとマッチングするだけで画像中心からのオプティカルフローを算出することができる。この画像中心からのオプティカルフローを用いることで、撮影された物体までの距離を容易に推定することができ、演算負荷を大幅に低減することができる。また、演算負荷を大幅に低減することで、画像撮影のフレームレートを上げることができ、より短い時間間隔でも画像中の物体までの距離を推定することができる。
次に、車両1が旋回および上下運動する場合における距離推定方法および距離推定装置を説明する。実施例2の特徴は、車両が走路状況に応じて走行することで、画像中心が消失点とならない場合においても、距離推定を実施する点である。実施例1ではカメラ運動パラメータが変動するのはtz方向にのみ限定していたが、実施例2ではヨー方向およびピッチ方向に変動する場合にも距離を推定することができる。これにより、走路状況に制限されることなく距離推定をすることができる。
5.実施例2の理論的説明
車両1が道路の起伏に沿ってピッチ方向に上下運動する場合、カメラ3はピッチ方向にωx回転する。また、車両1が旋回運動する場合、カメラ3はヨー方向にωy回転する。この場合、カメラ3の運動パラメータは、式(3)に代えて以下の式となる。
(ωx,ωy,ωz)=(ωx,ωy,0) ・・・(3)’
式(3)’および式(4)より、式(1)および式(2)は以下の式となる。
Figure 2016148512
Figure 2016148512
画像全体のオプティカルフローを計算し、式(11)および式(12)の連立方程式を解くことでカメラ運動パラメータωx,ωyを求めることができる。しかしながら、この方法だと、画像全体のオプティカルフローを求める必要があるので、演算負荷が非常に大きくなる。そこで、これから説明するように、特定領域のオプティカルフロー演算を行うことで演算負荷の低減と、画像中の移動物体の影響軽減を図ることができる。
実施例2では、特定領域として画像中心を設定した場合を説明する。画像中心は(u,v)=(0,0)であるので、式(11)および式(12)は以下の式となる。
Figure 2016148512
Figure 2016148512
なお、ここで(Δu,Δv)は中心点のオプティカルフローを示す。これにより、中心点でのオプティカルフローから直接、カメラ運動パラメータのピッチ成分のωxとヨー成分のωyを推定することができる。中心点のオプティカルフロー計算には、実施例1と同様にブロックマッチングを用いる。ブロックマッチングに用いる評価関数には式(9)によるSADを用い、分解能は0.1ピクセルでのマッチングを行う。
式(9)において、Iは画像Aであり、Iは画像Bであり、このSADが最少になる(Δu,Δv)が点(u,v)のオプティカルフローとなる。実施例2では、(Δu,Δv)は少数第1位のサブピクセルの値を持つので、画像Bからサブピクセル値で輝度値を参照する場合、バイニリア法などの補間方法を用いる。以上により、中心点という特定領域のオプティカルフローを計算することで、カメラ運動パラメータを推定することができる。
しかしながら、カメラ運動パラメータωxおよびωyが推定されても、カメラ運動パラメータが直進tzのみの場合と全く同様の方法で画像中心からのオプティカルフロー計算をすることができない。カメラ運動パラメータのピッチ成分ωxおよびヨー成分ωyが存在する場合は消失点が画像中心に存在しないからである。そこで、画像中心に消失点が位置するように画像補正を行う。式(11)および式(12)を変形すると以下の式となる。
Figure 2016148512
Figure 2016148512
式(15)および式(16)から、過去フレームの画像Bに対して、推定したカメラ運動パラメータωxおよびωyで補正することで、カメラ運動パラメータが直進の場合と同様に、画像中心からのオプティカルフローを計算することができる。オプティカルフロー(Δu,Δv)を求めるためには、画像Aの点(u,v)に対応する画像Bの点(u−Δu、v−Δv)を見つけることで所望のオプティカルフローが求まる。つまり、式(15)の右辺のuは画像Aのある点であり、u−Δuは画像Bのある点である。したがって、式(15)および式(16)より、画像B(u−Δu、v−Δv)を
Figure 2016148512
だけ移動変形することで実施例1と同様に、距離推定をすることができる。ここでの画像補正は、カメラ3のピッチおよびヨー回転によりずれた消失点の位置を画像中心に補正することと同一である。以上が実施例2おける距離推定の理論的説明である。
次に、上述した理論を実施する距離推定装置を図10を参照して説明する。図10は、実施例2における距離推定装置の構成を示すブロック図である。なお、以下に記載したこと以外の実施例2における車両1および距離推定装置31の構成は、実施例1における車両1および距離測定装置5の構成と同様である。
6.実施例2の距離推定装置
実施例2における距離推定装置31は、実施例1における距離推定装置5に、カメラ運動による消失点のズレを補正する機能を有する。実施例2における距離推定装置31は、実施例1における距離推定装置5の構成に加えて、特定領域オプティカルフロー算出部33、カメラ運動パラメータ推定部35、および画像補正部37を有する。これら、特定領域オプティカルフロー算出部33、カメラ運動パラメータ推定部35、および画像補正部37は、マイクロプロセッサまたはFPGAで構成される。
カメラ3により撮影された現フレームの画像Aは、画像保存部11で保存されるとともに、特定領域オプティカルフロー算出部33とマッチング部23’へ送られる。画像保存部11は、1フレーム前に撮影されて保存されている画像Bを、特定領域オプティカルフロー算出部33へ出力する。
特定領域オプティカルフロー算出部33は、入力された現フレーム画像Aと過去フレーム画像Bとから、画像Aの中心点のオプティカルフローをブロックマッチングを用いて算出する。すなわち、式(9)のSADを用いることで(u,v)=(0,0)における(Δu、Δv)を算出する。この中心点のオプティカルフローは小数点第1位のサブピクセル単位で算出する。算出された特定領域オプティカルフロー(Δu、Δv)はカメラ運動パラメータ推定部35へ出力される。
カメラ運動パラメータ推定部35は、入力された特定領域オプティカルフロー(Δu、Δv)を基に、式(13)および式(14)を用いてカメラ運動パラメータωx、およびωyを推定する。推定したカメラ運動パラメータωx、ωyは画像補正部37へ出力する。
画像補正部37は、入力されたカメラ運動パラメータωx、ωyを用いることで、オプティカルフロー算出時の消失点が画像中心に位置するように、過去フレームの画像Bを補正して補正画像B’を得る。補正方法は、式(15)および式(16)の演算を実施する。補正画像B’は画像拡大部21’へ出力される。
画像拡大部21’は補正画像B’を実施例1と同様に順に拡大して、補正拡大画像B’、B’、…、B’を作成する。補正画像B’および各補正拡大画像B’、B’、…、B’はマッチング部23’へ出力される。
マッチング部23’は、入力された現フレームの画像Aと補正画像B’および各補正拡大画像B’、B’、…、B’とを、実施例1と同様にブロックマッチングすることで、画像中心からのオプティカルフローを算出する。算出された画像中心からのオプティカルフローは、距離推定部15へ出力される。距離推定部15では、実施例1と同様の処理をすることで、撮影された画像中の各物体までの距離を推定することができる。
次に、実施例2における距離推定の動作を図11を用いて説明する。図11は実施例2に係る距離推定の処理手順を示すフローチャートである。
7.実施例2の距離推定方法
実施例2における距離推定方法は、実施例1の距離推定方法にカメラ運動パラメータを推定し、推定したカメラ運動パラメータに応じて過去フレームの画像を補正することが追加されている。すなわち、実施例1と同様にステップS01において画像を撮影した後、特定領域オプティカルフロー算出部33が現フレーム画像Aと過去フレーム画像Bとから、画像Aの特定領域である中心点のオプティカルフローをブロックマッチングを用いて算出する(ステップS21)。算出された特定領域のオプティカルフローにより、カメラ運動パラメータ推定部35は、カメラ運動パラメータωx、ωyを推定する(ステップS22)。
推定されたカメラ運動パラメータωx、ωyを用いて、画像補正部37は、消失点が画像中心に位置するように、過去フレームの画像Bを補正して補正画像B’を得る(ステップS23)。次に、画像拡大部21’は補正画像B’を実施例1と同様に順に拡大して、補正拡大画像B’、B’、…、B’を作成する(ステップS02’)。マッチング部23’は、入力された現フレームの画像Aと補正画像B’および各補正拡大画像B’、B’、…、B’とを、実施例1と同様にブロックマッチングすることで、画像中心に位置する消失点からのオプティカルフローを算出する(ステップS03’)。ステップS11およびステップS04について、実施例1と同様に処理することで、撮影された画像中の各物体までの距離を推定することができる。
このように、実施例2によれば、画像中心点を特定領域としてオプティカルフローを求めてカメラ運動パラメータを推定している。さらに、推定されたカメラ運動パラメータを基に、過去フレームの画像を補正することで、消失点を画像中心に位置することができる。これにより、車両1が走路状況に応じて走行することで、画像中心が消失点とならない場合においても、距離推定をすることができる。
すなわち、カメラ3が車両1の動きに伴って、ヨー方向およびピッチ方向に変動する場合にも、距離を推定することができる。これにより、走路状況に制限されることなく距離推定をすることができる。さらに、静止物体に限らず、例えば前方を走る車や人といった移動物体がある場合でも、安定的に距離推定が行える。
実施例3の特徴は、実施例2において、特定領域が画像中心点であったものを、特定領域として画像下端領域を用いる点が特徴である。その他の点においては実施例2と同様である。
特定領域として、画像下端中心点を用いる場合について説明する。画像下端中心点Peは、図12に示すように、(u,v)=(0,v)であるので、式(11)および式(12)は、下式となる。
Figure 2016148512
Figure 2016148512
ここで、画像下端中心点Peは車両1の幅方向の中心点の前方下方であることから常に路面である場合が多いので、式(18)における距離zが既知であることが多い。また、式(18)の車速tzはカメラ3が装備された車両1の車速センサ9から入力されたものとすると、式(17)および式(18)からカメラ運動パラメータのピッチ成分ωxおよびヨー成分ωyを推定することができる。
実施例3による距離推定装置は実施例2における距離推定装置31の特定領域オプティカルフロー算出部33が、特定領域を画像中心点としていたのを、画像下端中心点として、特定領域オプティカルフローを求める。また、実施例3におけるカメラ運動パラメータ推定部は、上記方法によりカメラ運動パラメータのピッチ成分ωxおよびヨー成分ωyを推定する。このように、実施例3によれば、画像下端中心点を特定領域としてオプティカルフローを求めてカメラ運動パラメータを推定している。さらに、推定されたカメラ運動パラメータを基に、過去フレームの画像を補正することで、消失点を画像中心に位置することができる。これにより、車両1が走路状況に応じて走行することで、画像中心が消失点とならない場合においても、距離推定をすることができる。
次に、カメラ運動パラメータの推定精度をさらに向上させた距離推定方法および距離推定装置を説明する。実施例4の特徴は、カメラ運動パラメータの推定を2つの方法により推定し、それらの推定結果を基にカメラ運動パラメータの推定精度を向上させる点である。
上記実施例2において、カメラ運動パラメータを、撮影した画像における特定領域のオプティカルフローから推定していたが、カメラ運動パラメータを検出するセンサを設けて、この検出値からも推定する。カメラ運動パラメータを検出するセンサとして、例えば、ジャイロセンサ、または、加速度センサ等が挙げられる。これらのセンサは、少なくともX軸方向およびY軸方向について検出できることが好ましい。これらのセンサは車両1に備えてもよいし、カメラ3に備えてもよい。
図13を参照して説明する。図13は実施例4における距離推定装置の構成を示すブロック図である。実施例4における距離推定装置39は、実施例2における距離推定装置31に、ジャイロセンサ41、およびカメラ運動パラメータ補正部43とを加えた構成である。
ジャイロセンサ41は車両1に備えられており(図6参照)、車両1のX軸方向およびY軸方向の回転移動量ωxおよびωyを検出する。ここで、車両1の回転移動量とカメラ3の回転移動量とは等しいものとする。車両1の回転移動量とカメラ3の回転移動量とが異なる場合には、ジャイロセンサ41の検出値に補正をすることで、カメラ3の回転移動量を検出する。また、ジャイロセンサ41を直接カメラ3に取り付けてもよいし、ジャイロセンサ41に替えて加速度センサを取り付けてもよい。
カメラ運動パラメータ補正部43は、実施例2の方法により特定領域オプティカルフローから推定されたカメラ運動パラメータωxおよびωyと、ジャイロセンサ41により検出されたカメラ運動パラメータωxおよびωyとを統合することで補正したカメラ運動パラメータを得ることができる。これにより、精度の高いカメラ運動パラメータを推定することができる。
ここでの統合とは、単に特定領域オプティカルフローから推定されたカメラ運動パラメータωxおよびωyと、ジャイロセンサ41により検出されたカメラ運動パラメータωxおよびωyとの平均値を算出することでもよい。また、この他にも、カルマンフィルターを用いることで、複数のカメラ運動推定値の時系列データを用いることでもよい。補正されたカメラ運動パラメータは画像補正部37に送られ、実施例2と同様の処理が実施される。
次に、実施例4における距離推定の動作を図14を用いて説明する。図14は実施例4に係る距離推定の処理手順を示すフローチャートである。
実施例4における距離推定方法は、実施例2の距離推定方法に、ジャイロセンサ41により車両1またはカメラ3の回転運動を検出し、この検出値と撮影画像を基に推定されたカメラ運動パラメータとを統合することでカメラ運動パラメータを補正することが追加されている。
ステップS01における現フレームの画像Aの撮影のタイミングで、ジャイロセンサ41により回転移動量ωxおよびωyが検出される。検出された回転移動量ωxおよびωyは、カメラ運動パラメータ補正部43へ出力される。また、ステップS01〜ステップ22までは実施例2と同様である。
カメラ運動パラメータ補正部43は、推定されたカメラ運動パラメータωxおよびωyと、ジャイロセンサ41により検出された回転移動量ωxおよびωyとを統合して、カメラ運動パラメータを補正する(ステップS32)。次に、実施例2におけるステップS23と同様に、補正されたカメラ運動パラメータωx’およびωy’を用いて、画像補正する。これ以降の、ステップS02’〜ステップS04も実施例2と同様に実施する。
実施例4によれば、カメラ運動パラメータを検出するセンサを用いて検出したカメラ運動パラメータと、特定領域のオプティカルフローから推定して得られたカメラ運動パラメータとの両方を用いるので、カメラ運動パラメータの精度を向上することができる。この結果、距離推定の精度を向上させることができる。
本発明は、上記実施例のものに限らず、次のように変形実施することができる。
(1)上記実施例2において、撮影画像を基にカメラ運動パラメータを推定していたが、これに限られない。すなわち、実施例4のように、ジャイロセンサ、または、加速度センサ等のセンサを用いて直接カメラ運動パラメータを検出してもよい。センサにより、カメラ運動パラメータωx、ωyを直接検出することで、画像処理の演算負荷を軽減することができる。
(2)カメラ運動パラメータの検出方法として、変形例(1)のようにジャイロセンサ、または、加速度センサを用いて直接検出する替わりに、車両1の操舵角センサ45(図7参照)によって得られた操舵角と、車両1の車速センサ9から得られた車速とを用いて検出してもよい。この方法によっても、カメラ運動パラメータωx、ωyを検出することができ、画像処理の負担を軽減することができる。また、操舵角および車速に加えて、実施例4に記載されているように、特定領域のオプティカルフローから推定して得られたカメラ運動パラメータも用いて、カメラ運動パラメータを統合することで推定してもよい。
(3)上記実施例において、過去フレームの画像として1フレーム前の画像Bを用いて距離推定を実施していたが、1フレーム前の画像Bが撮影エラーにより保存されていない場合には、2フレーム前の画像を用いてもよいし、それより前のフレームの画像を用いてもよい。
(4)上記実施例において、実施例2における特定領域オプティカルフロー算出方法と実施例3における特定領域オプティカルフロー算出方法とを併用してもよい。図15を参照する。図15は実施例2の変形例における距離推定装置51の構成を示すブロック図である。距離推定装置51は、実施例2における距離推定装置31に、第2特定領域オプティカルフロー算出部53と、第2カメラ運動パラメータ推定部55と、カメラ運動パラメータ選択部57とを追加した構成である。
特定領域オプティカルフロー算出部33は、実施例2で説明したように、特定領域を画像中心点としてオプティカルフローを算出する。これに対して、第2特定領域オプティカルフロー算出部は、実施例3で説明したように、特定領域を画像下端中心点としてオプティカルフローを算出する。第2カメラ運動パラメータ推定部55は、画像下端中心点を特定領域として算出されたオプティカルフローを基に、カメラ運動パラメータを推定する。
このように、特定領域を画像中心点としたカメラ運動パラメータ推定と、特定領域を画像下端中心点としたカメラ運動パラメータ推定とを、独立して動作させておくことで、どちらかの領域に移動物体が入ったとしても、カメラ運動パラメータ選択部57が最適なカメラ運動パラメータを選択することができる。また、カメラ運動パラメータの選択にはジャイロセンサ41や加速度センサを用いて判別してもよい。
ここでの最適なカメラ運動パラメータの選択とは、独立した2つのカメラ運動パラメータ推定部から得られたカメラ運動パラメータが大きく乖離した場合に、1フレーム前のタイミングで算出された値に近い方を選択することでもよい。また、この他にも、ジャイロセンサ41により検出されたカメラ運動パラメータを用いて、より値が近い方を最適なカメラ運動パラメータとして選択してもよい。
(5)上記実施例において、距離推定装置は車両1に備えられていたがこれに限られない。他にも、例えば、自律走行するロボット用のビジョンシステムや視覚障害者の支援システムなどに採用してもよい。
1 … 車両
3 … カメラ
5、31、39,51 … 距離推定装置
9 … 車速センサ
11 … 画像保存部
13、13’ … オプティカルフロー算出部
15 … 距離推定部
21、21’ … 画像拡大部
23、23’ … マッチング部
33 … 特定領域オプティカルフロー算出部
53 … 第2特定領域オプティカルフロー算出部
35 … カメラ運動パラメータ推定部
55 …第2カメラ運動パラメータ推定部
37… 画像補正部
41… ジャイロセンサ
43… カメラ運動パラメータ補正部
45… 舵角センサ

Claims (11)

  1. 移動体からの単眼モーションステレオ距離推定方法において、
    画像を撮影する撮影ステップと、
    時系列に撮影された複数の前記画像を基に画像中心からのオプティカルフローを算出するオプティカルフロー算出ステップと、
    前記移動体の速度を計測する速度計測ステップと、
    画像中心からの前記オプティカルフローと前記速度とから前記画像中の物体までの距離を推定する距離推定ステップと
    を備えた単眼モーションステレオ距離推定方法。
  2. 請求項1に記載の単眼モーションステレオ距離推定方法において、
    画像を撮影する撮影部の移動量を推定する撮影部移動量推定ステップと、
    前記撮影部の前記移動量を基に、消失点が画像中心に位置するように前記画像を補正する画像補正ステップと
    を備え、
    前記オプティカルフロー算出ステップは、撮影された前記画像と補正された画像とから画像中心からの前記オプティカルフローを算出する
    単眼モーションステレオ距離推定方法。
  3. 移動体に搭載される単眼モーションステレオ距離推定装置において、
    画像を撮影する撮影部と、
    撮影された画像を保存する画像保存部と、
    複数の前記画像を基に画像中心からのオプティカルフローを算出するオプティカルフロー算出部と、
    前記移動体の速度を計測する速度センサと、
    画像中心からの前記オプティカルフローと前記速度とから前記画像中の物体までの距離を推定する距離推定部と
    を備えた単眼モーションステレオ距離推定装置。
  4. 請求項3に記載の単眼モーションステレオ距離推定装置において、
    前記撮影部の移動量を推定する撮影部移動量推定部と、
    前記撮影部の前記移動量を基に画像中心に消失点が位置するように前記画像を補正する画像補正部と
    を備え、
    前記オプティカルフロー算出部は、撮影された前記画像と補正された画像とから画像中心からの前記オプティカルフローを算出する
    単眼モーションステレオ距離推定装置。
  5. 請求項4に記載の単眼モーションステレオ距離推定装置において、
    撮影された複数の前記画像における特定領域のオプティカルフローを算出する特定領域オプティカルフロー算出部を備え、
    前記撮影部移動量推定部は、特定領域の前記オプティカルフローから前記撮影部の前記移動量を推定する
    単眼モーションステレオ距離推定装置。
  6. 請求項4に記載の単眼モーションステレオ距離推定装置において、
    撮影された複数の前記画像における特定領域のオプティカルフローを算出する特定領域オプティカルフロー算出部と、
    前記移動体または前記撮影部の動きを検出するセンサを備え、
    前記撮影部移動量推定部は、
    前記センサの検出値と、特定領域の前記オプティカルフローとから前記移動量を推定する
    単眼モーションステレオ距離推定装置。
  7. 請求項4に記載の単眼モーションステレオ距離推定装置において、
    前記移動体または前記撮影部の動きを検出するセンサを備え、
    前記撮影部移動量推定部は、前記センサの検出値より前記撮影部の前記移動量を推定する
    単眼モーションステレオ距離推定装置。
  8. 請求項5または6に記載の単眼モーションステレオ距離推定装置において、
    前記特定領域は、画像中心点である
    単眼モーションステレオ距離推定装置。
  9. 請求項5または6に記載の単眼モーションステレオ距離推定装置において、
    前記特定領域は、画像下端中心点である
    単眼モーションステレオ距離推定装置。
  10. 請求項6または7に記載の単眼モーションステレオ距離推定装置において、
    前記センサは、ジャイロセンサまたは加速度センサである
    単眼モーションステレオ距離推定装置。
  11. 請求項6または7に記載の単眼モーションステレオ距離推定装置において、
    前記センサは前記移動体の操舵角を検出する操舵角センサであり、
    前記撮影部移動量推定部は、前記操舵角センサにより検出された前記操作舵角と、前記速度センサにより検出された前記速度と、特定領域の前記オプティカルフローとを基に前記撮影部移動量を推定する
    単眼モーションステレオ距離推定装置。
JP2013122896A 2013-06-11 2013-06-11 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置 Pending JP2016148512A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013122896A JP2016148512A (ja) 2013-06-11 2013-06-11 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
EP14810726.1A EP3009789A4 (en) 2013-06-11 2014-06-06 METHOD AND APPARATUS FOR MONOCULAR-MOTION-STEREO DISTANCE ESTIMATING
PCT/JP2014/065152 WO2014199929A1 (ja) 2013-06-11 2014-06-06 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013122896A JP2016148512A (ja) 2013-06-11 2013-06-11 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置

Publications (1)

Publication Number Publication Date
JP2016148512A true JP2016148512A (ja) 2016-08-18

Family

ID=52022225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013122896A Pending JP2016148512A (ja) 2013-06-11 2013-06-11 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置

Country Status (3)

Country Link
EP (1) EP3009789A4 (ja)
JP (1) JP2016148512A (ja)
WO (1) WO2014199929A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074431A (ja) * 2016-10-31 2018-05-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2018148520A (ja) * 2017-03-09 2018-09-20 国立研究開発法人農業・食品産業技術総合研究機構 車載カメラの取付方向パラメータ算出装置および取付方向パラメータ算出方法
JP2020042819A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 運動ベクトル場の決定方法、運動ベクトル場の決定装置、機器、コンピュータ読み取り可能な記憶媒体及び車両
JP2021519242A (ja) * 2018-04-04 2021-08-10 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 車両とトレーラとの間の距離を検出する装置および方法
US11132813B2 (en) 2017-09-21 2021-09-28 Hitachi, Ltd. Distance estimation apparatus and method
US11270133B2 (en) 2017-05-17 2022-03-08 Denso Corporation Object detection device, object detection method, and computer-readable recording medium
CN115143940A (zh) * 2021-03-30 2022-10-04 本田技研工业株式会社 测距装置和测距方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107924573B (zh) * 2015-08-31 2021-05-11 三菱电机株式会社 图像处理装置、图像处理方法和存储介质
JP6739242B2 (ja) * 2016-06-01 2020-08-12 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体
CN106845446A (zh) * 2017-02-17 2017-06-13 广州因赛电子科技有限公司 一种图像报警的方法和系统
US10545506B2 (en) 2018-02-14 2020-01-28 Ford Global Technologies, Llc Methods and apparatus to perform visual odometry using a vehicle camera system
CN112396074A (zh) * 2019-08-15 2021-02-23 广州虎牙科技有限公司 基于单目图像的模型训练方法、装置及数据处理设备
CN112902911B (zh) * 2019-12-03 2023-06-20 上海高德威智能交通系统有限公司 基于单目相机的测距方法、装置、设备及存储介质
CN113124764A (zh) * 2019-12-30 2021-07-16 南京智能情资创新科技研究院有限公司 一种基于光流法的无人机树径测量方法
DE102020126401A1 (de) 2020-10-08 2022-04-14 Jungheinrich Aktiengesellschaft Verfahren zur Bestimmung von Abstandswerten zu einem Flurförderzeug sowie ein solches
CN112783170B (zh) * 2020-12-30 2022-11-29 速感科技(北京)有限公司 自主移动设备的运动参数确定方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255071A (ja) * 1997-03-10 1998-09-25 Iwane Kenkyusho:Kk 画像処理システム
US6704621B1 (en) * 1999-11-26 2004-03-09 Gideon P. Stein System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion
JP3986360B2 (ja) * 2002-05-14 2007-10-03 松下電器産業株式会社 カメラ校正装置
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP4943034B2 (ja) 2006-03-23 2012-05-30 株式会社デンソーアイティーラボラトリ ステレオ画像処理装置
JP2011209070A (ja) * 2010-03-29 2011-10-20 Daihatsu Motor Co Ltd 画像処理装置
JP5321540B2 (ja) * 2010-06-25 2013-10-23 株式会社Jvcケンウッド 画像補正処理装置、画像補正処理方法、及び画像補正処理プログラム
EP2993654B1 (en) * 2010-12-07 2017-05-03 Mobileye Vision Technologies Ltd. Method and system for forward collision warning
JP5482672B2 (ja) * 2011-01-12 2014-05-07 株式会社デンソーアイティーラボラトリ 移動物体検出装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074431A (ja) * 2016-10-31 2018-05-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2018148520A (ja) * 2017-03-09 2018-09-20 国立研究開発法人農業・食品産業技術総合研究機構 車載カメラの取付方向パラメータ算出装置および取付方向パラメータ算出方法
US11270133B2 (en) 2017-05-17 2022-03-08 Denso Corporation Object detection device, object detection method, and computer-readable recording medium
US11132813B2 (en) 2017-09-21 2021-09-28 Hitachi, Ltd. Distance estimation apparatus and method
JP2021519242A (ja) * 2018-04-04 2021-08-10 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 車両とトレーラとの間の距離を検出する装置および方法
JP7060707B2 (ja) 2018-04-04 2022-04-26 コンチネンタル オートモーティブ システムズ インコーポレイテッド 車両とトレーラとの間の距離を検出する装置および方法
US11633994B2 (en) 2018-04-04 2023-04-25 Continental Autonomous Mobility Us, Llc. Vehicle-trailer distance detection device and method
JP2020042819A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 運動ベクトル場の決定方法、運動ベクトル場の決定装置、機器、コンピュータ読み取り可能な記憶媒体及び車両
CN115143940A (zh) * 2021-03-30 2022-10-04 本田技研工业株式会社 测距装置和测距方法
JP2022155098A (ja) * 2021-03-30 2022-10-13 本田技研工業株式会社 測距装置及び測距方法
JP7236487B2 (ja) 2021-03-30 2023-03-09 本田技研工業株式会社 測距装置及び測距方法

Also Published As

Publication number Publication date
WO2014199929A1 (ja) 2014-12-18
EP3009789A1 (en) 2016-04-20
EP3009789A4 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
WO2014199929A1 (ja) 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
US10884110B2 (en) Calibration of laser and vision sensors
JP6623044B2 (ja) ステレオカメラ装置
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9251587B2 (en) Motion estimation utilizing range detection-enhanced visual odometry
JP6110256B2 (ja) 対象物推定装置および対象物推定方法
US10007998B2 (en) Image processor, apparatus, and control system for correction of stereo images
KR20090103165A (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JP2007263669A (ja) 3次元座標取得装置
US9892519B2 (en) Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP5007863B2 (ja) 3次元物体位置計測装置
WO2020137110A1 (ja) 移動量推定装置
JPWO2018179281A1 (ja) 物体検出装置及び車両
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2021093670A (ja) 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP6161704B2 (ja) 撮影装置、車両および画像補正方法
JP7303064B2 (ja) 画像処理装置、および、画像処理方法
JP2013186718A (ja) 移動物体位置姿勢推定装置及び方法
JP5062626B2 (ja) 物体識別装置
JP6747176B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP2019212203A (ja) 3dモデル作成システム
JP5455037B2 (ja) 画像から平面を検出する平面検出装置及び検出方法
JP6488697B2 (ja) オプティカルフロー算出装置、オプティカルフロー算出方法、及びプログラム
KR20130137270A (ko) 차선 인식 장치 및 차선 인식 방법