WO2019058582A1 - 距離推定装置及び方法 - Google Patents

距離推定装置及び方法 Download PDF

Info

Publication number
WO2019058582A1
WO2019058582A1 PCT/JP2018/006399 JP2018006399W WO2019058582A1 WO 2019058582 A1 WO2019058582 A1 WO 2019058582A1 JP 2018006399 W JP2018006399 W JP 2018006399W WO 2019058582 A1 WO2019058582 A1 WO 2019058582A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distance
feature point
timing
movement
Prior art date
Application number
PCT/JP2018/006399
Other languages
English (en)
French (fr)
Inventor
アレックス益男 金子
山本 健次郎
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US16/630,088 priority Critical patent/US11132813B2/en
Publication of WO2019058582A1 publication Critical patent/WO2019058582A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • an image (frame) around the moving object is acquired at a first timing, and feature points of the image acquired by the feature extraction image processing technique are extracted.
  • feature points are similarly extracted from the image (frame) acquired at the second timing, and the same points as the feature points extracted from the image at the first timing are tracked on the image acquired at the second timing. Then, using the amount of movement of the tracked feature point on the image, the amount of movement of the camera / self position is estimated and at the same time a map of the surrounding environment is created.
  • the frame 33 b represents one of the images captured by the imaging device 12 after the moving object 100 travels the movement amount 31 b.
  • the movement amounts on the image of the feature points 36a and 36b extracted in the process steps S21 to S23 are the feature point movement amounts 37a and 37b, respectively.
  • the feature point 36a above the image is at the far end of the mobile and the feature point 36b below the image is near the mobile.
  • the relationship between the feature point movement amount and the position of the image at this time is: movement amount 37 a (far) ⁇ movement amount 37 b (near).
  • the movement amount of the approximate feature point can be estimated by the movement amount of the moving body 100 and the feature point position on the image (distance from the moving body: far and near), and the component with less influence of noise on the image I understand.
  • FIG. 4 is a diagram for explaining the influence of the distance (eg, noise) on the image on the distance to the object.
  • the upper side of FIG. 4 shows an object 41a at a distance and a frame 44a imaged at this time, and the lower side of FIG. 4 shows an object 41b near the frame and a frame 44b imaged at this time .
  • the height direction of the mobile body is represented by Z.
  • the measurement error 46a and the error 46b at the actual site increase in proportion to the distance from the mobile, and the error 46a> error 46b. Therefore, it is understood that the error is affected as the distance from the moving object is longer.
  • FIG. 5 is a diagram showing the relationship between the estimated distance from the moving object to the object and the movement amount of the feature point on the image.
  • an image 50 shows the image acquired in the processing step S21
  • a feature point 51 shows the feature point extracted in the processing step S22.
  • the movement amount dp can be grasped separately for du in the u direction and dv in the v direction with respect to the coordinate 30b.
  • an error after tracking the feature point 51 in the processing step S23 is e.
  • the error e is distributively dispersed in the u direction and the v direction, and the influence on each direction becomes unknown.
  • the error e influences the u direction
  • the error e is added to du in the u direction
  • the movement amount dp becomes the movement amount dpA as in equation (1)
  • the error in dv in the v direction e is added, and the movement amount dp becomes the movement amount dpB as shown in the equation (2).
  • the ratio of the error e is smaller than (e + du) because of du> dv.
  • the ratio of the error e to (e + dv) is large. Therefore, it can be understood that the error is small if the distance is estimated in the direction in which the movement amount of the feature point having a large movement amount is large.
  • the movement amount Db is the movement amount of the moving body estimated in processing step S25.
  • Kv Db ⁇ tan ( N-1 ) / (tan ( N ) -tan ( N-1 )) (4)
  • Angle n, n-1, N, N-1 of the formula (3) and (4), for example, can be calculated by equation (5) and (6) method.
  • W is the size of the image captured by the imaging device 12 in the u direction
  • V is the maximum size in the v direction
  • FOVu and FOVv are the maximum angles in the u direction and the v direction that can be captured by the imaging device 12.
  • n a tan [ ⁇ (W-2 ⁇ u) ⁇ tan (FOV u / 2) ⁇ / W]
  • N a tan [ ⁇ (V-2 ⁇ v) ⁇ tan (FOV v / 2) ⁇ / V] (6)
  • Each of the distance Ku and the distance Kv calculated here is weighted to calculate the corrected distance K. As described in FIG.
  • the accuracy of the estimated distance depends on the position of the feature point on the image, the amount of movement, and the direction of movement. If the size of the amount of movement is simply taken into consideration, the amounts of movement du and dv in the u and v directions may be weighted as shown in equation (7).
  • K (Ku ⁇ du + Kv ⁇ dv) / (du + dv) (7)
  • the pixel (U, V) n is obtained by the equation (10).
  • (U, V) n P n -1 x R x T x P n-1 x (u, v) n-1 (10)
  • Weight Kv is
  • Equation (11) shows the case of selecting the distance estimated in the direction of small error, but “selection” is equivalent to setting the distances Ku and Kv weights to 1, 0 or 0, 1 respectively It is.
  • K Ku, if abs (V n- v n )> abs (U n- u n ) Kv, if abs (V n- v n ) ⁇ abs (U n- u n ) (11)
  • the distance Ku and the distance Kv may be effectively determined using the parameter G representing the prediction error of the feature point tracked in the processing step S23.
  • the prediction error of the feature point can be set based on, for example, the movement amount of the moving body 100.
  • the movement amount estimation of the moving object in the processing step S25 can be estimated from the distance to the feature point extracted from the road surface. Therefore, in FIG. 7, the movement amount D of the moving body 100 can be estimated by the image odometry technique using the feature points 74 extracted from the road surface.
  • the distance K to the feature point 73 becomes a value close to Ku.
  • the weight of Ku calculated by the movement amount 72c does not differ much from the weight of Kv calculated by the movement amount 72b, the distance K to the feature point 72 becomes a value close to the average of Kv and Ku.
  • the movement amount 73a> the movement amount 72a, and the distance can be estimated with high accuracy in the feature point 73.
  • the movement amount on the image is divided into a plurality of directions, and the distance to the feature point is estimated based on the movement amounts of the feature points in each direction on the image.
  • the distance to the feature points is estimated mainly by using the movement amount on the side where the movement amount in the direction is large.
  • a specific method to be a main factor is to adopt, estimate, or consider an error on the larger estimated distance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

単眼カメラで物体までの距離推定を行うに際し、特徴点の画像上の位置に誤差が有る場合でも、誤差の影響を低減し、高精度に物体までの距離を推定することができる距離推定装置を提供する。移動体100に搭載された撮像装置14からの画像を用いて、移動体100から画像33上の特徴点34、36までの距離を推定する距離推定装置1であって、距離推定装置1は、第1のタイミングにおいて撮像装置14から取得した画像に対して、画像上の特徴点を1つもしくは複数設定する第1の手段S22と、第2のタイミングにおいて撮像装置から取得した画像に対して、第1の手段で設定した画像上の特徴点を検知する第2の手段S23と、第1のタイミングと、第2のタイミングの間での画像上の特徴点の移動量を求める第4の手段S24と、第1のタイミングと、第2のタイミングの間での移動体の移動量を求める第5の手段S25と、第1のタイミングと、第2のタイミングの間での、画像上の移動量と、移動体の移動量に基づいて、移動体から特徴点までの距離を推定する第6の手段S26を備える。

Description

距離推定装置及び方法
 本発明は、ロボットや自動車などの移動体から周囲の物体までの距離を推定する距離推定装置及び方法に関する。
 ロボットや自動車などの移動体が、収集した周囲の情報を用い、現在の自己位置及び走行状態を推定し、移動体の走行を制御する自律走行技術及び運転支援技術が開発されている。
 この場合に、移動体の周囲の情報検出のためには、カメラなどの撮像装置、レーザセンサ、ミリ波レーダなどの様々なセンサが用いられる。また、移動体の位置を直接的に測定するためのセンサとしては、GPS(Global Positioning System)またはIMU(Inertial Measurement Unit)が用いられる。
 また自律走行を実現する制御処理としては、移動体の自己位置推定処理があり、この処理は一般に幾つかの手法を組み合わせて実現する。その手法には、例えばIMUで計測した移動体の速度または角速度の積算による相対移動量の算出手法(オドメトリ)、GPS測位手法などがある。また移動体の現在位置を修正する手法には、レーザセンサあるいはカメラなどで、位置推定の基準となる路面ペイントまたは標識のようなランドマークを検出し、検出されたランドマークの位置を地図情報と比較するマップマッチング手法がある。
 また、地図情報とランドマークがなく、かつGPSも使えない場合でも有効な自己位置推定手法として、移動体の周囲に存在する物体との相対位置を推定しながら、同時に環境の地図を作成するSLAM(Simultaneous Localization and Mapping)手法がある。
 画像を用いたSLAM処理を以下に簡単に説明する。まず第1タイミングで移動体の周囲の画像(フレーム)を取得し、特徴抽出画像処理技術で取得した画像の特徴点を抽出する。次に第2タイミングで取得した画像(フレーム)で同様に特徴点を抽出し、第1タイミングの画像で抽出した特徴点と同一の点を第2タイミングで取得した画像上で追跡する。そして、追跡した特徴点の画像上での移動量を用い、カメラ/自己位置の移動量を推定すると同時に周囲環境の地図を作成する。
 このとき、移動体と特徴点との距離が必要になる。周囲の情報検出にステレオカメラやレーザセンサを用いる場合は、特徴点との距離を直接算出できる。しかし、コストや処理の複雑性、処理速度、メンテナンス性などの観点から、周囲の情報検出に単眼カメラ(距離を直接算出できない)を用いる場合も多く、この場合に、検出した特徴点を複数の画像(フレーム)で追跡し、その時系列情報から粒子フィルタやカルマンフィルタ等により、移動体を特徴点との距離を収束計算する、単眼ステレオ手法が用いられる。
 この様な手法として、例えば、特許文献1は、移動体からの単眼ステレオ距離推定方法において、画像を撮影する撮影ステップと、時系列に撮影された複数の画像を基に画像中心からのオプティカルフローを算出するオプティカルフロー算出ステップと、移動体の速度を計測する速度計測ステップと、画像中心からのオプティカルフローと速度とから画像中の物体までの距離を推定する距離推定ステップとを備えたものである。
特開2016-148512号公報
 しかしながら、特許文献1の例のように単眼カメラで物体までの距離推定を行う場合、ノイズや演算処理誤差、画像取得タイミングなどにより特徴点の画像上の位置に誤差が生じた時に、その特徴点までの距離誤差が大きくなり、演算が収束しない、収束までの時間が長くなる、収束した場合でも距離精度が低下する、という課題がある。
 そこで、本発明の目的は、単眼カメラで物体までの距離推定を行うに際し、特徴点の画像上の位置に誤差が有る場合でも、誤差の影響を低減し、高精度に物体までの距離を推定することができる距離推定装置及び方法を提供することにある。
 上記課題を解決するために、本発明の距離推定装置は、「移動体に搭載された撮像装置からの画像を用いて、移動体から画像上の特徴点までの距離を推定する距離推定装置であって、距離推定装置1は、第1のタイミングにおいて撮像装置から取得した画像に対して、画像上の特徴点を1つもしくは複数設定する第1の手段と、第2のタイミングにおいて撮像装置から取得した画像に対して、第1の手段で設定した画像上の特徴点を検知する第2の手段と、第1のタイミングと、第2のタイミングの間での画像上の特徴点の移動量を求める第4の手段と、第1のタイミングと、第2のタイミングの間での移動体の移動量を求める第5の手段と、第1のタイミングと、第2のタイミングの間での、画像上の移動量と、移動体の移動量に基づいて、移動体から特徴点までの距離を推定する第6の手段を備える」ものである。
 また上記課題を解決するために、本発明の距離推定方法は、「移動体に搭載された撮像装置からの画像を用いて、移動体から画像上の特徴点までの距離を推定する距離推定方法であって、第1のタイミングにおいて撮像装置から取得した画像に対して、画像上の特徴点を1つもしくは複数設定し、第2のタイミングにおいて撮像装置から取得した画像に対して、第1の手段で設定した画像上の特徴点を検知し、第1のタイミングと、第2のタイミングの間での画像上の特徴点の移動量を求め、第1のタイミングと、第2のタイミングの間での移動体の移動量を求め、第1のタイミングと、第2のタイミングの間での、画像上の移動量と、移動体の移動量に基づいて、移動体から特徴点までの距離を推定する」ものである。
 本発明の距離推定装置及び方法によれば、天候などの様々な外乱、時刻や演算の誤差、ノイズの影響があった場合でも、安定して演算が行え、誤差の影響を低減し、高精度に物体までの距離を推定することができる。
本発明の実施例に係る距離推定装置1の構成例を示す図。 画像処理部が行う処理手順を示すフローチャート。 移動体100が直進した場合の、実際の現場(移動体走行現場)と、撮像したフレーム画像の関係を示す図。 移動体100が旋回した場合の、実際の現場(移動体走行現場)と、撮像したフレーム画像の関係を示す図。 物体までの距離と画像上の誤差による影響を説明する図。 推定した距離と特徴点の画像上での移動量の関係を説明する図。 特徴点の移動量を2方向に分けて移動体の移動量を推定する方法として、u方向の移動量のみを用いた距離推定方法を説明する図。 特徴点の移動量を2方向に分けて移動体の移動量を推定する方法として、v方向の移動量のみを用いた距離推定方法を説明する図。 画像上の特徴点の例を説明する図。
 以下、本発明の実施例に係る距離推定装置について、図面を用いて説明する。
 図1は、本発明の実施例に係る距離推定装置1の構成例を示す図である。
 距離推定装置1は、自動車またはロボットなどの移動体100に搭載されている。距離推定装置1は、一台もしくはそれ以上の撮像装置12(12a、12b、・・・12n)と、情報処理装置13とを有する。撮像装置12は、例えばスチルカメラまたはビデオカメラでよいし、単眼カメラでもステレオカメラでもよい。
 距離推定装置1内の情報処理装置13は、撮像装置12で撮像された画像を処理して、周囲の物体までの距離や移動体100の位置または移動量を算出する。算出された位置または移動量は、表示や、移動体100の制御に用いられる。
 情報処理装置13は、例えば一般的なコンピュータであって、撮像装置12によって撮像された画像を処理する画像処理部14と、画像処理結果に基づく処理を行う制御部(CPU)15と、メモリ16と、ディスプレイなどの表示部17と、これら構成要素を相互に接続するバス18とを有する。計算機で構成された情報処理装置13は、画像処理部14及び制御部15が所定のコンピュータプログラムを実行することにより、様々な演算処理を行う。
 撮像装置12は、移動体100に設置され、その周囲の画像を連続的に取得できれば良く、一台であっても複数台であっても良い。撮像装置12aの設置方法は、例えば、移動体100の前方、後方、側方のどこに設置しても良いし、前方に設置する場合でも、移動体100の前方の遠景を撮像しても良いし、移動体100の下方の路面(白線、または路面ペイント)などの近景を撮像しても良い。撮像装置12を複数設置する場合の他の撮像装置12b、・・・撮像装置12nは、撮像装置12aと同じ撮像方向または領域を撮像しても良いし、異なる撮像方向または領域を撮像しても良い。このとき、撮像装置12a、撮像装置12b、・・・撮像装置12nは、様々な外乱、ノイズ、誤差の影響を同時に受けないような条件で設置するのがよい。
 例えば、雨や日差しなどの環境外乱(ノイズ)の影響を低減するため、撮像装置12aは移動体100の前方で前向きに設置する場合、撮像装置12bは移動体100の後方で後ろ向きまたは下向きに設置する。これにより、例えば、降雨時に撮像装置12aが撮像した画像が雨滴の影響で不鮮明であっても、撮像装置12bが撮像した画像は雨滴の影響を受けにくく、日差し(上からの強い光線)の影響で撮像装置12aの画像が不鮮明であっても、撮像装置12bが撮像した画像は影響を受けないものとすることができる。
 また、撮像装置12a、撮像装置12b、・・・撮像装置12nは、互いに異なる撮像条件(絞り値、ホワイトバランス、等)で撮影してもよい。例えば、明るい場所用にパラメータを調整した撮像装置と、暗い場所用にパラメータを調整した撮像装置とを搭載することで、環境の明暗によらず撮像可能としてもよいし、様々特性の撮像素子やレンズを組み合わせても良い。
 また、撮像装置12a、撮像装置12b・・・撮像装置12nは、それぞれ互いに異なる撮像方向または領域を撮影してもよい。例えば、撮像装置12aは、移動体100の前方の遠景を撮像し、建物や木、標識などの立体物のドマークなどの特徴点が抽出されるようにし、撮像装置12bは、移動体100周辺の路面などの近景を撮像し、移動体100の周囲の白線、または路面ペイントなどが検出されるようにしてもよい。このようにすることで、同時刻帯に多くの特徴点が抽出でき、移動体の速さや環境外乱に影響されにくい特徴点を撮像できる。
 さらに、撮像装置12は、複数の撮像装置がセットになったステレオカメラ/複眼カメラでもよいし、単眼カメラでもよい。撮像装置12が複眼カメラの場合、撮像装置12から特徴点までの距離を直接計測できるが、撮像装置12が単眼カメラの場合でも、移動体が平らな路面を走行する場合は、画像上の画素(ピクセル)位置と実際の位置(x、y、z)との関係が一定になるため、撮像装置12(移動体100)から特徴点までの距離を幾何学的に計算できる。
 撮像装置12a、撮像装置12b、・・・撮像装置12nは、制御部15から撮影指令を受けたとき、または一定の時間間隔で自動的/連続的に画像を撮像する。取得時刻の誤差は、物体までの距離や移動体100の位置の誤差に影響するので、一定の時間間隔で自動的/連続的に画像を撮像した方が撮像時刻の誤差は低減される。
 メモリ16は、情報処理装置13の主記憶装置(メインメモリ)およびストレージなどの補助記憶装置で構成され、撮像装置12により撮像された画像のデータ及び撮像時刻を補助記憶装置に格納する。また、メモリ16には、画像処理部14、制御部15、表示部17の計算途中や計算結果の情報も格納される。例えば画像処理部14は、メモリ16に格納された画像データ及び撮像時刻に基づいて、様々な画像処理を行い、計算途中の中間画像をメモリ16に保存する。これにより中間画像は、画像処理部14による他の処理、制御部15、表示部17でも利用できる。
 バス18は、画像の情報伝達に用いることが出来るものであれば良く、例えばIEBUS(登録商標:Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。
 画像処理部14は、異なるタイミングで取得された画像(フレーム)について特徴点を抽出し、同一特徴点を追跡(トラッキング)する。そして、特徴点の画像上の移動量により移動体100の移動量を算出し、所定の地点(既知の移動体の位置)に移動体の移動量を加算して現在位置を推定する。このとき、多数の特徴点から算出される移動体の複数の位置候補から、特徴点の移動量や移動体100の移動速度等に基づいて高精度に移動体100の位置を推定する。なお本発明において、位置を推定することは距離を推定することと同義であり、位置が推定できたということはロボットや自動車などの移動体から周囲の物体までの距離を推定したことをも意味している。
 制御部15は、画像処理部14での画像処理の結果に基づいて、移動体100の駆動部や操舵部(図示せず)に対して移動速度や方向に関する指令を出力する。
 図2は、画像処理部14が行う画像処理手順を示すフローチャートである。
 画像処理部14では、最初に処理ステップS21において、メモリ16から撮像装置12a、撮像装置12b、・・・撮像装置12nが撮像した1フレーム、または複数フレームの画像データを取得する。各画像データには取得時間が記録されているため、処理する順番に拘束条件はなく、この画像データは、どの時刻に撮像したものでもよいし、複数フレームの場合、連続していなくともよい。
 なお以下の説明においては前方を撮像する撮像装置12aが撮像した異なる時刻での2つのフレームに着目して本発明の処理についての説明を行うものとする。従って、同様の処理は他の撮像装置から取得したフレームについて行われてもよい。
 次に、画像処理部14は、処理ステップS22において、取得したフレーム画像内の特徴点を抽出する。特徴点には、例えば、画像内のエッジやコーナーやピクセル強度の最大値や最小値などがある。特徴点の抽出には、Canny、Sobel、FAST、Hessian、Gaussianなどの画像処理技術を用いることができる。具体的なアルゴリズムは、画像の特徴に応じて適宜選択されるのがよい。
 次に画像処理部14は、フレーム画像の時系列に従って、各フレーム画像でそれぞれ抽出された同一特徴点を別のフレームの画像上でトラッキングする。トラッキングにはLucas-Kanade法やShi-Tomasi法やDirect Matching法などの技術を用いることができる。具体的なアルゴリズムは、画像の特徴に応じて適宜選択されるのがよい。また、処理ステップS23のトラッキングは、直前や直後に取得した連続フレームの特徴点に限らず、数フレーム間隔でもよい。
 次に処理ステップS24において、それぞれ処理ステップS23でトラッキングした特徴点の移動量を算出する。なお本発明において、「移動量」には、特徴点の移動量と、移動体の移動量があるので、用語的に区別して使用している。特徴点の移動量は、例えば、処理ステップS23のトラッキングで得られた、先行する時刻でのフレームの第1の画像上での特徴点のピクセル位置と、後行する時刻での別のフレームの第2の画像上での、同一特徴点のピクセル位置の差分を算出して求められる。
 処理ステップS25では、撮像装置12の移動量、つまり移動体の移動量を推定する。
この処理ステップS25では、撮像装置12が、あるフレームを撮像した時刻と別のフレームを撮像した時刻間の移動体100の実際の移動量を推定する。但し、最終的に移動体100のフレーム上における移動量を推定できるものであれば、他の手法を用いてもよい。例えばGPS情報、オドメトリ、画像オドメトリ、SLAMなどの技術を用いてもよく、また過去の移動体の移動量に基づいて今回の移動量を推定する時系列フィルタ(粒子フィルタやカルマンフィルタ)、前記センサ情報と各種フィルタの組み合わせでもよい。
 処理ステップS25を実施するタイミングは、処理ステップS24の直後でもよいが、処理ステップS21から処理ステップS24と平行に実施してもよい。処理ステップS26の処理が始まる前であれば、処理ステップS25をいつでも実施してもよい。
 処理ステップS26では、処理ステップS24で得られた特徴点の移動量の情報と処理ステップS25で得られた移動体100の移動量の情報を用いて、処理ステップS23でトラッキングした特徴点と撮像装置12(移動体)との量を推定する。処理ステップS26の詳細は後述する。
 本発明の考え方について図3a、図3bを用いて説明する。図3a、図3bには、実際の現場(移動体走行現場)と、移動体に搭載された撮像装置12が撮像したフレーム画像が対比して示されている。なお実際の現場(移動体走行現場)における位置は、移動体100の地上空間上にある固定座標(x、y)で表しており、30aとして図示表記している。また移動体に搭載された撮像装置12が撮像したフレーム画像における位置は、座標(u、v)で表しており、30bとして図示表記している。
 図3aは、移動体100が直進した場合の、実際の現場(移動体走行現場)と、撮像したフレーム画像の関係を示している。実際の現場(移動体走行現場)において、時刻t0と時刻t1における移動体位置が100t0と100t1であり、この間の移動体100の移動量が31bで示されている。他方、撮像したフレーム33bの画像についてみると、道路側方に設定した特徴点(遠方の特徴点36aと、近傍の特徴点36bを表示)の時刻t0における特徴点位置が36at0、36bt0であり、時刻t1における特徴点位置が36at1、36bt1で示されており、この間の特徴点の移動量が37a、37bで示されている。
 図3aにおいて、実際の現場(移動体走行現場)の座標30aは、移動体100の地上空間上にある固定座標(x、y)である。ここでは説明の都合上、簡単のため、移動体100は2次元平面上にいると仮定する。移動量31bは移動体100が走行した移動量(並進)である。ここでは簡単のため、移動体100の移動量31bを(0、y)とする。
 他方フレーム33bは、移動体100が移動量31bを走行した後の撮像装置12が撮像した画像のうちの1枚を表す。処理ステップS21から処理ステップS23で抽出した特徴点36a、36bの画像上での移動量は、それぞれ特徴点移動量37a、37bである。図3aにおいて、画像の上方にある特徴点36aは、移動体の遠方に存在し、画像の下方にある特徴点36bは、移動体の近傍に存在する。このときの特徴点移動量と画像の位置の関係は、移動量37a(遠方)<移動量37b(近傍)となる。
 図3bは、移動体100が大きく旋回した場合の、実際の現場(移動体走行現場)と、撮像したフレーム画像の関係を示している。実際の現場(移動体走行現場)において、時刻t0と時刻t1における移動体位置が100t0と100t1であり、この間の移動体100の移動量が31aで示されている。他方、撮像したフレーム33aの画像についてみると、道路遠方に設定した特徴点34b、34cと、道路上に設定した近傍の特徴点34aの時刻t0における特徴点位置が34bt0、34ct0、34at0であり、時刻t1における特徴点位置が34bt1、34ct1、34at1で示されており、この間の特徴点の移動量が35b、35c、35aで示されている。
 図3bにおいて、実際の現場(移動体走行現場)における移動体の移動量31aは(x、y、yaw)となる。なお移動体100の旋回成分をyawとして表している。ここで、距離32は、移動体100が移動量31aを走行した後の位置から遠方にある立体物までの距離であり、フレーム33aは、移動体100が移動量31aを走行した後の撮像装置12が撮像した画像のうちの1枚を表す。座標30bはフレーム33a上の座標(u、v)であり、処理ステップS21から処理ステップS23で抽出した特徴点34a、34b、34cの画像上での移動量は、それぞれ特徴点の移動量35a、35b、35cとして示されている。
 移動体100が移動量31aを走行した後、移動体の近傍にある特徴点34aの画像上での移動量35aはu軸成分とv軸成分がともに大きいが、遠方にある特徴点34b、特徴点34cの移動量35b、移動量35cはu軸成分が大きく、v軸成分はそれに比べ小さな値となる。また、特徴点34aが抽出された立体物は、特徴点34bと特徴点34cが抽出された立体物に比べて移動体100に近いため、画像上での移動量35a(v軸成分)>移動量35b(v軸成分)、移動量35a(v軸成分)>移動量35c(v軸成分)となる。
 以上、図3aでは直進の場合について、図3bでは旋回の場合について、実際の現場(移動体走行現場)と、撮像したフレーム画像の関係を説明したが、このことから以下のようなことが導き出すことができる。まず、遠方特徴点と近傍特徴点が受ける移動体100の移動量31にaよる影響は異なる。遠方特徴点34b、特徴点34cの画像上での移動量35b(u軸成分)、移動量35c(u軸成分)は、移動体100の旋回成分yawの依存が大きく、近傍特徴点34aの画像上での移動量35aは移動体100の(x、y、yaw)に依存する。
 従って、移動体100の移動量、画像上の特徴点位置(移動体からの距離:遠方・近傍)によって、概略の特徴点の移動量が推定でき、画像上でのノイズの影響が少ない成分が分かる。
 図4は、物体までの距離が画像上の誤差(ノイズ等)により受ける影響について説明する図である。図4の上側には、遠方にある物体41aとこのときに撮像したフレーム44aを表しており、図4の下側には、近傍にある物体41bとこのときに撮像したフレーム44bを表している。なお実際の現場(移動体走行現場)の座標30aでは、移動体の高さ方向をZで表している。
 図4において、フレーム44a、44bでは、処理ステップS22で物体41a、41bから抽出した特徴点について、誤差が無い場合の特徴点を42a、42bとして表している。ここで、処理ステップS23で特徴点をトラッキングした時、特徴点の位置に誤差43a、43bが発生し、特徴点42a、42bは点45a、45bになったものとする。但し、ここでは簡単のため、誤差43の影響を縦方向のみで説明するが、他の方向の移動も可能である。
 画像上での誤差43a、43bを、移動体100の地上空間上にある固定座標30aの高さ方向に変換すると、特徴点42a、42bの実際の位置から、誤差分として46a、46bだけ離れた位置となる。
 これらの図によれば、実際の現場(移動体走行現場)における測定上の誤差46aおよび誤差46bは、移動体からの距離に比例して大きくなり、誤差46a>誤差46bとなる。よって誤差は、移動体からの距離が遠いほど影響を受けることがわかる。
 図5は、推定した移動体から物体までの距離と特徴点の画像上での移動量の関係を示す図である。図5において、画像50は処理ステップS21で取得した画像を示し、特徴点51は処理ステップS22で抽出した特徴点を示す。処理ステップS23で特徴点51をトラッキングした後、画像50上での移動量をdpとすると、移動量dpは座標30bについて、u方向のduとv方向のdvに分けて把握することができる。
 また、処理ステップS23で特徴点51をトラッキングした後の誤差をeとする。ここで、誤差eは確率的にu方向とv方向に分散し、それぞれの方向が受ける影響は未知となる。誤差eがu方向に影響すると、u方向のduに誤差eが追加され、移動量dpが(1)式の通り移動量dpAとなり、誤差eがv方向に影響すると、v方向のdvに誤差eが追加され、移動量dpが(2)式の通り移動量dpBとなる。
[数1]
dpA=sqrt(dv^2+(du+e)^2)・・・(1)
[数2]
dpB=sqrt(du^2+(dv+e)^2)・・・(2)
 図4に示した通り、誤差eが一定の場合でも、物体の距離によって座標30に対する誤差が大きくなる。また図3a、図3bの説明によると、移動体が並進移動すると、近傍物体は画像上での移動量は大きいが、遠方物体は画像上での移動量は小さい。従って、画像上での移動量が小さい場合、誤差eに近づくため、その移動量で推定した距離の誤差は大きい。例えば、図5の場合、du>dvのため、(e+du)に対して、誤差eの割合は小さい。一方、(e+dv)に対して、誤差eの割合は大きい。従って、移動量が大きい特徴点の移動量が大きい方向で距離を推定すれば誤差が小さいということが理解できる。
 図6a、図6bは、特徴点の移動量をu方向とv方向に分けて距離を推定する場合の処理ステップS26の詳細を説明する図である。図6a、図6bでは、説明を簡単にするため、撮像装置12の設置角度を水平にし、画像上のu軸方向と座標30aのx方向を一致させ、画像上のv軸方向と座標30aのz方向を一致させたが、実際は複数の撮像装置12によってそれぞれ異なる設置位置、角度、方向となる。すなわち、移動量を分ける方向および数は、状況により様々なケースが存在する。
 図6aを用いて、u方向の移動量のみを用いた距離推定方法を説明する。移動体100は、時刻t=tn-1の位置から時刻t=tの位置まで移動量Daを走行し、処理ステップS23において、処理ステップS22で物体61aから抽出した特徴点をトラッキングする。このとき、時刻t=tn-1における物体61aに対する角度を角度n-1とし、時刻t=tにおける物体61aに対する角度を角度とする。時刻t=tの位置から物体61aまでの距離Kuは、幾何学的な関係から(3)式で算出できる。ここで移動量Daは、処理ステップS25で推定する移動量である。
[数3]
Ku=Da×tan(n-1)/(tan()-tan(n-1))・・・(3)
 図6bを用いて、v方向の移動量のみを用いた距離推定方法を説明する。移動体100は、時刻t=tN-1の位置から時刻t=tの位置まで移動量Dbを走行し、処理ステップS23において、処理ステップS22で物体61bから抽出した特徴点をトラッキングする。時刻t=tN-1の物体61bに対するv方向の角度を角度N-1とし、時刻t=tの物体61bに対するv方向の角度を角度とする。時刻t=tの位置から物体61bまでの距離Kvは、幾何学的関係から(4)式で算出できる。ここで移動量Dbは、処理ステップS25で推定する移動体の移動量である。
[数4]
Kv=Db×tan(N-1)/(tan()-tan(N-1))・・・(4)
 式(3)式と(4)式の角度n-1N-1は、例えば、(5)式と(6)式の方法で算出できる。ここでWは撮像装置12が撮像する画像のu方向のサイズであり、Vはv方向の最大サイズ、FOVuとFOVvは撮像装置12が撮像できるu方向とv方向の最大角度である。
[数5]
n=atan[{(W-2×u)×tan(FOVu/2)}/W]・・・(5)
[数6]
N=atan[{(V-2×v)×tan(FOVv/2)}/V]・・・(6)
 ここで算出した距離Kuと距離Kvは、それぞれに重みをつけて補正した距離Kを算出する。図5で説明した通り、推定した距離の精度は特徴点の画像上での位置、移動量、移動方向に依存する。単純に移動量の大きさを考慮した場合は、(7)式に示すように、u方向とv方向の移動量duとdvを重み付けすればよい。
[数7]
  K=(Ku×du+Kv×dv)/(du+dv)・・・(7)
 また、(8)式の通り、移動量duとdvの重みをパラメータm=1、2、3...で調整してもよい。
[数8]
K=(Ku×du^m+Kv×dv^m)/(du^m+dv^m)・・・(8)
 また、移動量duとdvを重みにせず、KuとKvの平均でKを算出してもよいし、(9)、式に示す通り、移動量の短い方向の重みを0にし、KuとKvに切り替えてもよい。
[数9]
K=Ku、if du>dv
 Kv、if du<dv・・・・・・(9)
 また、処理ステップS25で推定した移動体100の移動量と時刻t=tn-1のピクセル(u、v)n-1と推定した距離を用いて、時刻t=tのピクセル(U、V)を推定し、実際の時刻t=tのピクセル(u、v)と比較することにより、KuとKvの選択、もしくは重み付けを行っても良い。ピクセル(U、V)は(10)式で得られる。ここでRとTは処理ステップS25で推定した移動体100の移動量(並進と旋回)を表す行列であり、Pn-1とPはそれぞれの時刻t=tn-1と時刻t=tのピクセルからメートルに変換する行列である。
[数10]
(U、V)=Pn-1×R×T×Pn-1×(u、v)n-1・・・(10)
 推定したピクセル(U、V)を求め、時刻t=tの実際のピクセル(u、v)と比較し、u方向とv方向の誤差を求め、u方向とv方向の距離KuとKvの重み付けをする。
 (11)式は、誤差の小さい方向で推定した距離を選択する場合を示しているが、「選択」は、距離KuとKv重みを、それぞれ1、0もしくは0、1にするのと同等ケースである。
[数11]
K=Ku、if abs(V-v)>abs(U-u
Kv、if abs(V-v)<abs(U-u)・・・・(11)
 また、(12)式で示すように、処理ステップS23でトラッキングした特徴点の予測誤差を表すパラメータGで距離Kuと距離Kvの有効判定をしてもよい。特徴点の予測誤差は、例えば、移動体100の移動量に基づいて設定でき、例えば移動体100が高速で移動する場合は処理ステップS23で特徴点のトラッキングが失敗する可能性が高いため、速度の高さに応じてGを高く設定すればよい。また、特徴点の画像上の位置に基づいても設定でき、画像上の位置が下方では、撮像装置12に近い特徴点の移動量が大きくなり、相対的に誤差が小さくなるため、位置が下方に行くほどGを小さく設定すればよい。
[数12]
K = Ku、if G<dv
Kv、if G<du・・・・・(12)
 以上の複数の方法の組み合わせや、異なる撮像装置12の画像および異なる画像取得タイミングで同一特徴点をトラッキングした時系列情報の組み合わせにより、状況に応じて誤差の影響が小さい組み合わせパターンを用いて高精度に物体までの距離が推定できる。
ここで、異なる撮像装置12で同一の物体の距離を測定するためには、移動体が移動する過程において、異なる複数の撮像装置12が同じ領域を撮像できるように、位置、方向、画角等のセッティングをすればよい。
 図7は特徴点の例とその処理例を説明する図である。図において、移動量Dは移動体100が走行した移動量、画像71は、移動体100が移動量Dを走行する前の処理ステップS21で取得した画像である。特徴点72はビルなどの遠方の高い箇所の例、特徴点73は標識などの近傍の立体物の例、特徴点74は路面ペイントなどの近傍の路面上の特徴点の例を示す。特徴点はあらゆる場所に存在するので、本発明の距離を測定する「物体」とは、移動体の「周囲の物」を表し、標識などの構造物そのものに限らず、路面のひびや模様といった、構造物や自然物の一部分も含まれる。特徴点72、73、74は処理ステップS22で抽出し、処理ステップS23で別のタイミングで取得した画像にトラッキングされ、処理ステップS24で移動量が算出される。移動量72a、73a、74aは、それぞれ特徴点72、73、74の処理ステップS24算出した画像上での移動量である。移動量72a、73a、74aのu方向とv方向の移動量は、それぞれ、移動量72b、73b、74bと、移動量72c、73c、74cである。
 処理ステップS25の移動体の移動量推定は、撮像装置12の設置高さと角度が既知のため、路面から抽出した特徴点との距離から推定できる。従って図7において、路面から抽出した特徴点74を用いて、画像オドメトリ技術で移動体100の移動量Dが推定できる。
 処理ステップS26で特徴点72と特徴点73の距離を推定する場合、例えば、特徴点72と特徴点73のu方向とv方向に分けた移動量72b、移動量73b、移動量72c、移動量73cを用いて推定する。例として、ここでは(3)式と(4)式でそれぞれの特徴点のKuとKvを算出し、それぞれの特徴点で算出したKuとKvを例えば(7)式で組み合わせ、処理ステップS22で抽出した其々の特徴点のu方向とv方向の移動量を重み付けにする。特徴点73と特徴点72は、画像71の位置が異なるため、u方向とv方向の移動量の割合が異なる。例えば、図7の例では移動量73c>移動量73b、移動量72c移動量72bとなる。
 従ってこのとき、移動量73cで算出するKuの重みは移動量73bで算出するKvの重みより大きいので、特徴点73への距離KはKuに近い値となる。一方、移動量72cで算出するKuの重みは移動量72bで算出するKvの重みとあまり差がないので、特徴点72への距離KはKvとKuの平均に近い値となる。また、特徴点73は特徴点72より移動体100に近いため、移動量73a>移動量72aであり、特徴点73の方が高精度に距離が推定できる。
 以上に説明した本発明の距離推定装置は、「移動体100に搭載された撮像装置14からの画像を用いて、移動体100から画像33上の特徴点34、36までの距離を推定する距離推定装置1であって、距離推定装置1は、第1のタイミングにおいて撮像装置14から取得した画像に対して、画像上の特徴点を1つもしくは複数設定する第1の手段S22と、第2のタイミングにおいて撮像装置から取得した画像に対して、第1の手段で設定した画像上の特徴点を検知する第2の手段S23と、第1のタイミングと、第2のタイミングの間での画像上の特徴点の移動量を求める第4の手段S24と、第1のタイミングと、第2のタイミングの間での移動体の移動量を求める第5の手段S25と、第1のタイミングと、第2のタイミングの間での、画像上の移動量と、移動体の移動量に基づいて、移動体から特徴点までの距離を推定する第6の手段S26を備える」ものである。
 また本発明においては、画像上の移動量を複数の方向に分け、画像上の各方向の特徴点の移動量に基づいて特徴点までの距離を推定するが、その際に複数の方向に分けた、各方向の特徴点の移動量のうち、その方向への移動量が大きい側の移動量を主たる要因として、特徴点までの距離を推定するものである。
 ここで主たる要因とするための具体手法は、大きい側の推定距離を採用する、重みづけして求める、誤差を考慮するなどである。
1:位置推定装置,12:撮像装置,13:情報処理装置,14:画像処理部,15:制御部,16:メモリ,17:表示部,100:移動体,30a、30b:座標,33a、33b、44a、44b:フレーム,34a、34b、36a、36b:特徴点,31a、31b、35a、35b、35c、37a、37b:移動量,43a、43b:誤差

Claims (11)

  1.  移動体に搭載された撮像装置からの画像を用いて、移動体から画像上の特徴点までの距離を推定する距離推定装置であって、
     距離推定装置は、
     第1のタイミングにおいて前記撮像装置から取得した画像に対して、画像上の特徴点を1つもしくは複数設定する第1の手段と、
     第2のタイミングにおいて前記撮像装置から取得した画像に対して、前記第1の手段で設定した画像上の特徴点を検知する第2の手段と、
     前記第1のタイミングと、前記第2のタイミングの間での前記画像上の特徴点の移動量を求める第4の手段と、
     前記第1のタイミングと、前記第2のタイミングの間での前記移動体の移動量を求める第5の手段と、
     前記第1のタイミングと、前記第2のタイミングの間での、前記画像上の移動量と、前記移動体の移動量に基づいて、移動体から特徴点までの距離を推定する第6の手段を備えることを特徴とする距離推定装置。
  2.  請求項1に記載の距離推定装置であって、
     前記第6の手段は、前記画像上の移動量を複数の方向に分け、画像上の各方向の特徴点の移動量に基づいて特徴点までの距離を推定することを特徴とする距離推定装置。
  3.  請求項2に記載の距離推定装置であって、
     前記第6の手段は、複数方向のそれぞれについて特徴点までの距離を推定し、前記複数の方向で推定した複数の推定距離を組み合わせて特徴点までの距離を推定することを特徴とする距離推定装置。
  4.  請求項2または請求項3に記載の距離推定装置であって、
     前記第6の手段は、前記距離の推定に際し、前記複数の方向の特徴点の移動量に基づいた重み付けにより求めることを特徴とする距離推定装置。
  5.  請求項3に距離推定装置であって、
     前記第6の手段は、前記距離の推定に際し、特徴点の画像上の位置誤差を推定し、推定した誤差に基づいて、組み合わせパラメータを調整し、前記複数の方向で推定した距離と調整したパラメータに基づいて距離を推定することを特徴とする距離推定装置。
  6.  請求項3記載の距離推定装置であって、
     前記複数の推定距離の組み合わせは、移動体の移動量および/または特徴点の画像上の位置に基づいて決定することを特徴とする距離推定装置。
  7.  請求項1から請求項6のいずれか1項に記載の距離推定装置であって、
     前記移動体は、前記撮像装置を複数備え、設置条件の異なる前記複数の撮像装置が移動体周囲の同一の物を撮像することで、移動体から周囲の物までの距離を推定することを特徴とする距離推定装置。
  8.  請求項2から請求項6のいずれか1項に記載の距離推定装置であって、
     前記第6の手段は、複数の方向に分けた、各方向の特徴点の移動量のうち、その方向への移動量が大きい側の移動量を主たる要因として、特徴点までの距離を推定することを特徴とする距離推定装置。
  9.  移動体に搭載された撮像装置からの画像を用いて、移動体から画像上の特徴点までの距離を推定する距離推定方法であって、
     第1のタイミングにおいて前記撮像装置から取得した画像に対して、画像上の特徴点を1つもしくは複数設定し、
     第2のタイミングにおいて前記撮像装置から取得した画像に対して、前記画像上の特徴点を検知し、
     前記第1のタイミングと、前記第2のタイミングの間での前記画像上の特徴点の移動量を求め、
     前記第1のタイミングと、前記第2のタイミングの間での前記移動体の移動量を求め、 前記第1のタイミングと、前記第2のタイミングの間での、前記画像上の移動量と、前記移動体の移動量に基づいて、移動体から特徴点までの距離を推定することを特徴とする距離推定方法。
  10.  請求項9に記載の距離推定方法であって、
     前記画像上の移動量を複数の方向に分け、画像上の各方向の特徴点の移動量に基づいて特徴点までの距離を推定することを特徴とする距離推定方法。
  11.  請求項9または請求項10に記載の距離推定方法であって、
     複数の方向に分けた、各方向の特徴点の移動量のうち、その方向への移動量が大きい側の移動量を主たる要因として、特徴点までの距離を推定することを特徴とする距離推定方法。
PCT/JP2018/006399 2017-09-21 2018-02-22 距離推定装置及び方法 WO2019058582A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/630,088 US11132813B2 (en) 2017-09-21 2018-02-22 Distance estimation apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-181207 2017-09-21
JP2017181207A JP6858681B2 (ja) 2017-09-21 2017-09-21 距離推定装置及び方法

Publications (1)

Publication Number Publication Date
WO2019058582A1 true WO2019058582A1 (ja) 2019-03-28

Family

ID=65810157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/006399 WO2019058582A1 (ja) 2017-09-21 2018-02-22 距離推定装置及び方法

Country Status (3)

Country Link
US (1) US11132813B2 (ja)
JP (1) JP6858681B2 (ja)
WO (1) WO2019058582A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689579A (zh) * 2019-10-18 2020-01-14 华中科技大学 基于合作目标的快速单目视觉位姿测量方法及测量系统
CN111654687A (zh) * 2020-04-30 2020-09-11 兰州大学 共轴一体化的三维照相机
CN112648924A (zh) * 2020-12-15 2021-04-13 广州小鹏自动驾驶科技有限公司 基于车载单目摄像设备的悬浮对象空间位置确定方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481785B2 (ja) 2020-02-28 2024-05-13 パナソニックオートモーティブシステムズ株式会社 検知装置、検知方法、およびプログラム
CN112528817B (zh) * 2020-12-04 2024-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047091A (ja) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd 移動体検出装置
JP2009145230A (ja) * 2007-12-14 2009-07-02 Toyota Motor Corp 車両用物体監視装置、及び車両用画像解析装置
US20170010623A1 (en) * 2015-07-08 2017-01-12 SZ DJI Technology Co., Ltd Camera configuration on movable objects

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP2016148512A (ja) 2013-06-11 2016-08-18 ヤマハ発動機株式会社 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
US20160191795A1 (en) * 2014-12-30 2016-06-30 Alpine Electronics, Inc. Method and system for presenting panoramic surround view in vehicle
JP6808586B2 (ja) * 2017-07-05 2021-01-06 クラリオン株式会社 車両用外界認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047091A (ja) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd 移動体検出装置
JP2009145230A (ja) * 2007-12-14 2009-07-02 Toyota Motor Corp 車両用物体監視装置、及び車両用画像解析装置
US20170010623A1 (en) * 2015-07-08 2017-01-12 SZ DJI Technology Co., Ltd Camera configuration on movable objects

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689579A (zh) * 2019-10-18 2020-01-14 华中科技大学 基于合作目标的快速单目视觉位姿测量方法及测量系统
CN110689579B (zh) * 2019-10-18 2022-08-30 华中科技大学 基于合作目标的快速单目视觉位姿测量方法及测量系统
CN111654687A (zh) * 2020-04-30 2020-09-11 兰州大学 共轴一体化的三维照相机
CN112648924A (zh) * 2020-12-15 2021-04-13 广州小鹏自动驾驶科技有限公司 基于车载单目摄像设备的悬浮对象空间位置确定方法

Also Published As

Publication number Publication date
US20200167950A1 (en) 2020-05-28
JP2019056629A (ja) 2019-04-11
US11132813B2 (en) 2021-09-28
JP6858681B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
JP6858681B2 (ja) 距離推定装置及び方法
JP6567659B2 (ja) レーン検出装置およびレーン検出方法
JP6129981B2 (ja) 移動体位置推定装置および移動体位置推定方法
US20100121540A1 (en) Industrial machine
CN111164648B (zh) 移动体的位置推断装置及位置推断方法
JP7190261B2 (ja) 位置推定装置
CN107567412A (zh) 利用汽车相机使用车辆运动数据的对象位置测量
CN110865650B (zh) 基于主动视觉的无人机位姿自适应估计方法
KR20090103165A (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
WO2018159398A1 (ja) 移動体の位置推定装置及び方法
EP3803790B1 (en) Motion segmentation in video from non-stationary cameras
WO2018202464A1 (en) Calibration of a vehicle camera system in vehicle longitudinal direction or vehicle trans-verse direction
US11346670B2 (en) Position estimating device
WO2020230410A1 (ja) 移動体
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
EP3792874A1 (en) Position estimation device, moving-object control system, position estimation method, and computer program
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
CN106331625A (zh) 一种室内单个人体目标ptz跟踪方法
Broggi et al. Handling rolling shutter effects on semi-global matching in automotive scenarios
JP2020095435A (ja) 移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18859093

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18859093

Country of ref document: EP

Kind code of ref document: A1