JP2014026555A - Mobile-object recognition system, mobile-object recognition program, and mobile-object recognition method - Google Patents

Mobile-object recognition system, mobile-object recognition program, and mobile-object recognition method Download PDF

Info

Publication number
JP2014026555A
JP2014026555A JP2012167886A JP2012167886A JP2014026555A JP 2014026555 A JP2014026555 A JP 2014026555A JP 2012167886 A JP2012167886 A JP 2012167886A JP 2012167886 A JP2012167886 A JP 2012167886A JP 2014026555 A JP2014026555 A JP 2014026555A
Authority
JP
Japan
Prior art keywords
optical flow
outlier
feature points
connected optical
vanishing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012167886A
Other languages
Japanese (ja)
Other versions
JP5655038B2 (en
Inventor
Ikuro Sato
育郎 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2012167886A priority Critical patent/JP5655038B2/en
Publication of JP2014026555A publication Critical patent/JP2014026555A/en
Application granted granted Critical
Publication of JP5655038B2 publication Critical patent/JP5655038B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mobile-object recognition system for removing an outlier of an optical flow by using a smaller operation quantity.SOLUTION: A mobile-object recognition system includes: a connected optical flow calculation part 20, disposed in a vehicle, for calculating a connected optical flow by extracting a feature point mutually corresponding between images of plural frames and connecting a plurality of unit optical flows interconnecting the extracted feature points of adjacent frames; an outlier removal part 51 for removing an outlier on the basis of linearity of the connected optical flow and removing the outlier on the basis of a degree of similarity of impact time between the plurality of connected optical flows with different numbers of unit optical flows for the same feature point; and a group determination part 52 for grouping, as plural feature points on a mobile object, plural feature points whose extended optical flows converge onto one vanishing point, among plural feature points remaining after a connected optical flow is removed as an outlier.

Description

本発明は、単視点画像を用いて移動体を認識する移動体認識システム、移動体認識プログラム、及び移動体認識方法に関するものである。   The present invention relates to a moving object recognition system, a moving object recognition program, and a moving object recognition method for recognizing a moving object using a single viewpoint image.

従来、車両周辺の移動体を認識して、ドライバへの報知ないし警告や車両の自動制動(以下単に「報知」という。)を行なう移動体認識システムが知られている。自車両から移動体までの距離は、ミリ波レーダ等の距離センサを用いて直接測定でき、又はステレオカメラを用いて画像処理を行なって測定できる。測定された距離を時系列に並べて分析することで、移動体の移動方向及び自車両に対する相対速度を求めることができる。そして、移動体の移動方向や自車両に対する相対速度を求めることで、その移動体が車両に衝突する可能性(危険性)を求めることができ、その危険性に基づいて報知を行なうことができる。   2. Description of the Related Art Conventionally, a moving body recognition system that recognizes a moving body around a vehicle and performs notification or warning to a driver or automatic braking of the vehicle (hereinafter simply referred to as “notification”) is known. The distance from the host vehicle to the moving body can be directly measured using a distance sensor such as a millimeter wave radar, or can be measured by performing image processing using a stereo camera. By analyzing the measured distances in time series, the moving direction of the moving body and the relative speed with respect to the host vehicle can be obtained. And by calculating | requiring the moving direction of a moving body and the relative speed with respect to the own vehicle, the possibility (risk) that the moving body collides with a vehicle can be calculated | required, and notification can be performed based on the risk. .

また、より簡易で安価な移動体認識システムとして、一系統の光学系及び撮像素子しかない単眼のカメラによって移動体を認識するシステムも知られている。このシステムは、単眼カメラによって連続的に撮影を行なうことで、時系列に並んだ複数の単視点の画像を得る。これらの複数の単視点の画像から移動体の検出を行なう技術として特許文献1に記載の技術が知られている。   As a simpler and cheaper mobile object recognition system, a system that recognizes a mobile object with a monocular camera having only one optical system and an image sensor is also known. This system obtains images of a plurality of single viewpoints arranged in time series by continuously photographing with a monocular camera. A technique described in Patent Document 1 is known as a technique for detecting a moving object from a plurality of single viewpoint images.

特許文献1に記載の技術では、時系列に並んだ複数の単視点画像の各々から抽出された特徴点とその動きベクトル(オプティカルフロー)に基づいて、特徴点群を移動体ごとにグルーピングする。このグルーピングは、オプティカルフローの消失点への収束性と外分比のばらつきに従って行なわれる。これにより不正確に算出されたオプティカルフローが混在していても、確実な移動体の検出を行なうことができる。   In the technique described in Patent Document 1, a group of feature points is grouped for each moving object based on feature points extracted from each of a plurality of single viewpoint images arranged in time series and their motion vectors (optical flow). This grouping is performed according to the convergence of the optical flow to the vanishing point and the variation of the external division ratio. Thereby, even if optical flows calculated inaccurately are mixed, it is possible to reliably detect a moving body.

特許第4919036号公報Japanese Patent No. 4919036

特許文献1の技術は、オプティカルフローのアウトライアに対して頑健であるが、それでもなお稀に複数のオプティカルフローが、アウトライアであるにもかかわらず同一の消失点と外分比を許容誤差の範囲で有することがある。この場合、アウトライアを検出してしまうので、誤った報知をしてしまうことになる。   Although the technique of Patent Document 1 is robust against optical flow outliers, it is still rare that multiple optical flows have the same vanishing point and external division ratio even though they are outliers. May have in range. In this case, since the outlier is detected, an erroneous notification is made.

本発明は、少ない演算量でオプティカルフローのアウトライアを除去する移動体認識システムを提供することを目的とする。   It is an object of the present invention to provide a mobile object recognition system that removes an optical flow outlier with a small amount of computation.

本発明の移動体認識システムは、車両に設置され、連続する複数のフレームの画像を撮影するカメラと、前記複数のフレームの画像の各々から前記複数のフレームの画像の間で互いに対応する特徴点を抽出して、隣り合うフレームの抽出された前記特徴点どうしを結ぶ複数の単オプティカルフローを連結した連結オプティカルフローを算出する連結オプティカルフロー算出部と、前記連結オプティカルフローを用いてアウトライアを除去するアウトライア除去部と、前記アウトライア除去部にて連結オプティカルフローがアウトライアとして除去された後に残った複数の前記特徴点のうち、延長された前記連結オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグループ決定部とを備えた構成を有している。   The moving body recognition system of the present invention is a feature that is installed in a vehicle and that captures images of a plurality of consecutive frames, and that corresponds to each other between each of the plurality of frame images from the plurality of frame images. And a connected optical flow calculation unit that calculates a connected optical flow obtained by connecting a plurality of single optical flows that connect the extracted feature points of adjacent frames, and an outlier is removed using the connected optical flow. Of the plurality of feature points remaining after the connected optical flow is removed as an outlier by the outlier removing unit, and the extended connected optical flow converges to one vanishing point. Group determination unit for grouping a plurality of feature points as a plurality of feature points on the moving body And it has a configuration with a.

この構成によれば、連結オプティカルフローを用いてアウトライアが除去されるので、演算量が少なく、かつ誤認識の少ない移動体認識を行なうことができる。   According to this configuration, since the outlier is removed using the connected optical flow, it is possible to perform mobile object recognition with a small amount of calculation and with little recognition error.

上記の移動体認識システムにおいて、前記アウトライア除去部は、前記連結オプティカルフローの直線らしさに基づいて、前記アウトライアを除去してよい。   In the above moving body recognition system, the outlier removal unit may remove the outlier based on the straightness of the connected optical flow.

特徴点が複数のフレームにわたって正確にトラッキングされている場合には、複数の単オプティカルフローは、直線状に連なることになる。よって、この構成によれば、複数の単オプティカルフローを連結した場合の直線らしさを調べるという少ない演算量で有効にアウトライアを判定して除去できる。   When feature points are accurately tracked over a plurality of frames, a plurality of single optical flows will be connected in a straight line. Therefore, according to this configuration, the outlier can be determined and removed effectively with a small amount of calculation of examining the linearity when a plurality of single optical flows are connected.

上記の移動体認識システムにおいて、前記アウトライア除去部は、同一の特徴点についての連結する前記単オプティカルフローの数が異なる複数の連結オプティカルフローのそれぞれの衝突時間の類似度に基づいて、前記アウトライアを除去してよい。   In the above moving body recognition system, the outlier removal unit may perform the outlier based on similarity of collision times of a plurality of connected optical flows having different numbers of single optical flows to be connected with respect to the same feature point. Liar may be removed.

特徴点が複数のフレームにわたって正確にトラッキングされている場合には、連結する単オプティカルフローの数が異なる複数の連結オプティカルフローのそれぞれの衝突時間(TTC)は互いに類似する。よって、この構成によれば、そのような複数の連結オプティカルフローのTTCの類似度を調べるという少ない演算量で有効にアウトライアを判定して除去できる。   When the feature point is accurately tracked over a plurality of frames, the collision times (TTC) of the plurality of connected optical flows having different numbers of connected single optical flows are similar to each other. Therefore, according to this configuration, the outlier can be determined and removed effectively with a small amount of calculation of examining the TTC similarity of such a plurality of connected optical flows.

上記の移動体認識システムにおいて、前記アウトライア除去部は、前記複数の連結オプティカルフローの各々がとり得る消失点の範囲を求め、前記消失点の範囲が他の連結オプティカルフローの消失点の範囲と重複しない連結オプティカルフローを前記アウトライアとして除去してよい。   In the mobile object recognition system, the outlier removal unit obtains a vanishing point range that each of the plurality of connected optical flows can take, and the vanishing point range is a vanishing point range of another connected optical flow. Non-overlapping connected optical flows may be removed as the outlier.

特徴点が複数のフレームにわたって正確にトラッキングされている場合には、その特徴点の連結オプティカルフローのとり得る消失点の範囲は一致する。よって、この構成によれば、複数の特徴点どうしの連結オプティカルフローの消失点範囲の重なりを調べるという少ない演算量で有効にアウトライアを判定して除去できる。   When a feature point is accurately tracked over a plurality of frames, the ranges of vanishing points that can be taken by the connected optical flow of the feature point match. Therefore, according to this configuration, the outlier can be determined and removed effectively with a small amount of calculation of examining the overlap of vanishing point ranges of the connected optical flows between a plurality of feature points.

上記の移動体認識システムにおいて、前記アウトライア除去部は、前記連結オプティカルフロー及びその誤差範囲内のベクトルの延長線と前記画像中に定義された地平線との交点のとり得る範囲を前記消失点の範囲として求めてよい。   In the above moving object recognition system, the outlier removal unit determines a range that can be taken by the intersection of the connected optical flow and an extension line of a vector within an error range thereof and a horizon defined in the image. It may be obtained as a range.

この構成によれば、簡易な方法で他の特徴点の情報を必要とせずに特徴点ごとの消失点を求めることができる。   According to this configuration, a vanishing point for each feature point can be obtained by a simple method without requiring information on other feature points.

上記の移動体認識システムにおいて、前記アウトライア除去部は、前記複数の連結オプティカルフローの各々がとり得る衝突時間の範囲を求め、前記衝突時間が他の連結オプティカルフローの衝突時間の範囲と重複しない連結オプティカルフローを前記アウトライアとして除去してよい。   In the above mobile object recognition system, the outlier removal unit obtains a range of collision times that each of the plurality of connected optical flows can take, and the collision time does not overlap with a range of collision times of other connected optical flows. The connected optical flow may be removed as the outlier.

特徴点が複数のフレームにわたって正確にトラッキングされている場合には、その特徴点の連結オプティカルフローのとり得るTTCの範囲は一致する。よって、この構成によれば、複数の特徴点どうしの連結オプティカルフローのTTC範囲の重なりを調べるという少ない演算量で有効にアウトライアを判定して除去できる。   When a feature point is accurately tracked over a plurality of frames, the TTC ranges that can be taken by the connected optical flow of the feature point match. Therefore, according to this configuration, the outlier can be determined and removed effectively with a small amount of calculation of examining the overlap of the TTC range of the connected optical flow between a plurality of feature points.

上記の移動体認識システムにおいて、前記アウトライア除去部は、前記連結オプティカルフロー及びその誤差範囲内のベクトルの延長線と前記画像中に定義された地平線との交点のとり得る範囲を消失点の範囲として求め、前記消失点の範囲及び前記連結オプティカルフローに基づいて前記衝突時間の範囲を求めてよい。   In the above mobile object recognition system, the outlier removal unit determines a range of vanishing points that can be taken by an intersection of the connected optical flow and an extension line of a vector within an error range thereof and a horizon defined in the image. The collision time range may be obtained based on the vanishing point range and the connection optical flow.

この構成によれば、簡易な方法で他の特徴点の情報を必要とせずに特徴点ごとのTTCを求めることができる。   According to this configuration, the TTC for each feature point can be obtained by a simple method without requiring information on other feature points.

本発明の移動体認識プログラムは、コンピュータを、車両に設置されたカメラで撮影された連続する複数のフレームの画像の各々から前記複数のフレームの画像の間で互いに対応する特徴点を抽出して、隣り合うフレームの抽出された特徴点どうしを結ぶ複数の単オプティカルフローを連結した連結オプティカルフローを算出する連結オプティカルフロー算出部、前記連結オプティカルフローを用いてアウトライアを除去するアウトライア除去部、及び前記アウトライア除去部にて連結オプティカルフローがアウトライアとして除去された後に残った複数の前記特徴点のうち、延長された前記連結オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグループ決定部として機能させる。   The moving object recognition program of the present invention extracts a feature point corresponding to each other between the plurality of frame images from each of a plurality of consecutive frame images photographed by a camera installed in a vehicle. A connected optical flow calculation unit that calculates a connected optical flow that connects a plurality of single optical flows that connect the extracted feature points of adjacent frames, an outlier removal unit that removes an outlier using the connected optical flow, Among the plurality of feature points remaining after the connected optical flow is removed as an outlier in the outlier removal unit, the plurality of feature points where the extended connected optical flow converges to one vanishing point Functions as a group determination unit that groups multiple feature points on a moving object That.

この構成によっても、連結オプティカルフローを用いてアウトライアが除去されるので、演算量が少なく、かつ誤認識の少ない移動体認識を行なうことができる。   Also with this configuration, since the outlier is removed using the connected optical flow, it is possible to perform mobile object recognition with a small amount of calculation and with little misrecognition.

本発明の移動体認識方法は、車両に設置されたカメラで連続する複数のフレームの画像を撮影する撮影ステップと、前記複数のフレームの画像の各々から前記複数のフレームの画像の間で互いに対応する特徴点を抽出して、隣り合うフレームの抽出された特徴点どうしを結ぶ複数の単オプティカルフローを連結した連結オプティカルフローを算出する連結オプティカルフロー算出ステップと、前記連結オプティカルフローを用いてアウトライアを除去するアウトライア除去部と、前記アウトライア除去部にて連結オプティカルフローがアウトライアとして除去された後に残った複数の前記特徴点のうち、延長された前記連結オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグループ決定ステップとを備えた構成を有する。   The moving body recognition method of the present invention corresponds to a shooting step of capturing images of a plurality of consecutive frames with a camera installed in a vehicle and a plurality of frames from each of the images of the plurality of frames. A connected optical flow calculation step of calculating a connected optical flow by connecting a plurality of single optical flows connecting the extracted feature points of adjacent frames, and an outlier using the connected optical flow Of the plurality of feature points remaining after the connected optical flow is removed as an outlier in the outlier removing unit, and the extended connected optical flow becomes one vanishing point. A grouping of a plurality of convergent feature points as a plurality of feature points on the moving body. And it has a configuration in which the-loop determining step.

この構成によっても、連結オプティカルフローを用いてアウトライアが除去されるので、演算量が少なく、かつ誤認識の少ない移動体認識を行なうことができる。   Also with this configuration, since the outlier is removed using the connected optical flow, it is possible to perform mobile object recognition with a small amount of calculation and with little misrecognition.

本発明によれば、連結オプティカルフローを用いてアウトライアが除去されるので、演算量が少なく、かつ誤認識の少ない移動体認識を行なうことができる。   According to the present invention, since the outlier is removed using the connected optical flow, it is possible to perform mobile object recognition with a small amount of calculation and with little recognition error.

本発明の第1の実施の形態における移動体認識システムの構成を示すブロック図The block diagram which shows the structure of the mobile body recognition system in the 1st Embodiment of this invention. 本発明の第1の実施の形態における連結オプティカルフローを説明する図The figure explaining the connection optical flow in the 1st Embodiment of this invention 本発明の第1の実施の形態における座標の定義を説明する図The figure explaining the definition of the coordinate in the 1st Embodiment of this invention 本発明の第1の実施の形態における三次元空間の点群が単位時間内に並進移動する距離を示す図The figure which shows the distance which the point cloud of the three-dimensional space in the 1st Embodiment of this invention moves in translation in unit time 本発明の第1の実施の形態における消失点を説明する図The figure explaining the vanishing point in the 1st Embodiment of this invention (a)本発明の第1の実施の形態におけるロバスト推定のコスト関数を示すグラフ (b)本発明の第1の実施の形態におけるロバスト推定の影響関数を示すグラフ(A) Graph showing the cost function of robust estimation in the first embodiment of the present invention (b) Graph showing the influence function of robust estimation in the first embodiment of the present invention 本発明の第1の実施の形態におけるアウトライアが発生しやすい画像の例を示す図The figure which shows the example of the image which an outlier tends to generate | occur | produce in the 1st Embodiment of this invention 本発明の第2の実施の形態における移動体認識システムの構成を示すブロック図The block diagram which shows the structure of the mobile body recognition system in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における消失点範囲の算出を説明するための図The figure for demonstrating calculation of the vanishing point range in the 2nd Embodiment of this invention 本発明の第2の実施の形態における複数の特徴点の消失点範囲を示すグラフThe graph which shows the vanishing point range of the some feature point in the 2nd Embodiment of this invention 本発明の第2の実施の形態における複数の特徴点のTTC範囲を示すグラフThe graph which shows the TTC range of the some feature point in the 2nd Embodiment of this invention

(第1の実施の形態)
以下、本発明の第1の実施の形態の移動体認識システムについて、図面を参照しながら説明する。図1は、本発明の第1の実施の形態の移動体認識システムの構成を示すブロック図である。本実施の形態の移動体認識システム101は、画像から移動体を認識するシステムである。移動体認識システム101は、カメラ10、連結オプティカルフロー算出部20、回転移動量・消失点推定部30、背景点除去部40、グルーピング部50、及び結果出力部60を備えている。なお、連結オプティカルフロー算出部20、回転移動量・消失点推定部30、背景点除去部40、及びグルーピング部50 からなる構成は、コンピュータが本発明の実施の形態の移動体認識プログラムを実行することで実現される。移動体認識プログラムは、記憶媒体に記憶されて、記憶媒体からコンピュータによって読み出されて、コンピュータで実行されてよい。
(First embodiment)
Hereinafter, a mobile object recognition system according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the mobile object recognition system according to the first embodiment of this invention. The mobile object recognition system 101 of this embodiment is a system that recognizes a mobile object from an image. The moving body recognition system 101 includes a camera 10, a connected optical flow calculation unit 20, a rotational movement amount / vanishing point estimation unit 30, a background point removal unit 40, a grouping unit 50, and a result output unit 60. In addition, the structure which consists of the connection optical flow calculation part 20, the rotational movement amount and vanishing point estimation part 30, the background point removal part 40, and the grouping part 50 performs a moving body recognition program of embodiment of this invention by a computer. This is realized. The moving body recognition program may be stored in a storage medium, read from the storage medium by a computer, and executed by the computer.

カメラ10は、車両に搭載されて、車両の周辺を撮影する。カメラ10は、自車両の進行方向を撮影するように、車両に設置される。カメラ10は車両の前方を撮影するように、例えばルームミラーの裏側(前方側)に設置されてよい。車両は後退することも可能であるので、カメラ10が車両の後方を撮影するように、例えば後ろのナンバープレート近くに設置されてもよい。カメラ10は、一系統の光学系及び撮像素子を備えた単眼のカメラである。カメラ10は、所定の周期で(例えば1/30秒ごとに)連続的に撮像をして画像信号を出力する。   The camera 10 is mounted on a vehicle and photographs the periphery of the vehicle. The camera 10 is installed in the vehicle so as to capture the traveling direction of the host vehicle. The camera 10 may be installed, for example, on the back side (front side) of the rearview mirror so as to photograph the front of the vehicle. Since the vehicle can also move backward, the camera 10 may be installed, for example, near the rear license plate so that the camera 10 captures the rear of the vehicle. The camera 10 is a monocular camera provided with a single optical system and an image sensor. The camera 10 continuously captures images at a predetermined cycle (for example, every 1/30 seconds) and outputs an image signal.

連結オプティカルフロー算出部20は、カメラ10で得られた複数のフレームの画像から、複数のフレームの画像間で互いに対応する特徴点を抽出し、特徴点ごとにオプティカルフローを算出する(J. shi and C. Tomasi, "Good features to track,", IEEE CVPR, pp. 593-600, 1994を参照)。本実施の形態ではオプティカルフローの算出アルゴリズムには、LK法を使用する(B. D. Lucas and T. Kanade, "An iterative image registration technique with an application to stereo vision," IJCAI, pp. 674-679, 1981を参照)。   The connected optical flow calculation unit 20 extracts feature points corresponding to each other between the images of the plurality of frames from the images of the plurality of frames obtained by the camera 10, and calculates an optical flow for each feature point (J. shi). and C. Tomasi, "Good features to track," IEEE CVPR, pp. 593-600, 1994). In this embodiment, the LK method is used as an optical flow calculation algorithm (BD Lucas and T. Kanade, “An iterative image registration technique with an application to stereo vision,” IJCAI, pp. 674-679, 1981. reference).

オプティカルフローの算出においては、アウトライアが少ないことが望ましい。アウトライアとは、一般には想定外の計算結果のことを指し、オプティカルフローのアウトライアとは、特に、誤って追跡された軌跡のことを指す。上記の特許文献1の技術はオプティカルフローのアウトライアに対して頑健であるが、それでもなお稀に複数のオプティカルフローが、アウトライアであるにもかかわらず同一の消失点と外分比を許容誤差の範囲で有することがある。この場合、アウトライアを検出してしまうため、危険度の計算を誤る結果となる。本実施の形態では演算量の低い、アウトライア除去方法を提供する。   In calculating the optical flow, it is desirable that there are few outliers. The outlier generally refers to an unexpected calculation result, and the optical flow outlier particularly refers to a trajectory tracked in error. Although the technique of the above-mentioned Patent Document 1 is robust against an optical flow outlier, it is still rare that a plurality of optical flows are outliers and have the same vanishing point and external division ratio with an allowable error. It may have in the range of. In this case, since an outlier is detected, the risk level is erroneously calculated. In this embodiment, an outlier removal method with a low calculation amount is provided.

オプティカルフローの精度を高めるために、本実施の形態では、互いに隣り合う2つのフレーム間のオプティカルフローを使う代わりに、隣り合うフレーム間のオプティカルフローを連続する複数フレーム分連結したものを使う。本明細書では、互いに隣り合う2つのフレーム間のオプティカルフロー、即ち、あるフレームの特徴点から当該フレームの次のフレームにおける当該特徴点と同じ(対応する)特徴点へのベクトルを「単オプティカルフロー」と呼び、複数の単オプティカルフローを連結して得られたオプティカルフロー、即ち、あるフレームにおける特徴点から、そのフレームから1以上の所定のフレーム数を隔てたフレームにおける当該特徴点と同じ(対応する)特徴点へのベクトルを「連結オプティカルフロー」と呼ぶ。   In order to improve the accuracy of the optical flow, in the present embodiment, instead of using the optical flow between two adjacent frames, a concatenation of a plurality of optical flows between adjacent frames is used. In this specification, an optical flow between two adjacent frames, that is, a vector from a feature point of one frame to the same (corresponding) feature point in the next frame of the frame is referred to as “single optical flow. And the same as the feature point in the frame obtained by connecting a plurality of single optical flows, that is, the feature point in one frame at a predetermined number of frames of 1 or more from that frame (corresponding The vector to the feature point is called “connected optical flow”.

図2は、本発明の実施の形態における連結オプティカルフローを説明する図である。図2において、左の列は、カメラ10によって連続的に取得された画像を上から順に時系列に並べたものであり、中央の列は、単オプティカルフローを示しており、右の列は、3つの単オプティカルフローを連結した連結オプティカルフローを示している。連結オプティカルフロー算出部20は、同一の(対応する)特徴点の複数フレーム分の単オプティカルフローを連結し、連結オプティカルフローを算出する。   FIG. 2 is a diagram for explaining a connection optical flow in the embodiment of the present invention. In FIG. 2, the left column is a sequence of images sequentially acquired from the camera 10 in order from the top, the central column shows a single optical flow, and the right column is A consolidated optical flow is shown in which three single optical flows are connected. The connected optical flow calculation unit 20 connects single optical flows for a plurality of frames of the same (corresponding) feature points to calculate a connected optical flow.

図2に示すように、単オプティカルフローは、隣り合う2つのフレーム間において、同一の特徴点を結ぶことで生成され、連結オプティカルフローは複数の単オプティカルフローを連結することで生成される。図2の例では、3つ(n=3)のオプティカルフローが連結されることで、連結オプティカルフローが生成されている。   As shown in FIG. 2, a single optical flow is generated by connecting the same feature points between two adjacent frames, and a connected optical flow is generated by connecting a plurality of single optical flows. In the example of FIG. 2, a connected optical flow is generated by connecting three (n = 3) optical flows.

回転移動量・消失点推定部30は、連結オプティカルフローから消失点を推定する。一般的に、三次元上の点群が一定の速度で並進移動をするとき、これらの点群を透視投影した二次元の点群の移動の軌跡は、その延長線が一点で交わる特徴を持つ。この交点が消失点である。本明細書では、消失点という用語を、画像平面上の点の軌跡の延長線の交点の意味で用いる。なお、移動体が複数ある場合には、移動体ごとに消失点が推定される。   The rotational movement amount / vanishing point estimation unit 30 estimates the vanishing point from the connected optical flow. In general, when a three-dimensional point cloud translates at a constant speed, the trajectory of a two-dimensional point cloud that is a perspective projection of these point clouds has a feature that the extension lines intersect at one point. . This intersection is the vanishing point. In this specification, the term vanishing point is used to mean the intersection of the extension lines of the locus of points on the image plane. When there are a plurality of moving objects, vanishing points are estimated for each moving object.

まず、以下の演算において用いる座標を定義する。図3は、本発明の実施の形態における座標の定義を説明する図である。路面が平坦なとき、カメラ10の光軸と路面は平行であると仮定する。カメラ10の光軸をZ軸、鉛直下方向をY軸とし、X軸は右手座標系により定義する。原点(0,0,0)はカメラ10の光学中心とする。なお、本実施の形態ではカメラ10の光軸を路面と平行と仮定するが、カメラ10の光軸と路面が平行でない場合においても適切な回転行列を導入することで容易に一般化が可能である。透視投影モデルを考え、画像座標は(x,y)=(fX/Z,fY/Z)で与えるものとする。ここで、fはカメラ10の焦点距離であり、既知である。   First, the coordinates used in the following calculation are defined. FIG. 3 is a diagram for explaining the definition of coordinates in the embodiment of the present invention. When the road surface is flat, it is assumed that the optical axis of the camera 10 and the road surface are parallel. The optical axis of the camera 10 is the Z axis, the vertically downward direction is the Y axis, and the X axis is defined by the right hand coordinate system. The origin (0, 0, 0) is the optical center of the camera 10. In this embodiment, it is assumed that the optical axis of the camera 10 is parallel to the road surface. However, even when the optical axis of the camera 10 and the road surface are not parallel, it can be easily generalized by introducing an appropriate rotation matrix. is there. Considering a perspective projection model, the image coordinates are given by (x, y) = (fX / Z, fY / Z). Here, f is the focal length of the camera 10 and is known.

図4は、三次元空間の点群(移動体上の点)が単位時間内に並進移動する距離(点群の三次元空間内での速度)を示す図である。この速度Vを(ΔX,ΔY,ΔZ) とすると、時刻tにおいて透視投影された画像座標 x(t)=f(X+tΔX)/(Z+tΔZ)、y(t)=f(Y+tΔY)/(Z+tΔZ) は、t→−∞又はt→∞の極限において、(fΔX/ΔZ,fΔY/ΔZ) に収束する。よって、消失点の二次元座標は(fΔX/ΔZ,fΔY/ΔZ)と与えられる。なお、t→−∞収束する点群は、カメラから遠ざかる点群であり、t→∞で収束する点群は、カメラに近づく点群である。   FIG. 4 is a diagram showing the distance (the velocity of the point group in the three-dimensional space) that the point group (point on the moving body) in the three-dimensional space moves in translation in unit time. When this velocity V is (ΔX, ΔY, ΔZ), the image coordinates x (t) = f (X + tΔX) / (Z + tΔZ) projected at time t, y (t) = f (Y + tΔY) / (Z + tΔZ) Converges to (fΔX / ΔZ, fΔY / ΔZ) in the limit of t → −∞ or t → ∞. Therefore, the two-dimensional coordinates of the vanishing point are given as (fΔX / ΔZ, fΔY / ΔZ). The point cloud that converges from t → −∞ is a point cloud that moves away from the camera, and the point cloud that converges at t → ∞ is a point cloud that approaches the camera.

図5は、消失点を説明する図である。図5の例では、特徴点FP1〜6の連結オプティカルフローCOF1〜6の延長線が1つの点で交わっており、この点が消失点VPとなる。回転移動量・消失点推定部30は、各特徴点の連結オプティカルフローを延長して、複数の連結オプティカルフローが交わる点を探索して、それを消失点として推定する。オプティカルフローには、アウトライアや、移動体のオプティカルフローや、背景物体のオプティカルフローが混在していることを考えると、消失点の推定にはロバスト推定を適応するのが妥当である。ロバスト推定とは、はずれ値に対して頑健なパラメタ推定のことをいう。本実施の形態では、ロバスト推定として、M推定(P. J. Huber and E. M. Ronchetti, "Robust Statistice, 2nd Edition," Wiley Interscienceを参照)を適用する。   FIG. 5 is a diagram illustrating vanishing points. In the example of FIG. 5, the extension lines of the connected optical flows COF 1 to 6 of the feature points FP 1 to 6 intersect at one point, and this point becomes the vanishing point VP. The rotational movement amount / vanishing point estimation unit 30 extends the connection optical flow of each feature point, searches for a point where a plurality of connection optical flows intersect, and estimates it as a vanishing point. Considering that the optical flow includes the outlier, the optical flow of the moving object, and the optical flow of the background object, it is appropriate to apply the robust estimation to the vanishing point estimation. Robust estimation refers to parameter estimation that is robust against outliers. In this embodiment, M estimation (see P. J. Huber and E. M. Ronchetti, “Robust Statistice, 2nd Edition,” Wiley Interscience) is applied as robust estimation.

なお、例えば演算能力が制限されている等の理由で上述の技術を適応できない場合は、回転移動量・消失点推定部30は、以下の簡易な処理により連結オプティカルフローの消失点を求めてもよい。この方法では、回転移動量・消失点推定部30は、あらかじめカメラ10の画像の中の地平線の位置を記録しておき、地平線と連結オプティカルフローの交点を、この点の軌跡の消失点とする。この方法は、移動体とカメラ10が平らな地面と平行に移動しているとき、移動体の軌跡の消失点は地平線上に存在するという事実に基づいている。但し、連結オプティカルフローの傾きが小さい場合(地平線とほぼ平行である場合)、連結オプティカルフローの誤差が消失点の値を大きく変動させ得るので、連結オプティカルフローの誤差の範囲で消失点の値の範囲が大きすぎる場合には、例外的処理として、この点を検出候補から除外する。   If the above-described technique cannot be applied because, for example, the calculation capability is limited, the rotational movement amount / vanishing point estimation unit 30 may calculate the vanishing point of the connected optical flow by the following simple process. Good. In this method, the rotational movement amount / vanishing point estimation unit 30 records the position of the horizon in the image of the camera 10 in advance, and the intersection of the horizon and the connected optical flow is used as the vanishing point of the locus of this point. . This method is based on the fact that when the moving object and the camera 10 are moving parallel to the flat ground, the vanishing point of the moving object's trajectory exists on the horizon. However, if the slope of the connected optical flow is small (when it is almost parallel to the horizon), the error of the connected optical flow can greatly change the value of the vanishing point. If the range is too large, this point is excluded from the detection candidates as an exceptional process.

また、回転移動量・消失点推定部30は、カメラ10の回転移動に起因するオプティカルフローの成分を推定して、それを連結オプティカルフローから除去する。いま、三次元の並進移動量(Vx,Vy,Vz)と回転移動量Ω=(Ωx,Ωy,Ωz)を持つカメラによって透視投影された三次元上の点(X,Y,Z)のオプティカルフローをv=(vx,vy)とすると、このオプティカルフローvは下式(1)で表される。

Figure 2014026555
ここで、x=fX/Z、y=fY/Zであり、vx r、vy rは、以下の式(2)で与えられるカメラ10の回転量の一次の項からなるオプティカルフローの成分である。
Figure 2014026555
Further, the rotational movement amount / vanishing point estimation unit 30 estimates an optical flow component caused by the rotational movement of the camera 10 and removes it from the connected optical flow. Now, a three-dimensional point (X, V, X , V y , V z ) and a three-dimensional point (X, V) projected by a camera having a rotational movement amount Ω = (Ω x , Ω y , Ω z ). If the optical flow of Y, Z) is v = (v x , v y ), this optical flow v is expressed by the following equation (1).
Figure 2014026555
Here, x = fX / Z, y = fY / Z, and v x r and v y r are components of an optical flow consisting of a first-order term of the rotation amount of the camera 10 given by the following equation (2). It is.
Figure 2014026555

式(2)からpF=(xF,yF)=(fVx/Vz,fVy/Vz)と置き換えられ、奥行き成分ZとVzを消去すると、以下の式(3)が得られる。

Figure 2014026555
ここで、R(pF,Ω)は、パラメタ空間内の誤差関数であり、理想状態において0をとる。式(3)は即ち、回転成分を取り除いた静止点のオプティカルフローを延長すると、画像上の1点(即ち、拡張焦点:FOE:Focus Of Expansion)で交わることを意味している。 By replacing p F = (x F , y F ) = (fV x / V z , fV y / V z ) from the expression (2) and eliminating the depth components Z and V z , the following expression (3) is obtained: can get.
Figure 2014026555
Here, R (p F , Ω) is an error function in the parameter space, and takes 0 in the ideal state. That is, the expression (3) means that when the optical flow of the stationary point from which the rotation component is removed is extended, it intersects at one point on the image (that is, FOE: Focus Of Expansion).

オプティカルフローのはずれ値や移動体の点は、一般的にはRの値が大きいと考えられため、本実施の形態では、回転移動量・消失点推定部30は、式(4)のM推定を使用する。

Figure 2014026555
ここで、ρ(R)は最小値に0を持つ、R=0に対して対称の関数である。はずれ値に対する頑健性の度合いは、影響関数ψ(R)=∂ρ/∂Rによって特徴付けられる。 Since the outlier value of the optical flow and the point of the moving object are generally considered to have a large R value, in this embodiment, the rotational movement amount / vanishing point estimation unit 30 performs the M estimation of Expression (4). Is used.
Figure 2014026555
Here, ρ (R) is a function having a minimum value of 0 and symmetric with respect to R = 0. The degree of robustness against outliers is characterized by the influence function ψ (R) = ∂ρ / ∂R.

図6(a)は、ロバスト推定のコスト関数を示すグラフであり、図6(b)は、ロバスト推定の影響関数を示す図である。図6(a)及び(b)において、破線はL2ノルムを示し、実線はCauchy関数を示している。本実施の形態では、図6及び次式(5)で定義されるCauchyの影響関数を用いている。

Figure 2014026555
FIG. 6A is a graph showing a cost function for robust estimation, and FIG. 6B is a diagram showing an influence function for robust estimation. 6A and 6B, the broken line indicates the L2 norm, and the solid line indicates the Cauchy function. In this embodiment, the Cauchy influence function defined by FIG. 6 and the following equation (5) is used.
Figure 2014026555

Cauchyの影響関数は、R>0において単調増加関数ではなく、極値を境に減少に転じるため、誤差の大きな入力の解に対する影響を低く抑えることができる。式(5)の定数Cは、C=2.385である。この値は、平均を0とするガウス分布の最小二乗法の95%の効率を与えるよう設定されている。   Since the influence function of Couchy is not a monotonically increasing function at R> 0 but starts to decrease at the extreme value, the influence on the input solution having a large error can be suppressed to a low level. The constant C in equation (5) is C = 2.385. This value is set so as to give 95% efficiency of the least squares method of Gaussian distribution with an average of 0.

回転移動量・消失点推定部30は、M推定の解法として反復再重み付け最小二乗法(IRLS:Iteratively Reweighted Least Squares)を用いる。これは、式(4)のコスト関数を重み付き誤差の二乗和の形に変形し、最小二乗法と重み更新を解が収束するまで交互に繰り返す方法である。この重みは影響関数を用いて、ω=ψ(R)/Rで与えられる。以下に、IRLSのアルゴリズムを示す。

Figure 2014026555
The rotational movement amount / vanishing point estimation unit 30 uses an iteratively reweighted least squares (IRLS) method as a solution for M estimation. This is a method in which the cost function of Equation (4) is transformed into a weighted error sum of squares, and the least square method and weight update are alternately repeated until the solution converges. This weight is given by ω = ψ (R) / R using an influence function. The IRLS algorithm is shown below.
Figure 2014026555

上記のステップ3)のリスケーリングにおける分母1.48mad(R)は、Rが正規分布に従うとき、標準偏差と等しくなるように設定されている。標準偏差の代わりに中央値絶対偏差(mad:median absolute deviation)を用いた理由は、アウトライアの混在によるスケールの変動を小さく抑えるためである。誤差はFOE座標と回転移動量との積の形で表されるため、ステップ4)は、非線形最小二乗法となる。本実施の形態では、回転移動量・消失点推定部30は、ニュートン法によって解を求める。回転移動量・消失点推定部30は、求めた回転移動量に起因する成分を連結オプティカルフローから除去する。   The denominator 1.48 mad (R) in the rescaling in step 3) is set to be equal to the standard deviation when R follows a normal distribution. The reason for using the median absolute deviation (mad) instead of the standard deviation is to suppress the fluctuation of the scale due to the mixture of outliers. Since the error is expressed in the form of the product of the FOE coordinates and the rotational movement amount, step 4) is a nonlinear least square method. In the present embodiment, the rotational movement amount / vanishing point estimation unit 30 obtains a solution by the Newton method. The rotational movement amount / vanishing point estimation unit 30 removes a component caused by the obtained rotational movement amount from the connected optical flow.

背景点除去部40は、連結オプティカルフローを延長した直線が許容誤差の範囲内で背景の消失点を通る場合に、その連結オプティカルフローを背景、即ち地面に対して移動しない物体として除去する。即ち、地面に対して移動する移動体は、背景とは異なる位置に消失点を有するので、そのような消失点を有する特徴点群を移動体として検出するために、背景点除去部40は、背景の消失点を有する特徴点及びその連結オプティカルフローを除去する。   The background point removal unit 40 removes the connected optical flow as an object that does not move with respect to the background, that is, the ground, when a straight line obtained by extending the connected optical flow passes through the vanishing point of the background within the allowable error range. That is, since the moving body that moves relative to the ground has a vanishing point at a position different from the background, in order to detect a feature point group having such a vanishing point as a moving body, the background point removing unit 40 includes: The feature point having the vanishing point of the background and its connected optical flow are removed.

次に、グルーピング部50について説明する。連結オプティカルフロー算出部20によって生成されて、回転移動量・消失点推定部30によって回転移動量に起因する成分が除去され、かつ背景除去部40によって背景として除去された後に残った連結オプティカルフローは、アウトライアか、正しくトラッキングされた移動体上の特徴点のオプティカルフローのいずれかである。グルーピング部50は、連結オプティカルフローを用いて、アウトライアを除去しつつ、特徴点及びその連結オプティカルフローのグルーピングを行なう。グルーピング部50は、残った特徴点とその連結オプティカルフローに対し、再度消失点をロバスト推定する。   Next, the grouping unit 50 will be described. The connected optical flow generated by the connected optical flow calculation unit 20, the component due to the rotational movement amount removed by the rotational movement amount / vanishing point estimation unit 30, and removed as the background by the background removal unit 40 is Either an outlier or an optical flow of feature points on a correctly tracked moving object. The grouping unit 50 performs grouping of the feature points and the connected optical flows while removing the outliers using the connected optical flows. The grouping unit 50 robustly estimates the vanishing point again for the remaining feature points and the connected optical flows.

グルーピング部50は、アウトライア除去部51とグループ決定部52とを備えている。アウトライア除去部51は、直線らしさ判定部511とTTC類似判定部512とを備えている。以下、順に説明する。   The grouping unit 50 includes an outlier removal unit 51 and a group determination unit 52. The outlier removal unit 51 includes a straightness determination unit 511 and a TTC similarity determination unit 512. Hereinafter, it demonstrates in order.

直線らしさ判定部511は、連結オプティカルフローの直線らしさに基づいて、アウトライアを除去する。特徴点が正しくトラッキングされている場合、その点が三次元空間で等速直線運動をしている限り、その軌跡は直線となる。一般に、十分に短い時間間隔で移動体の位置を観測する場合、等速直線運動モデルは良い近似である。従って、複数の単オプティカルフローが直線的に並んでいるか否かを判定することはアウトライア除去に有効である。   The straightness determination unit 511 removes the outlier based on the straightness of the connected optical flow. If a feature point is tracked correctly, the locus will be a straight line as long as the point moves in a uniform linear motion in a three-dimensional space. In general, the constant velocity linear motion model is a good approximation when the position of a moving object is observed at sufficiently short time intervals. Therefore, it is effective for removing outliers to determine whether or not a plurality of single optical flows are arranged linearly.

図7は、アウトライアが発生しやすい画像の例を示す図である。図7に示すように、画像の中に樹木があり、似た形状の葉や枝を多く含む画像である場合、即ち、似通ったパターンを複数個含む画像である場合は、複数のフレームについて対応する特徴点を検出すると、本来対応しない点FPt1、FPt2、FPt3、FPt4が対応する特徴点として検出されてしまう。このような特徴点及びそれらを結ぶオプティカルフローは、アウトライアである。このとき、アウトライアとして検出された特徴点FPt1、FPt2、FPt3、FPt4の連結オプティカルフローCOFを求めると、図7に示すように、連結オプティカルフローCOFと各単オプティカルフローとのずれが大きくなる。 FIG. 7 is a diagram illustrating an example of an image in which an outlier is likely to occur. As shown in FIG. 7, if there are trees in the image and the image contains many similar leaves and branches, that is, if the image contains multiple similar patterns, multiple frames are supported. When a feature point is detected, points FP t1 , FP t2 , FP t3 , and FP t4 that do not originally correspond are detected as corresponding feature points. Such feature points and the optical flow connecting them are outliers. At this time, when the connected optical flow COF of the feature points FP t1 , FP t2 , FP t3 , and FP t4 detected as the outliers is obtained, as shown in FIG. 7, the difference between the connected optical flow COF and each single optical flow is obtained. Becomes larger.

このようなアウトライアを判定して除去するために、直線らしさ判定部511は、各単オプティカルフローの、連結オプティカルフローに直交する成分を抽出し、そこから直進らしさの度合いを定量化し、その値と閾値とを比較することによりアウトライアの判定を行う。具体的には、直線らしさ判定部511は、特徴点ごとに、連結オプティカルフローを構成する各単オプティカルフローが直線的であるか否かを次の要領で判定する。   In order to determine and remove such outliers, the straightness determination unit 511 extracts a component orthogonal to the connected optical flow of each single optical flow, and quantifies the degree of straightness from the extracted component. The outlier is determined by comparing the value with the threshold. Specifically, the straightness determination unit 511 determines, for each feature point, whether or not each single optical flow constituting the connected optical flow is linear in the following manner.

いま、n連結オプティカルフローを構成する単オプティカルフローを時系列に(Vx(i), Vy(i))、i=1,2,…,nとし、n連結オプティカルフローを(Vx(1:n),Vy(1:n))と表記する。まず、直線らしさ判定部511は、連結オプティカルフローに直交する単位ベクトルを算出する。具体的には、この単位ベクトルは(Vy(1:n),−Vx(1:n))/sqrt(Vx(1:n)2+Vy(1:n)2) と与えられる。 Now, singly optical flows constituting the n-linked optical flow are time-sequentially set (V x (i), V y (i)), i = 1, 2,..., N, and the n-linked optical flow is (V x ( 1: n) and V y (1: n)). First, the straightness determination unit 511 calculates a unit vector orthogonal to the connected optical flow. Specifically, this unit vector is given by (V y (1: n), −V x (1: n)) / sqrt (V x (1: n) 2 + V y (1: n) 2 ). .

次に、n連結オプティカルフローを構成する各単オプティカルフローとこの単位ベクトルの内積の絶対値を算出し、n個分の値の和を取り、この値を直線らしさの指標とする。直線らしさ判定部511は、この直線らしさの指標をあらかじめ定めた閾値と比較し、連結オプティカルフローの直線らしさの指標が閾値よりも大きい特徴点及びその連結オプティカルフローをアウトライアとして除外する。   Next, the absolute value of the inner product of each unit optical flow constituting the n-connected optical flow and this unit vector is calculated, the sum of n values is taken, and this value is used as a linearity index. The straightness determination unit 511 compares this straightness index with a predetermined threshold value, and excludes feature points having a linearity index of connected optical flow larger than the threshold value and the connected optical flow as outliers.

TTC類似判定部512は、同一の特徴点についての連結する単オプティカルフローの数が異なる複数の連結オプティカルフローのそれぞれの衝突時間の類似度に基づいて、アウトライアを除去する。TTC類似判定部512は、各特徴点の連結オプティカルフローに基づいて、衝突時間(TTC:Time To Collision)を算出する。TTCとは、三次元上の点がカメラに対して接近しているとき、その点が画像平面に到達するまでの時間をいう。なお、衝突時間の算出において、画像平面は無限の広がりを持つものとする。また、点がカメラから遠ざかるときのTTCは負の値を取る。   The TTC similarity determination unit 512 removes outliers based on the similarity of the collision times of a plurality of connected optical flows having different numbers of connected single optical flows for the same feature point. The TTC similarity determination unit 512 calculates a collision time (TTC: Time To Collision) based on the connected optical flow of each feature point. TTC refers to the time until a point on the image plane reaches the image plane when a three-dimensional point is approaching the camera. In calculating the collision time, the image plane has an infinite extent. Also, TTC when the point moves away from the camera takes a negative value.

いま、連結オプティカルフローを表す二次元のベクトルをuとし、そのx成分及びy成分をそれぞれ、ux,uyとすると、u2=ux 2+uy 2を満たし、uxは、三次元座標X,Z と速度ΔX,ΔZによって下式(6)で表される。

Figure 2014026555
ここで、fはカメラ10の焦点距離である。速度の二乗の項は無視できるオーダーであると考えると、下式(7)を得る。
Figure 2014026555
ここで、消失点のx座標x は、時間を無限にさかのぼった(点が接近している場合)ときに収束する位置であるため、下式(8)のように表される。
Figure 2014026555
Now, the two-dimensional vector representing a consolidated optical flow and u, respectively the x and y components, u x, When u y, satisfies the u 2 = u x 2 + u y 2, u x is the three-dimensional It is expressed by the following equation (6) by the coordinates X, Z and the speeds ΔX, ΔZ.
Figure 2014026555
Here, f is the focal length of the camera 10. Considering that the term of the square of velocity is an order that can be ignored, the following equation (7) is obtained.
Figure 2014026555
Here, the x-coordinate x of the vanishing point is a position that converges when the time goes back infinitely (when the point is approaching), and is expressed as the following equation (8).
Figure 2014026555

ここで、TTCをΔTと表記すると、ΔTは、Z/(−ΔZ)で与えられる(特徴点が接近する場合は、ΔZ<0)。オプティカルフローのy成分uyについても同様の導出ができるため、下式(9)が得られる。

Figure 2014026555
式(7)と式(9)を連立して解くと、下式(10)が得られる。
Figure 2014026555
ここで、pは特徴点の画像座標であり、pは点の軌跡の消失点の画像座標であり、「・」は内積演算子である。 Here, when TTC is expressed as ΔT, ΔT is given by Z / (− ΔZ) (ΔZ <0 when the feature points approach). Since the same derivation can be performed for the y component u y of the optical flow, the following equation (9) is obtained.
Figure 2014026555
When the equations (7) and (9) are solved simultaneously, the following equation (10) is obtained.
Figure 2014026555
Here, p is the image coordinate of the feature point, p is the image coordinate of the vanishing point of the locus of the point, and “·” is an inner product operator.

TTC類似判定部512は、各特徴点のn連結オプティカルフロー(Vx(1:n),Vy(1:n))から式(10)を用いて衝突時間ΔTn を算出する。TTC類似判定部512は、同一の特徴点のΔTn-1,ΔTn-2,……もΔTnと同様の方法で算出する。特徴点が正しくトラッキングされている場合には、その点が三次元空間で等速直線運動をしている限り、ΔTn,ΔTn-1,……は互いに等しくなる。上述のように、十分に短い時間間隔で移動体を観測する場合、等速直線運動モデルは良い近似であるため、ΔTn、ΔTn-1、……は互いに類似するといえる。ΔTn,ΔTn-1,……の類似が崩れている場合、それは点が誤ってトラッキングがなされた結果であり、アウトライアであると判定できる。 The TTC similarity determination unit 512 calculates the collision time ΔT n from the n-linked optical flow (V x (1: n), V y (1: n)) of each feature point using Equation (10). The TTC similarity determination unit 512 calculates ΔT n−1 , ΔT n−2 ,... Of the same feature points by the same method as ΔT n . When a feature point is correctly tracked, ΔT n , ΔT n−1 ,... Are equal to each other as long as the point is in a constant velocity linear motion in a three-dimensional space. As described above, when a moving body is observed at a sufficiently short time interval, the constant velocity linear motion model is a good approximation, so that ΔT n , ΔT n−1 ,... Can be said to be similar to each other. When the similarity of ΔT n , ΔT n−1 ,... Is broken, it is a result of the point being mistakenly tracked and can be determined to be an outlier.

TTC類似判定部512は、n連結オプティカルフローを構成する特徴点群の各々について、衝突時間ΔTn、ΔTn-1、……の類似度を求めて、それを予め定めた閾値と比較し、閾値よりも小さい特徴点及びその連結オプティカルフローを仮のグループから除外する。具体的には、グルーピング部50は、TTCのずれをDj=|ΔTn-j−ΔTn|(j=1,……,n−1) と定量化し、Dj>Dthを満たすjが一つでもある場合、この特徴点及びその連結オプティカルフローをグループから除外する。ここで、Dthはあらかじめ定められた閾値である。 The TTC similarity determination unit 512 obtains the similarity of the collision times ΔT n , ΔT n−1 ,... For each of the feature point groups constituting the n-connected optical flow, and compares it with a predetermined threshold value. Feature points that are smaller than the threshold and their connected optical flows are excluded from the temporary group. Specifically, the grouping unit 50 quantifies the deviation of TTC as D j = | ΔT nj −ΔT n | (j = 1,..., N−1), and j satisfies D j > D th. If there is one, the feature point and its connected optical flow are excluded from the group. Here, D th is a predetermined threshold value.

グループ決定部52は、アウトライア除去部51にて連結オプティカルフローがアウトライアとして除去された後に残った複数の特徴点のうち、延長された連結オプティカルフローが1つの消失点に収束する複数の特徴点を移動体上の複数の特徴点としてグルーピングする。1つのグループにグルーピングされた複数の連結オプティカルフローの特徴点は、1つの移動体の特徴点である。   The group determination unit 52 includes a plurality of features in which the extended connected optical flow converges to one vanishing point among a plurality of feature points remaining after the connected optical flow is removed as an outlier by the outlier removal unit 51. The points are grouped as a plurality of feature points on the moving body. A feature point of a plurality of connected optical flows grouped into one group is a feature point of one moving body.

グルーピング部50は、上記のようにして、アウトライアを除去しつつ特徴点のグルーピングを行なうことで移動体を検出する。なお、グルーピング部50は、上記の直線らしさに基づく方法、及びTTCの類似度に基づく方法のいずれかのみによってアウトライアを除去してもよい。   As described above, the grouping unit 50 detects moving objects by performing grouping of feature points while removing outliers. Note that the grouping unit 50 may remove the outliers by only one of the method based on the linearity and the method based on the TTC similarity.

結果出力部60は、グルーピング部50によるグルーピングの結果を受けて、その結果を出力する。具体的には、結果出力部60は、カメラ10で撮影された画像に、グルーピングされた特徴点、即ち移動体を囲う枠を重畳表示する。なお、グルーピングの結果は、車両が移動体に衝突する危険度の算出等、別の処理に利用されてもよい。   The result output unit 60 receives the result of grouping by the grouping unit 50 and outputs the result. Specifically, the result output unit 60 superimposes and displays the grouped feature points, that is, the frame surrounding the moving body, on the image captured by the camera 10. The grouping result may be used for another process such as calculation of the degree of risk that the vehicle will collide with the moving object.

以上のように、本実施の形態の移動体認識システム101によれば、特徴点を抽出して連結オプティカルフローを算出し、直線らしさ判定部511がその連結オプティカルフローの直線らしさに基づいてアウトライアを除去するので、誤って検出された特徴点を有効に除去して移動体を認識できる。さらに、TTC類似判定部512がTTCの類似度に基づいてアウトライアを除去するので、これによっても誤って検出された特徴点を有効に除去して移動体を認識できる。   As described above, according to the moving object recognition system 101 of the present embodiment, feature points are extracted to calculate a connected optical flow, and the straightness determination unit 511 outputs an outlier based on the straightness of the connected optical flow. Therefore, it is possible to recognize a moving object by effectively removing feature points detected in error. Furthermore, since the TTC similarity determination unit 512 removes outliers based on the TTC similarity, it is possible to effectively remove feature points detected in error and recognize the moving object.

なお、直線らしさ判定部511によるアウトライアの除去は、連結オプティカルフローを算出した後のどの段階で行ってもよく、例えば、連結オプティカルフロー算出部20の直後に直線らしさ判定部511によるアウトライアの除去を行ってもよい。   Note that the outlier removal by the straightness determination unit 511 may be performed at any stage after calculating the connected optical flow. For example, the outlier of the straightness determination unit 511 is immediately after the connected optical flow calculation unit 20. Removal may be performed.

(第2の実施の形態)
図8は、第2の実施の形態の移動体認識システムを示すブロック図である。図8の移動体認識システム102において、第1の実施の形態の移動体認識システム101と同じ構成については、同一の符号を付して説明を省略する。本実施の形態の移動体認識システム102は、カメラ10、連結オプティカルフロー算出部20、回転移動量・消失点推定部30、背景点除去部40、グルーピング部50、及び結果出力部60を備えている。
(Second Embodiment)
FIG. 8 is a block diagram illustrating a mobile object recognition system according to the second embodiment. In the mobile object recognition system 102 in FIG. 8, the same components as those in the mobile object recognition system 101 according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. The moving body recognition system 102 according to the present embodiment includes a camera 10, a connected optical flow calculation unit 20, a rotational movement amount / vanishing point estimation unit 30, a background point removal unit 40, a grouping unit 50, and a result output unit 60. Yes.

グルーピング部50は、第1の実施の形態と同様に、アウトライア除去部51及びグルーピング部52を備えている。本実施の形態のアウトライア除去部51は、消失点範囲算出部513、消失点一致判定部514、及びTTC一致判定部515を備えている。消失点範囲算出部513は、特徴点ごとに消失点のとり得る範囲を算出する。図9は、消失点範囲の算出を説明するための図である。上述のように、消失点は、複数の特徴点のオプティカルフローをそれぞれ延長して、それらが互いに交わる点として求められるが、画像内に地平線を定義することで、オプティカルフローがその地平線と交わる点を消失点とすることもできる。   The grouping unit 50 includes an outlier removal unit 51 and a grouping unit 52 as in the first embodiment. The outlier removal unit 51 of the present embodiment includes a vanishing point range calculation unit 513, a vanishing point match determination unit 514, and a TTC match determination unit 515. The vanishing point range calculation unit 513 calculates a possible range of vanishing points for each feature point. FIG. 9 is a diagram for explaining calculation of the vanishing point range. As described above, the vanishing point is obtained as a point where the optical flows of a plurality of feature points are extended to intersect each other, but by defining the horizon in the image, the optical flow intersects with the horizon. Can also be a vanishing point.

消失点範囲算出部513は、連結オプティカルフローv0の終点を中心として所定の半径を有する円を誤差範囲Rとして設定し、この誤差範囲内Rに終点を有し、最大の傾きを持つ動きベクトルva及び最小の傾きを持つ動きベクトルvbを設定する。動きベクトルva及びvbをそれぞれ延長して、それぞれが地平線と交わり得る点を点a、点bとすると、消失点範囲算出部53は、この点bから点aまでの範囲を消失点範囲とする。消失点範囲算出部513は、特徴点ごとに、消失点範囲を算出する。 The vanishing point range calculation unit 513 sets a circle having a predetermined radius with the end point of the connected optical flow v 0 as the center as the error range R, and the motion vector having the end point in the error range R and having the maximum inclination Set v a and a motion vector v b with the minimum slope. If the motion vectors v a and v b are extended and the points that can intersect the horizon are point a and point b, the vanishing point range calculation unit 53 sets the range from point b to point a as the vanishing point range. And The vanishing point range calculation unit 513 calculates a vanishing point range for each feature point.

消失点一致判定部514は、各特徴点の消失点の範囲に基づいて、特徴点のアウトライアを判定して除去する。図10は、複数の特徴点の消失点範囲を示すグラフである。図10において横軸は特徴点番号であり、縦軸は消失点範囲(x座標)である。消失点一致判定部54は、消失点範囲が他の特徴点の消失点範囲と重複する特徴点をグルーピングし、グルーピングされなかった特徴点、即ち消失点範囲が他の特徴点の消失点範囲と重複していない特徴点をアウトライアと判定して、それを除去する。なお、グルーピングされる特徴点の数が所定の値(例えば、3)を下回った場合には、グループ決定部52にてグルーピングを行わないよう、そのようなグループの特徴点はすべて除去する。   The vanishing point match determination unit 514 determines and removes feature point outliers based on the vanishing point range of each feature point. FIG. 10 is a graph showing a vanishing point range of a plurality of feature points. In FIG. 10, the horizontal axis is the feature point number, and the vertical axis is the vanishing point range (x coordinate). The vanishing point match determination unit 54 groups feature points whose vanishing point ranges overlap with vanishing point ranges of other feature points, and the feature points that are not grouped, that is, the vanishing point range is the vanishing point range of other feature points. A feature point that does not overlap is determined to be an outlier and is removed. When the number of feature points to be grouped falls below a predetermined value (for example, 3), all the feature points of such a group are removed so that the group determination unit 52 does not perform grouping.

TTC一致判定部515は、各特徴点のTTC範囲に基づいて、特徴点のアウトライアを判定して除去する。TTC一致判定部55は、消失点範囲算出部153にて算出された各特徴点の消失点範囲を用いて、式(10)によって各特徴点のTTC範囲を算出する。図11は、複数の特徴点のTTC範囲を示すグラフである。図11において横軸は特徴点番号であり、縦軸はTTC範囲である。TTC一致判定部515は、TTC範囲が他の特徴点のTTC範囲と重複する特徴点をグルーピングし、グルーピングされなかった特徴点、即ちTTC範囲が他の特徴点のTTC範囲と重複していない特徴点をアウトライアと判定して、それを除去する。なお、グルーピングされる特徴点の数が所定の値(例えば、3)を下回った場合には、グループ決定部52にてグルーピングを行わないよう、そのようなグループの特徴点はすべて除去する。   The TTC coincidence determination unit 515 determines and removes feature point outliers based on the TTC range of each feature point. Using the vanishing point range of each feature point calculated by the vanishing point range calculation unit 153, the TTC match determination unit 55 calculates the TTC range of each feature point using Equation (10). FIG. 11 is a graph showing a TTC range of a plurality of feature points. In FIG. 11, the horizontal axis is the feature point number, and the vertical axis is the TTC range. The TTC coincidence determination unit 515 groups feature points whose TTC range overlaps with the TTC range of other feature points, and features that are not grouped, that is, features whose TTC range does not overlap with the TTC range of other feature points. Judge the point as an outlier and remove it. When the number of feature points to be grouped falls below a predetermined value (for example, 3), all the feature points of such a group are removed so that the group determination unit 52 does not perform grouping.

グルーピング部52は、第1の実施の形態と同様に、アウトライア除去部51にて連結オプティカルフローがアウトライアとして除去された後に残った複数の特徴点のうち、延長された連結オプティカルフローが1つの消失点に収束する複数の特徴点を移動体上の複数の特徴点としてグルーピングする。1つのグループにグルーピングされた複数の連結オプティカルフローの特徴点は、1つの移動体の特徴点である。   As in the first embodiment, the grouping unit 52 has an extended connected optical flow among the plurality of feature points remaining after the connected optical flow is removed as an outlier by the outlier removing unit 51. A plurality of feature points that converge to one vanishing point are grouped as a plurality of feature points on the moving object. A feature point of a plurality of connected optical flows grouped into one group is a feature point of one moving body.

以上のように、第2の実施の形態の移動体認識システム102では、各特徴点について、連結オプティカルフローの消失点範囲を求め、さらにその消失点範囲からTTC範囲を求めて、それらの範囲が他の特徴点と重複しないものをアウトライアと判定して除去するので、誤って検出された特徴点を有効に除去して移動体を認識できる。   As described above, in the mobile object recognition system 102 according to the second embodiment, the vanishing point range of the connected optical flow is obtained for each feature point, and further, the TTC range is obtained from the vanishing point range. Since features that do not overlap with other feature points are determined to be outliers and removed, feature points detected in error can be effectively removed to recognize a moving object.

なお、グルーピング部50は、消失点一致判定部514による消失点の一致判定、及びTTC一致判定部515によるTTCの一致判定のいすれかのみによってアウトライアを除去してもよい。さらに、上記の第2の実施の形態の構成に加えて、第1の実施の形態の直進らしさに基づくアウトライアの除去、及び/又はTTCの類似度に基づくアウトライアの除去を行ってもよい。   The grouping unit 50 may remove the outlier only by either the vanishing point match determination by the vanishing point match determination unit 514 and the TTC match determination by the TTC match determination unit 515. Further, in addition to the configuration of the second embodiment described above, the outlier removal based on the straightness of the first embodiment and / or the outlier removal based on the TTC similarity may be performed. .

本発明は、連結オプティカルフローを用いてアウトライアが除去されるので、演算量が少なく、かつ誤認識の少ない移動体認識を行なうことができるという効果を有し、 単視点画像を用いて移動体を認識する移動体認識システム等として有用である。   The present invention eliminates the outlier by using the connected optical flow, and thus has the effect of being able to perform mobile object recognition with a small amount of computation and less misrecognition. It is useful as a mobile object recognition system that recognizes

101、102 移動体認識システム
10 カメラ
20 連結オプティカルフロー算出部
30 回転移動量・消失点推定部
40 背景点除去部
50 グルーピング部
51 アウトライア除去部
511 直線らしさ判定部
512 TTC類似判定部
513 消失点範囲算出部
514 消失点一致判定部
515 TTC一致判定部
52 グループ決定部
60 結果出力部
DESCRIPTION OF SYMBOLS 101,102 Mobile body recognition system 10 Camera 20 Connection optical flow calculation part 30 Rotation movement amount and vanishing point estimation part 40 Background point removal part 50 Grouping part 51 Outlier removal part 511 Straightness judgment part 512 TTC similarity judgment part 513 Vanishing point Range calculation unit 514 Vanishing point match determination unit 515 TTC match determination unit 52 Group determination unit 60 Result output unit

Claims (9)

車両に設置され、連続する複数のフレームの画像を撮影するカメラと、
前記複数のフレームの画像の各々から前記複数のフレームの画像の間で互いに対応する特徴点を抽出して、隣り合うフレームの抽出された前記特徴点どうしを結ぶ複数の単オプティカルフローを連結した連結オプティカルフローを算出する連結オプティカルフロー算出部と、
前記連結オプティカルフローを用いてアウトライアを除去するアウトライア除去部と、
前記アウトライア除去部にて連結オプティカルフローがアウトライアとして除去された後に残った複数の前記特徴点のうち、延長された前記連結オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグループ決定部と、
を備えたことを特徴とする移動体認識システム。
A camera installed in a vehicle and taking images of a plurality of consecutive frames;
Linking a plurality of single optical flows connecting the extracted feature points of adjacent frames by extracting feature points corresponding to each other between the plurality of frame images from each of the plurality of frame images. A consolidated optical flow calculation unit for calculating an optical flow;
An outlier removal unit that removes an outlier using the connected optical flow;
Among the plurality of feature points remaining after the connected optical flow is removed as an outlier in the outlier removal unit, the plurality of feature points where the extended connected optical flow converges to one vanishing point is moved. A group determination unit for grouping as a plurality of feature points on the body;
A mobile object recognition system comprising:
前記アウトライア除去部は、前記連結オプティカルフローの直線らしさに基づいて、前記アウトライアを除去することを特徴とする請求項1に記載の移動体認識システム。   The mobile body recognition system according to claim 1, wherein the outlier removal unit removes the outlier based on the straightness of the connected optical flow. 前記アウトライア除去部は、同一の特徴点についての連結する前記単オプティカルフローの数が異なる複数の連結オプティカルフローのそれぞれの衝突時間の類似度に基づいて、前記アウトライアを除去することを特徴とする請求項1に記載の移動体認識システム。   The outlier removal unit removes the outlier based on the similarity of the collision times of a plurality of connected optical flows having different numbers of connected single optical flows for the same feature point. The moving body recognition system according to claim 1. 前記アウトライア除去部は、前記複数の連結オプティカルフローの各々がとり得る消失点の範囲を求め、前記消失点の範囲が他の連結オプティカルフローの消失点の範囲と重複しない連結オプティカルフローを前記アウトライアとして除去することを特徴とする請求項1に記載の移動体認識システム。   The outlier removal unit obtains a vanishing point range that each of the plurality of connected optical flows can take, and outputs a connected optical flow in which the vanishing point range does not overlap with a vanishing point range of another connected optical flow. The moving body recognition system according to claim 1, wherein the moving body recognition system is removed as a liar. 前記アウトライア除去部は、前記連結オプティカルフロー及びその誤差範囲内のベクトルの延長線と前記画像中に定義された地平線との交点のとり得る範囲を前記消失点の範囲として求めることを特徴とする請求項4に記載の移動体認識システム。   The outlier removal unit obtains, as the vanishing point range, a possible range of an intersection of the connected optical flow and an extension line of a vector within an error range thereof and a horizon defined in the image. The moving body recognition system according to claim 4. 前記アウトライア除去部は、前記複数の連結オプティカルフローの各々がとり得る衝突時間の範囲を求め、前記衝突時間が他の連結オプティカルフローの衝突時間の範囲と重複しない連結オプティカルフローを前記アウトライアとして除去することを特徴とする請求項1に記載の移動体認識システム。   The outlier removal unit obtains a collision time range that each of the plurality of connected optical flows can take, and a connection optical flow that does not overlap with a collision time range of another connected optical flow is defined as the outlier. The moving body recognition system according to claim 1, wherein the moving body recognition system is removed. 前記アウトライア除去部は、前記連結オプティカルフロー及びその誤差範囲内のベクトルの延長線と前記画像中に定義された地平線との交点のとり得る範囲を消失点の範囲として求め、前記消失点の範囲及び前記連結オプティカルフローに基づいて前記衝突時間の範囲を求めることを特徴とする請求項6に記載の移動体認識システム。   The outlier removal unit obtains, as a vanishing point range, a range that can be taken by an intersection of the connected optical flow and a vector extension line within the error range and a horizon defined in the image, and the vanishing point range. The moving object recognition system according to claim 6, wherein a range of the collision time is obtained based on the connection optical flow. コンピュータを、
車両に設置されたカメラで撮影された連続する複数のフレームの画像の各々から前記複数のフレームの画像の間で互いに対応する前記特徴点を抽出して、隣り合うフレームの抽出された特徴点どうしを結ぶ複数の単オプティカルフローを連結した連結オプティカルフローを算出する連結オプティカルフロー算出部、
前記連結オプティカルフローを用いてアウトライアを除去するアウトライア除去部、及び
前記アウトライア除去部にて連結オプティカルフローがアウトライアとして除去された後に残った複数の前記特徴点のうち、延長された前記連結オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグループ決定部、
として機能させることを特徴とする移動体認識プログラム。
Computer
The feature points corresponding to each other between the images of the plurality of frames are extracted from each of the images of the plurality of consecutive frames photographed by the camera installed in the vehicle, and the feature points extracted from adjacent frames are extracted. A consolidated optical flow calculation unit for calculating a consolidated optical flow by connecting a plurality of single optical flows connecting
An outlier removal unit that removes an outlier using the connection optical flow, and the extended feature points of the plurality of feature points remaining after the connection optical flow is removed as an outlier in the outlier removal unit. A group determining unit for grouping a plurality of feature points at which the connected optical flow converges to one vanishing point as a plurality of feature points on the moving body;
A moving body recognition program characterized by functioning as
車両に設置されたカメラで連続する複数のフレームの画像を撮影する撮影ステップと、
前記複数のフレームの画像の各々から前記複数のフレームの画像の間で互いに対応する特徴点を抽出して、隣り合うフレームの抽出された前記特徴点どうしを結ぶ複数の単オプティカルフローを連結した連結オプティカルフローを算出する連結オプティカルフロー算出ステップと、
前記連結オプティカルフローを用いてアウトライアを除去するアウトライア除去部と、
前記アウトライア除去部にて連結オプティカルフローがアウトライアとして除去された後に残った複数の前記特徴点のうち、延長された前記連結オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグループ決定ステップと、
を含むことを特徴とする移動体認識方法。
A shooting step of shooting images of a plurality of consecutive frames with a camera installed in the vehicle;
Linking a plurality of single optical flows connecting the extracted feature points of adjacent frames by extracting feature points corresponding to each other between the plurality of frame images from each of the plurality of frame images. A consolidated optical flow calculation step for calculating an optical flow;
An outlier removal unit that removes an outlier using the connected optical flow;
Among the plurality of feature points remaining after the connected optical flow is removed as an outlier in the outlier removal unit, the plurality of feature points where the extended connected optical flow converges to one vanishing point is moved. A group determination step for grouping as a plurality of feature points on the body;
A moving body recognition method comprising:
JP2012167886A 2012-07-30 2012-07-30 Mobile object recognition system, mobile object recognition program, and mobile object recognition method Expired - Fee Related JP5655038B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012167886A JP5655038B2 (en) 2012-07-30 2012-07-30 Mobile object recognition system, mobile object recognition program, and mobile object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012167886A JP5655038B2 (en) 2012-07-30 2012-07-30 Mobile object recognition system, mobile object recognition program, and mobile object recognition method

Publications (2)

Publication Number Publication Date
JP2014026555A true JP2014026555A (en) 2014-02-06
JP5655038B2 JP5655038B2 (en) 2015-01-14

Family

ID=50200119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012167886A Expired - Fee Related JP5655038B2 (en) 2012-07-30 2012-07-30 Mobile object recognition system, mobile object recognition program, and mobile object recognition method

Country Status (1)

Country Link
JP (1) JP5655038B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136817A (en) * 2015-05-21 2016-11-30 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
JP2019018743A (en) * 2017-07-19 2019-02-07 日産自動車株式会社 Locus estimation method and locus estimation device
CN113375671A (en) * 2020-02-25 2021-09-10 三菱重工业株式会社 Estimation device and method, medium, control device, vehicle, and logistics assistance system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018637A (en) * 2010-07-09 2012-01-26 Aisin Seiki Co Ltd Collision time calculation device, collision time calculation method and its program
JP4919036B2 (en) * 2007-01-30 2012-04-18 アイシン精機株式会社 Moving object recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4919036B2 (en) * 2007-01-30 2012-04-18 アイシン精機株式会社 Moving object recognition device
JP2012018637A (en) * 2010-07-09 2012-01-26 Aisin Seiki Co Ltd Collision time calculation device, collision time calculation method and its program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136817A (en) * 2015-05-21 2016-11-30 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
KR101725478B1 (en) 2015-05-21 2017-04-11 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
US9741170B2 (en) 2015-05-21 2017-08-22 Maxst Co., Ltd. Method for displaying augmented reality content based on 3D point cloud recognition, and apparatus and system for executing the method
JP2019018743A (en) * 2017-07-19 2019-02-07 日産自動車株式会社 Locus estimation method and locus estimation device
JP7005978B2 (en) 2017-07-19 2022-02-10 日産自動車株式会社 Trajectory estimation method and trajectory estimation device
CN113375671A (en) * 2020-02-25 2021-09-10 三菱重工业株式会社 Estimation device and method, medium, control device, vehicle, and logistics assistance system

Also Published As

Publication number Publication date
JP5655038B2 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5944781B2 (en) Mobile object recognition system, mobile object recognition program, and mobile object recognition method
EP3057063B1 (en) Object detection device and vehicle using same
JP6795027B2 (en) Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs
JP6202367B2 (en) Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP6328327B2 (en) Image processing apparatus and image processing method
JP2016081525A (en) Vehicular image recognition system and corresponding method
US10187630B2 (en) Egomotion estimation system and method
JP2017162116A (en) Image processing device, imaging device, movable body apparatus control system, image processing method and program
KR102569437B1 (en) Apparatus and method tracking object based on 3 dimension images
JP5482672B2 (en) Moving object detection device
WO2014002692A1 (en) Stereo camera
EP3324359B1 (en) Image processing device and image processing method
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
JP5655038B2 (en) Mobile object recognition system, mobile object recognition program, and mobile object recognition method
KR20200102108A (en) Apparatus for detecting object of vehicle and method thereof
Lim et al. Event-driven track management method for robust multi-vehicle tracking
JP2018092605A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
KR102188164B1 (en) Method of Road Recognition using 3D Data
JP2018032074A (en) Image processing apparatus, imaging device, movable body machine control system, image processing method, and program
KR20170138842A (en) System and Method for Tracking Vehicle on the basis on Template Matching
CN115123291A (en) Behavior prediction method and device based on obstacle recognition
JP2018092608A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
JP7064400B2 (en) Object detection device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141121

R150 Certificate of patent or registration of utility model

Ref document number: 5655038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees