JP4367475B2 - Moving object recognition apparatus, moving object recognition method, and computer program - Google Patents

Moving object recognition apparatus, moving object recognition method, and computer program Download PDF

Info

Publication number
JP4367475B2
JP4367475B2 JP2006275387A JP2006275387A JP4367475B2 JP 4367475 B2 JP4367475 B2 JP 4367475B2 JP 2006275387 A JP2006275387 A JP 2006275387A JP 2006275387 A JP2006275387 A JP 2006275387A JP 4367475 B2 JP4367475 B2 JP 4367475B2
Authority
JP
Japan
Prior art keywords
optical flow
moving object
point
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006275387A
Other languages
Japanese (ja)
Other versions
JP2008097126A (en
Inventor
時彦 秋田
啓太 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2006275387A priority Critical patent/JP4367475B2/en
Priority to US12/442,286 priority patent/US8290209B2/en
Priority to PCT/JP2007/069463 priority patent/WO2008044592A1/en
Priority to EP07829201.8A priority patent/EP2081154B9/en
Publication of JP2008097126A publication Critical patent/JP2008097126A/en
Application granted granted Critical
Publication of JP4367475B2 publication Critical patent/JP4367475B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像を用いて移動物体を認識する移動物体認識装置、移動物体認識方法及びコンピュータプログラムに関する。   The present invention relates to a moving object recognition apparatus, a moving object recognition method, and a computer program that recognize a moving object using an image.

近年、車両をより安全に運転できるように運転者に他車の接近を知らせる目的で、車両に接近してくる移動物体、とりわけ進行方向の後方から接近する車両等を検知する技術が提案されている。   In recent years, in order to inform the driver of the approach of other vehicles so that the vehicle can be driven more safely, a technique for detecting a moving object approaching the vehicle, particularly a vehicle approaching from behind in the traveling direction has been proposed. Yes.

例えば、特許文献1の技術は、撮像画像から導出されたオプティカルフローと、車速センサによる自車の走行速度に対応したオプティカルフローとの一致、不一致に基づいて、斜め後方の走行車を検出するものである。   For example, the technique of Patent Document 1 detects a traveling vehicle obliquely behind based on the coincidence or mismatch of the optical flow derived from the captured image and the optical flow corresponding to the traveling speed of the vehicle by the vehicle speed sensor. It is.

特許文献2は、暗所を走行している場合においても他車両を認識するための技術が記載されている。特許文献2の技術は、自車両の後側方を撮像した所定時間相前後する2画像中における同一点について、当該点の無限遠点から発散する方向の移動をオプティカルフローとして検出する。そして、自車両の走行方向情報及び走行距離情報に基づいて算出した移動量により、オプティカルフローの無限遠点の位置を変更する。   Patent Document 2 describes a technique for recognizing another vehicle even when traveling in a dark place. The technique of Patent Document 2 detects, as an optical flow, movement in a direction that diverges from an infinite point at the same point in two images before and after a predetermined time phase obtained by imaging the rear side of the host vehicle. And the position of the infinity point of an optical flow is changed with the movement amount computed based on the traveling direction information and traveling distance information of the own vehicle.

特許文献3は、自車が直進走行していない状況においても得られたオプティカルフローから車両周囲の移動物体を認識する技術が記載されている。特許文献3の技術は、時系列の画像から算出されたオプティカルフローを、変化が連続的な複数群に分類する。一方、車速センサ及びヨーレートセンサから推定した自車の運動方向に基づいてオプティカルフローを補正する。そして、補正されたオプティカルフロー群から移動物体を抽出し、相対速度を演算する。
特開平6−130076号公報 特開平9−86314号公報 特開平6−282655号公報
Patent Document 3 describes a technique for recognizing a moving object around a vehicle from an optical flow obtained even when the vehicle is not traveling straight ahead. The technique of Patent Literature 3 classifies optical flows calculated from time-series images into a plurality of groups in which changes are continuous. On the other hand, the optical flow is corrected based on the movement direction of the vehicle estimated from the vehicle speed sensor and the yaw rate sensor. Then, a moving object is extracted from the corrected optical flow group, and the relative velocity is calculated.
JP-A-6-130076 Japanese Patent Laid-Open No. 9-86314 JP-A-6-282655

従来技術は画像を使って後側方からの接近車を認識するものであるが、これらは、2枚の時系列画像からオプティカルフローを抽出し、オプティカルフローから接近車両を検出する技術を基本としている。   The conventional technology recognizes an approaching vehicle from the rear side using an image, but these are based on a technology that extracts an optical flow from two time-series images and detects an approaching vehicle from the optical flow. Yes.

特許文献1の技術では、オプティカルフローと自車速の差から移動体を検出している。画像面上では自車速は背景のオプティカルフローに対応している。背景とは異なるオプティカルフローを移動体と認識できるが、オプティカルフローをグルーピングしないので、移動体ごとの対応が取れない。   In the technique of Patent Document 1, a moving body is detected from the difference between the optical flow and the own vehicle speed. The vehicle speed corresponds to the optical flow of the background on the image plane. An optical flow different from the background can be recognized as a moving object, but since the optical flows are not grouped, it is not possible to cope with each moving object.

特許文献2は、無限遠点からのオプティカルフローの方向から移動体を検出しているが、これも見かけ上(画像面上)のフローをグルーピングすることはできない。   Although Patent Document 2 detects a moving body from the direction of an optical flow from an infinite point, it is also impossible to group an apparent flow (on the image plane).

特許文献3は、変化が連続的なオプティカルフローを複数群に分けているが、変化の連続性だけでは画像上の位置で幾何学的な大きさが異なる為、グルーピングができない場合がある。特に広角レンズを使用する場合、同一移動物体のオプティカルフローであっても接近時に広がりが大きいため、方向や大きさが変わってしまいグルーピングが難しく、間違えてしまう場合があった。   In Patent Document 3, optical flows with continuous changes are divided into a plurality of groups. However, grouping may not be possible because the geometric size differs depending on the position on the image only by the continuity of changes. In particular, when a wide-angle lens is used, even if the optical flow of the same moving object is large, the spread is large when approaching, so the direction and size change, making grouping difficult and sometimes wrong.

本発明は、上記事情に鑑みてなされたものであり、画像から移動物体を正確に検出できる移動物体認識装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a moving object recognition apparatus that can accurately detect a moving object from an image.

上記目的を達成するため、本発明の第1の観点に係る移動物体認識装置は、時系列の画像を撮像する撮像手段と、前記撮像手段で撮像した前記時系列の各画像の特徴点を抽出する特徴点抽出手段と、前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生成手段と、前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを、1つの移動物体に属するオプティカルフローとして選択するグルーピング手段と、を備えることを特徴とする。   In order to achieve the above object, a moving object recognition apparatus according to a first aspect of the present invention extracts an image capturing unit that captures a time-series image and a feature point of each time-series image captured by the image capturing unit. A feature point extracting unit that compares the feature points of the time-series images between different images, and generates an optical flow that is a vector connecting the feature points having the same pattern, and the optical flow The optical flow extension line intersects at one vanishing point within a predetermined error range, and the optical flow extension line has one end point of the optical flow as an outer dividing point, and the other of the optical flow. An optical flow in which the external division ratio between the end point of the line and the vanishing point is equal within a predetermined error range is assigned to an object belonging to one moving object. It characterized in that it comprises a grouping means for selecting as the optical flow, a.

好ましくは、前記撮像手段で撮像した画像を、前記撮像手段のレンズの特性に合わせて、透視図に補正する画像補正手段を備え、前記特徴点抽出手段は、前記画像補正手段で補正された画像の特徴点を抽出することを特徴とする。   Preferably, image correction means for correcting an image picked up by the image pickup means into a perspective view in accordance with the characteristics of the lens of the image pickup means is provided, and the feature point extraction means is an image corrected by the image correction means. The feature point is extracted.

さらに、前記グルーピング手段でグルーピングしたオプティカルフローの前記画像中の最下点が、前記撮像手段を備える物体と前記移動物体とが共通して存在する平面に位置すると仮定して、前記撮像手段から前記移動物体の特徴点までの距離の撮像方向への方向余弦を、前記撮像手段から前記移動物体までの距離として算出する距離算出手段を備えてもよい。 Further, assuming that the lowest point in the image of the optical flows grouped by the grouping unit is located on a plane in which the object including the imaging unit and the moving object exist in common, the imaging unit You may provide the distance calculation means which calculates the direction cosine to the imaging direction of the distance to the feature point of a moving object as a distance from the said imaging means to the said moving object.

本発明の第3の観点に係る移動物体認識方法は、時系列の画像を入力する撮像ステップと、前記撮像ステップで入力した前記時系列の各画像の特徴点を抽出する特徴点抽出ステップと、前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生成ステップと、前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを選択するグルーピングステップと、を備えることを特徴とする。   A moving object recognition method according to a third aspect of the present invention includes an imaging step of inputting a time-series image, a feature point extraction step of extracting a feature point of each of the time-series images input in the imaging step, Comparing the feature points of the time-series images between different images, generating an optical flow that is a vector connecting the feature points having the same pattern, and of the optical flows, the optical flow of the optical flow An extension line intersects at one vanishing point within a predetermined error range, and one end point of the optical flow is an outer dividing point in the extension line of the optical flow, and the other end point of the optical flow and the vanishing point A grouping step for selecting an optical flow in which the external ratio of the line segments connecting is equal within a predetermined error range; and Characterized in that it obtain.

好ましくは、前記撮像ステップで入力した画像を、前記撮像手段のレンズの特性に合わせて、透視図に補正する画像補正ステップを備え、前記特徴点抽出ステップは、前記画像補正ステップで補正された画像の特徴点を抽出することを特徴とする。   Preferably, the image correction step includes an image correction step for correcting the image input in the imaging step into a perspective view in accordance with the characteristics of the lens of the imaging means, and the feature point extraction step is an image corrected in the image correction step. The feature point is extracted.

本発明の第4の観点に係るコンピュータプログラムは、コンピュータを、時系列の画像を撮像手段から入力する画像入力手段と、画像入力手段で入力した時系列の各画像の特徴点を抽出する特徴点抽出手段と、前記時系列の画像の特徴点を異なる画像間で比較して、画像上で位置が変化した同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生成手段と、前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを、1つの移動物体に属するオプティカルフローとして選択するグルーピング手段、として機能させることを特徴とする。   According to a fourth aspect of the present invention, there is provided a computer program comprising: an image input unit that inputs a time-series image from an imaging unit; and a feature point that extracts a feature point of each time-series image input by the image input unit. An extraction means, and an optical flow generation means for comparing the feature points of the time-series images between different images and generating an optical flow that is a vector connecting the feature points having the same pattern whose position is changed on the image; In the optical flow, the extension line of the optical flow intersects at one vanishing point within a predetermined error range, and one end point of the optical flow in the extension line of the optical flow is an outer dividing point. An optical flow in which the external division ratio between the other end point of the optical flow and the vanishing point is equal within a predetermined error range. Over the, characterized in that to function grouping means for selecting as, as optical flows belonging to one moving object.

本発明の移動物体認識装置によれば、時系列の画像から抽出した特徴点のオプティカルフローを、移動物体毎に正しくグルーピングして移動物体を検出できる。   According to the moving object recognition apparatus of the present invention, it is possible to detect a moving object by correctly grouping the optical flow of feature points extracted from a time-series image for each moving object.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、その説明は繰り返さない。本発明に係る移動物体認識装置の一実施の形態として、車両の移動物体認識装置について、図を参照して説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. As an embodiment of a moving object recognition apparatus according to the present invention, a moving object recognition apparatus for a vehicle will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の一実施の形態である移動物体認識装置の論理的な構成を示すブロック図である。移動物体認識装置1は、カメラ2、画像入力部21、画像補正部22、特徴点抽出部23、オプティカルフロー生成部24、グルーピング処理部25、データ保持部5、移動物体判定部26、表示処理部27、表示装置7などから構成される。データ保持部5には、収集時系列画像データ51、補正時系列画像データ52、特徴点データ53、オプティカルフローデータ54、グルーピングデータ55が記憶保持される。移動物体認識装置1は、車両の周囲に移動物体があるかどうか、また、どのような移動物体であるかを認識する。特に、車両進行方向の後方から接近する車両等を検出する。
(Embodiment 1)
FIG. 1 is a block diagram showing a logical configuration of a moving object recognition apparatus according to an embodiment of the present invention. The moving object recognition apparatus 1 includes a camera 2, an image input unit 21, an image correction unit 22, a feature point extraction unit 23, an optical flow generation unit 24, a grouping processing unit 25, a data holding unit 5, a moving object determination unit 26, and a display process. The unit 27, the display device 7, and the like. The data holding unit 5 stores and holds collected time-series image data 51, corrected time-series image data 52, feature point data 53, optical flow data 54, and grouping data 55. The moving object recognition apparatus 1 recognizes whether there is a moving object around the vehicle and what kind of moving object it is. In particular, a vehicle approaching from the rear in the vehicle traveling direction is detected.

ここで、オプティカルフローとそのグルーピング手法について説明する。図3は、オプティカルフローを説明する図である。図3では、移動物体として車両がカメラ2の方に近づいてくる場合を模式的に示す。現在の画像Πにおける特徴点をx1i(i=1...n)とする。過去の画像Πにおけるx1iに対応する特徴点をx2iとする。現在の画像Πに過去の画像Πの特徴点x2iを重ねて表したときに、x2iからx1iに向かうベクトルをオプティカルフローという。 Here, the optical flow and its grouping method will be described. FIG. 3 is a diagram for explaining the optical flow. FIG. 3 schematically shows a case where the vehicle approaches the camera 2 as a moving object. The feature points in the current image [pi 1 and x1i (i = 1 ... n) . A feature point corresponding to x1i in the past image 2 is assumed to be x2i. When expressed in the current image [pi 1 overlapping previous image [pi 2 feature points x2i, that the optical flow vector toward the x1i from x2i.

画像が透視図である場合は、カメラ2に固定された座標(カメラ座標)に対して平行に(カメラ座標で直進)運動する物体の特徴点のオプティカルフローを延長すると、画像上で1点で交わる(図3)。カメラ座標に対して各特徴点は平行な直線を描くので、これを透視図法で見れば平行線は1点で交わるからである。この点を消失点(FOE:Focus Of Expansion)という。異なる移動物体が互いに平行に移動していなければ、それらのオプティカルフローは異なる消失点で交わる。   When the image is a perspective view, if the optical flow of the feature point of an object that moves parallel to the coordinates (camera coordinates) fixed to the camera 2 (goes straight in the camera coordinates) is extended, one point on the image Intersect (Figure 3). This is because each feature point draws a straight line parallel to the camera coordinates, and the parallel lines intersect at a single point when viewed in perspective. This point is called a vanishing point (FOE: Focus Of Expansion). If different moving objects are not moving in parallel with each other, their optical flows meet at different vanishing points.

カメラ座標に対して平行に移動している1つの物体のオプティカルフローは、画像が透視図の場合は次の関係が成り立つ。

ここで、x1iは現在の画像Πの特徴点の画像上の座標、x2iは過去の画像Πの特徴点の画像上の座標、xfoeは消失点の画像上の座標、Cは定数である。
The optical flow of one object moving parallel to the camera coordinates has the following relationship when the image is a perspective view.

Here, x1i the coordinates on the image of the current image [pi 1 feature point, x2i the coordinates on the previous image of the [pi 2 feature points image, Xfoe the coordinates on the image of the vanishing point, C is some constant .

すなわち、オプティカルフローの一方の端点である現在の画像の特徴点x1iを外分点とする、オプティカルフローの過去の画像の特徴点x2i(他方の端点)と消失点xfoeとを結ぶ線分の外分比が、1つの平行移動する物体では一定である。したがって、1点の消失点で交わり、かつ、上記の外分比が等しいオプティカルフローを1つの物体のオプティカルフローとしてグルーピングできる。外分比としては上記のほかに、例えば、消失点を外分点として、オプティカルフローの外分比をとっても1つの平行移動物体では一定である。   That is, outside the line segment connecting the feature point x2i (the other end point) of the past image in the optical flow and the vanishing point xfoe with the feature point x1i of the current image as one end point of the optical flow as the outer dividing point. The fraction is constant for one translating object. Therefore, an optical flow that intersects at one vanishing point and has the same external division ratio can be grouped as an optical flow of one object. In addition to the above, the external division ratio is constant for one parallel moving object even if the external division ratio of the optical flow is taken with the vanishing point as the external division point, for example.

図1に戻って、移動物体認識装置1の各部の作用を説明する。カメラ2は画像を撮像しデジタル画像データに変換する。画像入力部21は、一定時間間隔でカメラ2から時系列の画像データを入力し、データ保持部5に収集時系列画像データ51として記憶する。   Returning to FIG. 1, the operation of each part of the moving object recognition apparatus 1 will be described. The camera 2 captures an image and converts it into digital image data. The image input unit 21 inputs time-series image data from the camera 2 at regular time intervals, and stores them as collected time-series image data 51 in the data holding unit 5.

移動物体を撮像するカメラ2として、例えば図4に示すような車両4の後方モニター用のカメラ2を利用することができる。後方モニター用のカメラ2を用いることによって、新たにカメラ2を設ける必要がなく、低コストで移動物体認識装置1を構成できる。   For example, a camera 2 for monitoring the rear of the vehicle 4 as shown in FIG. 4 can be used as the camera 2 that captures a moving object. By using the rear monitor camera 2, it is not necessary to provide a new camera 2, and the moving object recognition apparatus 1 can be configured at low cost.

駐車支援の後方モニターカメラは広角レンズであるので、画像の周辺が歪んでおり、遠方の分解能が低い。また取り付け位置が低い。これらの条件は、実世界座標として画像を処理するのに都合が悪く、接近する移動物体を認識するのを難しくしている。   Since the parking support rear monitor camera is a wide-angle lens, the periphery of the image is distorted and the resolution in the distance is low. The mounting position is low. These conditions are inconvenient for processing an image as real world coordinates, making it difficult to recognize an approaching moving object.

そこで、撮像した画像の歪みを補正する。図1の画像補正部22は、撮像した画像をレンズの特性に応じて歪みを補正し、透視図の画像に変換する。補正した画像を補正時系列画像データとしてデータ保持部5に記憶する。   Therefore, distortion of the captured image is corrected. The image correction unit 22 in FIG. 1 corrects the distortion of the captured image in accordance with the characteristics of the lens, and converts the image into a perspective image. The corrected image is stored in the data holding unit 5 as corrected time-series image data.

透視図の画像の座標(x,y)とそれに対応する補正前画像の座標(x’,y’)は次の式の関係がある。


ここで、(x0,y0)は補正画像の歪み中心座標、(x'0、y'0)は補正前の画像の歪み中心座標である。fn(r)はカメラレンズ歪み特性関数である。
The coordinates (x, y) of the perspective view image and the corresponding coordinates (x ′, y ′) of the pre-correction image have the following relationship.


Here, (x0, y0) is the distortion center coordinate of the corrected image, and (x′0, y′0) is the distortion center coordinate of the image before correction. fn (r) is a camera lens distortion characteristic function.

さらに、カメラ2の向きを水平にした場合の画像に変換してもよい。カメラ2の向きを変える場合の変換は、変換前の座標を(x',y')、変換後の座標を(x',y')として、次の式で表される。



ここで、βはカメラ2のチルト角、zはスケール因子、e0は画像変換前の消失点と画像中心の距離、H=[hij]は画像変換行列をそれぞれ表す。
Furthermore, you may convert into the image when the direction of the camera 2 is made horizontal. The conversion for changing the orientation of the camera 2 is expressed by the following equation, where the coordinates before conversion are (x ′, y ′) and the coordinates after conversion are (x ′, y ′).



Here, β is the tilt angle of the camera 2, z is a scale factor, e0 is the distance between the vanishing point before image conversion and the image center, and H = [hij] is the image conversion matrix.

図5は、広角レンズの後方モニタカメラで撮像した画像の例である。図6は、図5の歪みを補正した画像の例である。図5では、路面の白線が湾曲しているが、図6の補正画像では直線道路の白線が補正されて直線になっている。図7は図6の画像を正規化した画像を示す。これは、さらにカメラ2の向きを水平にして撮像した画像に変換したものである。図6では、鉛直線が下方の1点に収束するが、図7ではカメラ2の向きを水平に補正しているので、鉛直線が平行になっている。   FIG. 5 is an example of an image captured by a rear monitor camera with a wide-angle lens. FIG. 6 is an example of an image in which the distortion in FIG. 5 is corrected. In FIG. 5, the white line on the road surface is curved, but in the corrected image in FIG. 6, the white line on the straight road is corrected to be a straight line. FIG. 7 shows an image obtained by normalizing the image of FIG. This is converted into an image captured with the camera 2 oriented horizontally. In FIG. 6, the vertical line converges to one point below, but in FIG. 7, since the direction of the camera 2 is corrected to be horizontal, the vertical lines are parallel.

次に補正された時系列の画像データから、画像間の比較を行うための特徴点を抽出する。特徴点抽出部23は、補正時系列画像データ52から特徴点を抽出し、特徴点データ53としてデータ保持部5に記憶する。オプティカルフロー生成部24は、特徴点を画像間で比較してパターンの相関の高い特徴点を結ぶベクトルをオプティカルフローとして生成する。オプティカルフロー生成部24は、生成したオプティカルフローをオプティカルフローデータ54としてデータ保持部5に記憶する。特徴点抽出とオプティカルフロー生成の方法を次に説明する。   Next, feature points for comparison between images are extracted from the corrected time-series image data. The feature point extraction unit 23 extracts feature points from the corrected time-series image data 52 and stores them as feature point data 53 in the data holding unit 5. The optical flow generation unit 24 compares feature points between images and generates a vector connecting feature points having high pattern correlation as an optical flow. The optical flow generator 24 stores the generated optical flow in the data holding unit 5 as optical flow data 54. A method of feature point extraction and optical flow generation will be described next.

背景差分によって得られた探索領域に対して、接近物体を検出するため、動きベクトルを算出する。動きベクトルの算出方法には各種考えられるが、比較的環境の変化に強いテンプレートマッチングを採用することができる。テンプレートマッチングには追跡しやすい画像ブロックを選択することが重要である。例えば、KLT特徴点計算法を用いることができる。   A motion vector is calculated in order to detect an approaching object in the search region obtained by the background difference. There are various methods for calculating the motion vector, but template matching that is relatively resistant to environmental changes can be employed. For template matching, it is important to select an image block that is easy to track. For example, a KLT feature point calculation method can be used.

輝度勾配∇I=[Ix,Iy]Tのモーメント行列を、

とおく。ここで、

である。KLT特徴量をλ2/λ1(行列M(x,y)の条件数=固有値の比)、もしくはmin(λ2,λ1)として、KLT特徴点計算法は次の計算式で表される。



The moment matrix of the luminance gradient ∇I = [Ix, Iy] T is

far. here,

It is. The KLT feature point calculation method is expressed by the following formula, where the KLT feature quantity is λ2 / λ1 (the condition number of the matrix M (x, y) = the eigenvalue ratio) or min (λ2, λ1).



得られた特徴点の周りにテンプレートを設定し、時系列の後の画像からテンプレートと相関の高い領域を探索する。その移動ベクトルが動きベクトル(オプティカルフロー)として得られる。テンプレートマッチングの手法として、正規化相関法(NCC)を採用できる。正規化相関法の類似度RNCCは次の式によって求められる。



ここで、IはN行×M列の領域の輝度値ベクトル、TはN行×M列のテンプレート領域の輝度値ベクトルである。変数の上のバーはそれぞれの領域内の平均値を表す。
A template is set around the obtained feature points, and an area having a high correlation with the template is searched from images after time series. The movement vector is obtained as a motion vector (optical flow). A normalized correlation method (NCC) can be adopted as a template matching method. The similarity RNCC of the normalized correlation method is obtained by the following equation.



Here, I is a brightness value vector of an area of N rows × M columns, and T is a brightness value vector of a template area of N rows × M columns. The bar above the variable represents the average value within each region.

領域の全探索を行うと計算量が大きいので、状況に応じて物体の移動制約量を想定し、その制約された領域のみを探索して計算量を低減する。例えば、接近方向以外は探索しない。または、過去の移動量から物理的に可能性が低い領域は探索しない、等である。さらに、カメラ2に近い物体は画像上で移動量が大きいので階層化処理を行い、上位階層でのマッチングで探索領域を絞った上で詳細探索することによって、計算量を低減できる。   If the entire search of the area is performed, the amount of calculation is large. Therefore, an amount of movement restriction of the object is assumed according to the situation, and only the restricted area is searched to reduce the amount of calculation. For example, no search is made except in the approach direction. Or, an area that is physically unlikely based on the past movement amount is not searched. Furthermore, since the object close to the camera 2 has a large movement amount on the image, the amount of calculation can be reduced by performing a hierarchization process and narrowing down the search area by matching in the upper layer and performing a detailed search.

図8は、オプティカルフローの例を示す。白抜きの四角が前回フレームの特徴点、白抜きの丸がそれと相関値の高い最新フレームの点を表す。1つの移動物体のオプティカルフローであっても、例えば、フロントグリルのオプティカルフローと後輪のオプティカルフローでは、方向と長さが異なり、1つの移動物体のオプティカルフローとしてグルーピングするのは難しい。   FIG. 8 shows an example of an optical flow. The white square represents the feature point of the previous frame, and the white circle represents the point of the latest frame having a high correlation value. Even with an optical flow of one moving object, for example, the optical flow of the front grille and the optical flow of the rear wheel have different directions and lengths, and it is difficult to group them as an optical flow of one moving object.

そこで、前述のとおり、1点の消失点で交わり、かつ、数1の外分比が等しいオプティカルフローを1つの物体のオプティカルフローとしてグルーピングする。グルーピング処理部25は、例えば、次のようにオプティカルフローをグルーピングする。   Therefore, as described above, optical flows that intersect at one vanishing point and have the same external division ratio of Equation 1 are grouped as optical flows of one object. The grouping processing unit 25 groups the optical flows as follows, for example.

数1は2つのパラメータ(消失点と外分比定数)があり、各オプティカルフローに対して、パラメータが同様の値であることがグルーピングの条件である。そこで、数1を2つの変数に対する直線の式に変形する。
ここで、dxi=x1i−x2i、C1=C・xfoe である。
Equation 1 has two parameters (vanishing point and external ratio constant), and the condition for grouping is that the parameters have the same value for each optical flow. Therefore, Equation 1 is transformed into a linear equation for two variables.
Here, dxi = x1i-x2i and C1 = C · xfoe.

各オプティカルフローに対して、dxiとx1iをx座標とy座標それぞれについて平面にプロットすると、図9のようになる。図9(a)は、x1iのx座標に対するdxiのx成分を示す。図9(b)は、x1iのy座標に対するdxiのy成分を示す。   For each optical flow, dxi and x1i are plotted on a plane with respect to the x-coordinate and y-coordinate, respectively, as shown in FIG. FIG. 9A shows the x component of dxi with respect to the x coordinate of x1i. FIG. 9B shows the y component of dxi with respect to the y coordinate of x1i.

図9のようにプロットした点のうち、ある誤差を許容して直線上にある点を同一の移動物体に属するオプティカルフローとしてグルーピングできる。直線上にあるかどうかを判定するには種々の方法があるが、例えば、RANSAC(RANdom SAmple Consensus)を用いることができる。RANSACは任意の2点を選んで、その2点を結ぶ直線の一定許容幅内にある点の数を数え、最も点数の多い直線を選択するアルゴリズムである。選択された直線の一定許容幅内にある点を1つのオプティカルフローのグループとする。   Among points plotted as shown in FIG. 9, a point that is on a straight line while allowing a certain error can be grouped as an optical flow belonging to the same moving object. There are various methods for determining whether or not the object is on a straight line. For example, RANSAC (RANdom SAmple Consensus) can be used. RANSAC is an algorithm that selects any two points, counts the number of points within a certain allowable width of the straight line connecting the two points, and selects the straight line with the largest number of points. Points within a certain allowable range of the selected straight line are set as one optical flow group.

1つのグループに分類された点を除いて、さらにある誤差を許容して直線上にある点を選択することによって、別の移動物体に属するオプティカルフローをグルーピングできる。これを繰り返して、複数の移動物体を認識することができる。   An optical flow belonging to another moving object can be grouped by selecting a point that is on a straight line while allowing a certain error, except for the points classified into one group. By repeating this, a plurality of moving objects can be recognized.

オプティカルフロー処理部は、グルーピングしたオプティカルフローのデータをグルーピングデータ55としてデータ保持部5に記憶する。移動物体判定部26は、グルーピングデータ55から移動物体を判定する。例えば、特徴点の配置から移動物体の大きさ、車種などを判定する。また、移動物体までの距離を算出することもできる。   The optical flow processing unit stores the grouped optical flow data in the data holding unit 5 as grouping data 55. The moving object determination unit 26 determines a moving object from the grouping data 55. For example, the size of the moving object, the vehicle type, etc. are determined from the arrangement of the feature points. It is also possible to calculate the distance to the moving object.

オプティカルフローの最下点を路面(自車と同じ平面上にある)と仮定して、次の式で移動物体までの距離を算出することができる。ここでの距離Zは、カメラから物体の特徴点までの距離の撮像方向への方向余弦である。撮像方向はカメラの光軸の向きであるが、画像を水平方向に正規化した場合は、水平方向(路面に平行)である。以下は、撮像方向を水平(路面に平行)とする。画像平面座標を(u,v)、世界座標を(X,Y,Z)、画像中心座標を(cu、cv)とする。U=u−cu、V=v−cvとおく。



ここで、fはカメラ2の焦点距離、δu、δvはそれぞれ横方向、縦方向の画素の物理的間隔、hは路面からのカメラ高さである。また、R=[rij]は射影変換行列係数の回転行列、T=[tkTは射影変換行列係数の平行移動ベクトルである。
Assuming that the lowest point of the optical flow is the road surface (on the same plane as the vehicle), the distance to the moving object can be calculated by the following equation. The distance Z here is a direction cosine of the distance from the camera to the feature point of the object in the imaging direction. The imaging direction is the direction of the optical axis of the camera, but when the image is normalized in the horizontal direction, it is in the horizontal direction (parallel to the road surface). In the following, the imaging direction is horizontal (parallel to the road surface). The image plane coordinates are (u, v), the world coordinates are (X, Y, Z), and the image center coordinates are (c u , c v ). Let U = u−c u and V = v−c v .



Here, f is the focal length of the camera 2, δu and δv are the physical intervals of the pixels in the horizontal and vertical directions, respectively, and h is the camera height from the road surface. R = [r ij ] is a rotation matrix of the projective transformation matrix coefficient, and T = [t k ] T is a translation vector of the projective transformation matrix coefficient.

表示処理部27は、移動物体判定部26で判定した結果を表示装置7に表示する。例えば、後方の接近車の位置の自車両との関係を平面図で示す。また、表示装置7の表示は、音声又はチャイムなどの音響を伴ってもよい。   The display processing unit 27 displays the result determined by the moving object determination unit 26 on the display device 7. For example, the relationship between the position of the approaching vehicle behind and the host vehicle is shown in a plan view. Further, the display of the display device 7 may be accompanied by sound such as voice or chime.

図2は、移動物体認識装置1の物理的な構成の一例を示すブロック図である。図1に示す本発明の移動物体認識装置1は、ハードウェアとしては図2に示すように、制御部11、主記憶部12、外部記憶部13、操作部14、画面表示部15、送受信部16、カメラ2、距離計測器3及び表示装置7から構成される。制御部11、主記憶部12、外部記憶部13、操作部14、画面表示部15及び送受信部16はいずれも内部バス10を介して制御部11に接続されている。   FIG. 2 is a block diagram illustrating an example of a physical configuration of the moving object recognition apparatus 1. As shown in FIG. 2, the moving object recognition apparatus 1 of the present invention shown in FIG. 1 includes a control unit 11, a main storage unit 12, an external storage unit 13, an operation unit 14, a screen display unit 15, and a transmission / reception unit. 16, a camera 2, a distance measuring device 3, and a display device 7. The control unit 11, the main storage unit 12, the external storage unit 13, the operation unit 14, the screen display unit 15, and the transmission / reception unit 16 are all connected to the control unit 11 via the internal bus 10.

制御部11はCPU(Central Processing Unit)等から構成され、外部記憶部13に記憶されているプログラムに従って、画像入力部21、画像補正部22、特徴点抽出部23、オプティカルフロー生成部24、グルーピング処理部25、移動物体判定部26及び表示処理部27の処理を実行する。画像入力部21、画像補正部22、特徴点抽出部23、オプティカルフロー生成部24、グルーピング処理部25、移動物体判定部26及び表示処理部27は、制御部11とその上で実行されるプログラムで実現される。   The control unit 11 includes a CPU (Central Processing Unit) and the like. According to a program stored in the external storage unit 13, an image input unit 21, an image correction unit 22, a feature point extraction unit 23, an optical flow generation unit 24, a grouping. The processing of the processing unit 25, the moving object determination unit 26, and the display processing unit 27 is executed. The image input unit 21, the image correction unit 22, the feature point extraction unit 23, the optical flow generation unit 24, the grouping processing unit 25, the moving object determination unit 26, and the display processing unit 27 are the control unit 11 and a program executed thereon. It is realized with.

主記憶部12はRAM(Random-Access Memory)等から構成され、制御部11の作業領域として用いられる。データ保持部5は、主記憶部12の一部に記憶領域の構造体として記憶保持される。   The main storage unit 12 includes a RAM (Random-Access Memory) and the like, and is used as a work area for the control unit 11. The data holding unit 5 is stored and held in a part of the main storage unit 12 as a storage area structure.

外部記憶部13は、フラッシュメモリ、ハードディスク、DVD(Digital Versatile Disc)、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、前記の処理を制御部11に行わせるためのプログラムを予め記憶し、また、制御部11の指示に従って、このプログラムのデータを制御部11に供給し、制御部11から供給されたデータを記憶する。例えば、時系列画像データは、外部記憶部13に格納されている場合がある。   The external storage unit 13 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD (Digital Versatile Disc), a DVD-RAM (Digital Versatile Disc Random-Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and the like. A program for causing the control unit 11 to perform the above process is stored in advance, and data of the program is supplied to the control unit 11 according to an instruction from the control unit 11, and the data supplied from the control unit 11 is stored. For example, the time series image data may be stored in the external storage unit 13.

操作部14は、オペレータが移動体認識装置1に指令を与えるために、キースイッチ、ジョグダイヤル、キーボード及びマウスなどのポインティングデバイス等と、それらを内部バス10に接続するインターフェース装置を備える。操作部14を介して、移動物体認識判定条件の入力、移動物体認識の開始などの指令が入力され、制御部11に供給される。   The operation unit 14 includes a pointing device such as a key switch, a jog dial, a keyboard and a mouse, and an interface device for connecting them to the internal bus 10 in order for the operator to give a command to the moving body recognition apparatus 1. Commands such as input of moving object recognition determination conditions and start of moving object recognition are input via the operation unit 14 and supplied to the control unit 11.

表示装置7は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、操作部14から入力された指令に応じた制御部11の命令によって、収集時系列画像データ51、補正時系列画像データ52、移動物体判定結果などを表示する。画面表示部15は、表示装置7に表示する画面のデータを、表示装置7を駆動する信号に変換する。   The display device 7 is composed of a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), etc., and collects time-series image data 51 and correction time according to a command of the control unit 11 according to a command input from the operation unit 14. The series image data 52, the moving object determination result, and the like are displayed. The screen display unit 15 converts screen data to be displayed on the display device 7 into a signal for driving the display device 7.

表示装置7は、スピーカ又はブザーなどを備えてもよい。その場合、画面表示部15は、音声又はチャイムなどの音響を表示装置7から出力させる。   The display device 7 may include a speaker or a buzzer. In that case, the screen display unit 15 causes the display device 7 to output sound such as voice or chime.

カメラ2は、例えば、CCDなどでレンズの結像を電気信号に変換し、画素ごとにデジタル化した画像データを出力する。距離計測器3は、例えば、ミリ波レーダ、レーザ距離計、超音波距離計などであって、物体までの距離を電気信号として出力する。実施の形態1では、距離計測器3は用いない。後述する実施の形態2で物体までの距離を測定するのに用いる。   The camera 2 converts the image of the lens into an electrical signal using a CCD, for example, and outputs image data digitized for each pixel. The distance measuring device 3 is, for example, a millimeter wave radar, a laser distance meter, an ultrasonic distance meter, or the like, and outputs a distance to an object as an electrical signal. In the first embodiment, the distance measuring device 3 is not used. This is used to measure the distance to the object in the second embodiment to be described later.

送受信部16は、モデム又は網終端装置、及びそれらと接続するシリアルインタフェース又はLAN(Local Area Network)インタフェースから構成されている。制御部11は、送受信部16を介して、カメラ2又は距離計測器3から時系列データを入力する。   The transmission / reception unit 16 includes a modem or network termination device, and a serial interface or LAN (Local Area Network) interface connected thereto. The control unit 11 inputs time series data from the camera 2 or the distance measuring device 3 via the transmission / reception unit 16.

つぎに、移動物体認識装置1の動作について説明する。なお、上述のように、移動物体認識装置1の動作は、制御部11が主記憶部12、外部記憶部13、操作部14、画面表示部15及び送受信部16と協働して行う。   Next, the operation of the moving object recognition device 1 will be described. As described above, the operation of the moving object recognition device 1 is performed by the control unit 11 in cooperation with the main storage unit 12, the external storage unit 13, the operation unit 14, the screen display unit 15, and the transmission / reception unit 16.

図11は、移動物体認識の動作の一例を示すフローチャートである。制御部11は送受信部16を介してカメラ2から時系列の画像を入力する(ステップA1)。そして、前述のとおり、カメラ2のレンズ特性に応じて画像を補正する(ステップA2)。さらに、カメラ2のチルト角を補正して水平方向の画像に正規化してもよい。   FIG. 11 is a flowchart illustrating an example of the operation of moving object recognition. The control unit 11 inputs time-series images from the camera 2 via the transmission / reception unit 16 (step A1). Then, as described above, the image is corrected according to the lens characteristics of the camera 2 (step A2). Furthermore, the tilt angle of the camera 2 may be corrected and normalized to a horizontal image.

制御部11は、補正された画像の特徴点を、例えば前述のKLT特徴点抽出法で抽出する(ステップA3)。制御部11は、抽出した特徴点を時系列の画像間で比較し、前述のテンプレートマッチングでオプティカルフローを生成する(ステップA4)。   The control unit 11 extracts the feature points of the corrected image, for example, by the above-described KLT feature point extraction method (step A3). The control unit 11 compares the extracted feature points between time-series images, and generates an optical flow by the template matching described above (step A4).

次にオプティカルフローをグルーピングする(ステップA5)。前述のとおり、図9のようにプロットした点のうち、ある誤差を許容して直線上にある点を同一の移動物体に属するオプティカルフローとしてグルーピングする。直線上にあるかどうかを判定するには、例えば、RANSACを用いる。そして、グルーピングされたオプティカルフローに属する特徴点のパターンから、移動物体を判定する(ステップA6)。さらに、オプティカルフローの最下点を路面(自車と同じ平面上にある)と仮定して、数9に示した方法で移動物体までの距離を算出してもよい。   Next, the optical flows are grouped (step A5). As described above, among points plotted as shown in FIG. 9, a point that is on a straight line while allowing a certain error is grouped as an optical flow belonging to the same moving object. For example, RANSAC is used to determine whether or not the object is on a straight line. Then, a moving object is determined from the pattern of feature points belonging to the grouped optical flows (step A6). Further, assuming that the lowest point of the optical flow is the road surface (on the same plane as the own vehicle), the distance to the moving object may be calculated by the method shown in Equation 9.

移動物体が認識された場合は(ステップA7;Yes)、制御部11は、画面表示部15を介して、表示装置7にその情報を表示する(ステップA8)。例えば、後方の接近車の位置を自車両との関係で平面図に示す。また、音声又はチャイムなどの音響で運転者に知らせてもよい。そして、時系列画像データ入力(ステップA1)にもどって、移動物体認識を繰り返す。移動物体が認識されない場合は(ステップA7;No)、表示を行わずに移動物体認識を繰り返す(ステップA1)。   When a moving object is recognized (step A7; Yes), the control part 11 displays the information on the display apparatus 7 via the screen display part 15 (step A8). For example, the position of the approaching vehicle behind is shown in a plan view in relation to the host vehicle. Further, the driver may be notified by sound such as voice or chime. Then, returning to the time-series image data input (step A1), the moving object recognition is repeated. If the moving object is not recognized (step A7; No), the moving object recognition is repeated without displaying (step A1).

本発明の移動物体認識装置1によれば、時系列の画像データから生成されたオプティカルフローを、移動物体ごとに正しくグルーピングできる。その結果、移動物体を正確に認識することができる。また、カメラ2のレンズ特性に応じて画像を補正するので、例えば、広角レンズを使用する後方カメラなどであっても、補正された画像データから生成されたオプティカルフローを、移動物体ごとに正しくグルーピングできる。   According to the moving object recognition apparatus 1 of the present invention, optical flows generated from time-series image data can be correctly grouped for each moving object. As a result, the moving object can be accurately recognized. In addition, since the image is corrected according to the lens characteristics of the camera 2, the optical flow generated from the corrected image data is correctly grouped for each moving object even in a rear camera using a wide-angle lens, for example. it can.

(実施の形態2)
次に、オプティカルフローにおける特徴点の座標を算出し、2つの画像間の変位が等しい特徴点を1つの移動物体に属する特徴点としてグルーピングする場合の移動物体認識装置1について説明する。図12は、本発明の実施の形態2に係る移動物体認識装置1の論理的な構成の例を示すブロック図である。
(Embodiment 2)
Next, the moving object recognition apparatus 1 in the case where the coordinates of feature points in the optical flow are calculated and the feature points having the same displacement between two images are grouped as the feature points belonging to one moving object will be described. FIG. 12 is a block diagram showing an example of a logical configuration of the moving object recognition apparatus 1 according to Embodiment 2 of the present invention.

移動物体認識装置1は、カメラ2、距離計測器3、データ取得部28、画像補正部22、特徴点抽出部23、オプティカルフロー生成部24、等変位点抽出処理部29、データ保持部5、移動物体判定部26、表示処理部27、表示装置7などから構成される。データ保持部5には、収集時系列画像データ51、距離データ56、補正時系列画像データ52、特徴点データ53、オプティカルフローデータ54、グルーピングデータ55が記憶保持される。   The moving object recognition device 1 includes a camera 2, a distance measuring device 3, a data acquisition unit 28, an image correction unit 22, a feature point extraction unit 23, an optical flow generation unit 24, an equal displacement point extraction processing unit 29, a data holding unit 5, The moving object determination unit 26, the display processing unit 27, the display device 7, and the like are included. The data holding unit 5 stores and holds collected time-series image data 51, distance data 56, corrected time-series image data 52, feature point data 53, optical flow data 54, and grouping data 55.

カメラ2、画像補正部22、特徴点抽出部23、オプティカルフロー生成部24、移動物体判定部26、表示処理部27、表示装置7は、実施の形態1と同様である。   The camera 2, the image correction unit 22, the feature point extraction unit 23, the optical flow generation unit 24, the moving object determination unit 26, the display processing unit 27, and the display device 7 are the same as those in the first embodiment.

距離計測器3は、例えば、ミリ波レーダ、レーザ距離計、超音波距離計などの物理的方法によって距離を測定する計測器であって、カメラ2で撮像する方向にある物体までの距離を計測する。データ取得部28は、カメラ2から時系列の画像を入力して収集時系列画像データ51とする。また、距離計測器3のデータを入力し、距離データ56としてデータ保持部5に記憶する。   The distance measuring device 3 is a measuring device that measures a distance by a physical method such as a millimeter wave radar, a laser distance meter, an ultrasonic distance meter, and measures a distance to an object in the direction of imaging with the camera 2. To do. The data acquisition unit 28 inputs time-series images from the camera 2 to obtain collected time-series image data 51. Further, the data of the distance measuring device 3 is input and stored in the data holding unit 5 as the distance data 56.

等変位点抽出処理部29は、特徴点までの距離とその特徴点を含むオプティカルフローから、そのオプティカルフローにおける特徴点の変位を算出する。また、算出した変位が等しい特徴点を1つの移動物体に属する特徴点としてグルーピングする。そして、等変位点抽出処理部29は、グルーピングしたオプティカルフローのデータをグルーピングデータ55としてデータ保持部5に記憶する。   The equal displacement point extraction processing unit 29 calculates the displacement of the feature point in the optical flow from the distance to the feature point and the optical flow including the feature point. Further, feature points having the same calculated displacement are grouped as feature points belonging to one moving object. Then, the equal displacement point extraction processing unit 29 stores the grouped optical flow data in the data holding unit 5 as the grouping data 55.

オプティカルフローの端点である特徴点までの距離Zから、以下の式で特徴点の世界座標(X,Y)を算出することができる。ここでの距離Zは、カメラから物体の特徴点までの距離の撮像方向への方向余弦である。撮像方向はカメラの光軸の向きであるが、画像を水平方向に正規化した場合は、水平方向(路面に平行)である。以下は、撮像方向を水平(路面に平行)とする。特徴点の画像平面における座標を(u,v)、世界座標を(X,Y,Z)、画像中心座標を(cu、cv)とする。(Xnum,Ynum)はオプティカルフローの始点の世界座標である。始点の世界座標として、前回計算した値を用いることができる。







ここで、Su、Svはスケールファクタ、R=[rij]は射影変換行列係数の回転行列、T=[tkTは射影変換行列係数の平行移動ベクトルである。すなわち、θPan、θTilt、θRollをカメラ取り付け角度、TX、TY、TZをカメラ取り付け位置として、射影変換行列係数は次の式で表される。
From the distance Z to the feature point that is the end point of the optical flow, the world coordinates (X, Y) of the feature point can be calculated by the following formula. The distance Z here is a direction cosine of the distance from the camera to the feature point of the object in the imaging direction. The imaging direction is the direction of the optical axis of the camera, but when the image is normalized in the horizontal direction, it is in the horizontal direction (parallel to the road surface). In the following, the imaging direction is horizontal (parallel to the road surface). The coordinates of the feature point on the image plane are (u, v), the world coordinates are (X, Y, Z), and the image center coordinates are (c u , c v ). (Xnum, Ynum) are the world coordinates of the starting point of the optical flow. The previously calculated value can be used as the world coordinate of the start point.







Here, S u and S v are scale factors, R = [r ij ] is a rotation matrix of a projective transformation matrix coefficient, and T = [t k ] T is a translation vector of the projective transformation matrix coefficient. That is, θ Pan , θ Tilt , and θ Roll are camera mounting angles, and T X , T Y , and T Z are camera mounting positions, and projective transformation matrix coefficients are expressed by the following equations.

端点のZに関して、始点のZ座標は前回計算した値、終点のZ座標はオプティカルフローの最下点を路面と仮定して数9で計算した値とすることができる。すなわち、実施の形態1で計算した距離Zを用いることができる。その場合、距離計測器3は用いなくてもよい。   Regarding the Z of the end point, the Z coordinate of the start point can be a value calculated previously, and the Z coordinate of the end point can be a value calculated by Equation 9 assuming that the lowest point of the optical flow is the road surface. That is, the distance Z calculated in the first embodiment can be used. In that case, the distance measuring device 3 may not be used.

特徴点それぞれの距離Zを計測して、特徴点の世界座標を計算すれば、世界座標における変位(ベクトル)が等しい特徴点を1つの移動物体に属するものとして、グルーピングできる。近似的には、処理領域の特徴点までの距離Zを1つの値で代表して、距離Z(撮像方向への方向余弦)が同じとみなして世界座標を計算してもよい。近似的には、例えば次のようにグルーピングする。   If the distance Z of each feature point is measured and the world coordinates of the feature point are calculated, the feature points having the same displacement (vector) in the world coordinate can be grouped as belonging to one moving object. Approximately, the distance Z to the feature point of the processing region may be represented by one value, and the world coordinates may be calculated assuming that the distance Z (direction cosine in the imaging direction) is the same. Approximately, for example, grouping is performed as follows.

算出した端点を始点から終点へのベクトルとして、(X,Y)座標を平面にプロットすると、図10のようになる。このベクトルの方向と長さが同様のもの、すなわち、変位が所定の誤差範囲で等しいオプティカルフローを、1つの移動物体に属する特徴点としてグルーピングする。グルーピングされたオプティカルフローから移動物体を判定し、表示処理することは、実施の形態1と同様である。   When the calculated end point is a vector from the start point to the end point and the (X, Y) coordinates are plotted on a plane, the result is as shown in FIG. The optical flows having the same direction and length, that is, the optical flows having the same displacement within a predetermined error range, are grouped as feature points belonging to one moving object. Similar to the first embodiment, the moving object is determined from the grouped optical flows and displayed.

次に、オプティカルフローにおける特徴点の座標を算出し、2つの画像間の変位が等しい特徴点を1つの移動物体に属する特徴点としてグルーピングする場合の移動物体認識装置1の動作について説明する。実施の形態2における移動物体認識装置1の物理的な構成は、例えば図2で示される。図13は、実施の形態2の移動物体認識の動作の一例を示すフローチャートである。   Next, the operation of the moving object recognition apparatus 1 when calculating the coordinates of feature points in the optical flow and grouping the feature points having the same displacement between two images as the feature points belonging to one moving object will be described. The physical configuration of the moving object recognition apparatus 1 in the second embodiment is shown in FIG. 2, for example. FIG. 13 is a flowchart illustrating an example of the moving object recognition operation according to the second embodiment.

制御部11は送受信部16を介してカメラ2から時系列の画像を入力する(ステップB1)。また、距離計測器3から距離データ56を入力する(ステップB2)。距離Zをオプティカルフローの最下点を路面と仮定して数9で計算した値とする場合は、前回の値を用いる。前述のとおり、カメラ2のレンズ特性に応じて画像を補正する(ステップB3)。さらに、カメラ2のチルト角を補正して水平方向の画像に正規化してもよい。   The control unit 11 inputs time-series images from the camera 2 via the transmission / reception unit 16 (step B1). Further, distance data 56 is input from the distance measuring device 3 (step B2). When the distance Z is a value calculated by Equation 9 assuming that the lowest point of the optical flow is the road surface, the previous value is used. As described above, the image is corrected according to the lens characteristics of the camera 2 (step B3). Furthermore, the tilt angle of the camera 2 may be corrected and normalized to a horizontal image.

制御部11は、補正された画像の特徴点を、例えば前述のKLT特徴点抽出法で抽出する(ステップB4)。制御部11は、抽出した特徴点を時系列の画像間で比較し、前述のテンプレートマッチングでオプティカルフローを生成する(ステップB5)。   The control unit 11 extracts the feature points of the corrected image, for example, by the above-described KLT feature point extraction method (step B4). The control unit 11 compares the extracted feature points between time-series images, and generates an optical flow by the template matching described above (step B5).

次に、オプティカルフローと距離Zから特徴点の世界座標を計算する(ステップB6)。距離Zをオプティカルフローの最下点を路面と仮定して数9で計算した値とする場合は、前回の最下点だった特徴点のオプティカルフローから距離Zを計算する。そして、等変位点をグルーピングする(ステップB7)。前述のとおり、図10のようにプロットしたベクトルのうち、ある誤差を許容して同じ方向と大きさのベクトルを同一の移動物体に属するオプティカルフローとしてグルーピングする。   Next, the world coordinates of the feature point are calculated from the optical flow and the distance Z (step B6). When the distance Z is assumed to be the road surface, assuming that the lowest point of the optical flow is the road surface, the distance Z is calculated from the optical flow of the feature point that was the last lowest point. Then, the equal displacement points are grouped (step B7). As described above, among the vectors plotted as shown in FIG. 10, vectors having the same direction and size are grouped as optical flows belonging to the same moving object while allowing a certain error.

グルーピングされたオプティカルフローに属する特徴点のパターンから、移動物体を判定する(ステップB8)。さらに、オプティカルフローの最下点を路面(自車と同じ平面上にある)と仮定して、数9に示した方法で移動物体までの距離を算出してもよい。   A moving object is determined from the pattern of feature points belonging to the grouped optical flows (step B8). Further, assuming that the lowest point of the optical flow is the road surface (on the same plane as the own vehicle), the distance to the moving object may be calculated by the method shown in Equation 9.

移動物体が認識された場合は(ステップB9;Yes)、制御部11は、画面表示部15を介して、表示装置7にその情報を表示する(ステップB10)。例えば、後方の接近車の位置を自車両との関係で平面図に示す。また、音声又はチャイムなどの音響で運転者にしらせてもよい。そして、時系列画像データ入力(ステップB1)にもどって、移動物体認識を繰り返す。移動物体が認識されない場合は(ステップB9;No)、表示を行わずに移動物体認識を繰り返す(ステップB1)。   When a moving object is recognized (step B9; Yes), the control part 11 displays the information on the display apparatus 7 via the screen display part 15 (step B10). For example, the position of the approaching vehicle behind is shown in a plan view in relation to the host vehicle. Moreover, you may make a driver | operator sound, such as an audio | voice or a chime. Then, returning to the time-series image data input (step B1), the moving object recognition is repeated. If the moving object is not recognized (step B9; No), the moving object recognition is repeated without displaying (step B1).

本発明の移動物体認識装置1によれば、時系列の画像データから生成されたオプティカルフローを、移動物体ごとに正しくグルーピングできる。その結果、移動物体を正確に認識することができる。また、カメラ2のレンズ特性に応じて画像を補正するので、例えば、広角レンズを使用する後方カメラなどであっても、補正された画像データから生成されたオプティカルフローを、移動物体ごとに正しくグルーピングできる。   According to the moving object recognition apparatus 1 of the present invention, optical flows generated from time-series image data can be correctly grouped for each moving object. As a result, the moving object can be accurately recognized. In addition, since the image is corrected according to the lens characteristics of the camera 2, the optical flow generated from the corrected image data is correctly grouped for each moving object even in a rear camera using a wide-angle lens, for example. it can.

その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更及び修正が可能である。   In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

制御部11、主記憶部12、外部記憶部13、操作部14、画面表示部15、送受信部16及び内部バス10などから構成される移動物体認識装置1の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD-ROM、DVD-ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する移動物体認識装置1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで移動物体認識装置1を構成してもよい。   The central part that performs processing of the moving object recognition apparatus 1 including the control unit 11, the main storage unit 12, the external storage unit 13, the operation unit 14, the screen display unit 15, the transmission / reception unit 16, and the internal bus 10, It can be realized by using a normal computer system regardless of a dedicated system. For example, a computer program for executing the above operation is stored and distributed on a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, the moving object recognition apparatus 1 that executes the above-described processing may be configured. Alternatively, the moving object recognition device 1 may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet and downloading the computer program by a normal computer system.

また、移動物体認識装置1の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the function of the moving object recognition apparatus 1 is realized by sharing an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program part is stored in a recording medium or a storage device. It may be stored.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be activated and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

本発明の一実施の形態である移動物体認識装置の論理的な構成を示すブロック図である。It is a block diagram which shows the logical structure of the moving object recognition apparatus which is one embodiment of this invention. 移動物体認識装置の物理的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a physical structure of a moving object recognition apparatus. オプティカルフローを説明する図である。It is a figure explaining an optical flow. 車両のカメラ取り付け位置の例を示す図である。It is a figure which shows the example of the camera attachment position of a vehicle. 広角レンズの後方モニタカメラで撮像した画像の例である。It is an example of the image imaged with the rear monitor camera of a wide angle lens. 図5の歪みを補正した画像の例である。It is an example of the image which correct | amended distortion of FIG. 図6の画像を正規化した画像を示す図である。It is a figure which shows the image which normalized the image of FIG. オプティカルフローの例を示す図である。It is a figure which shows the example of an optical flow. オプティカルフローと消失点の外分比を変形した直線の式のx成分(a)とy成分(b)をプロットしたグラフである。It is the graph which plotted the x component (a) and y component (b) of the linear type | formula which deform | transformed the external division ratio of an optical flow and a vanishing point. オプティカルフローの世界座標をXY平面に投影した図である。It is the figure which projected the world coordinate of the optical flow on XY plane. 移動物体認識の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement of moving object recognition. 実施の形態2に係る移動物体認識装置の論理的な構成の例を示すブロック図である。6 is a block diagram illustrating an example of a logical configuration of a moving object recognition apparatus according to Embodiment 2. FIG. 実施の形態2の移動物体認識の動作の一例を示すフローチャートである。12 is a flowchart illustrating an example of an operation of moving object recognition according to the second embodiment.

符号の説明Explanation of symbols

1 移動物体認識装置
2 カメラ(撮像手段)
3 距離計測器(距離検知手段)
5 データ保持部
7 表示装置
10 内部バス
11 制御部(特徴点抽出手段、オプティカルフロー生成手段、グルーピング手段、変位算出手段、等変位点選択手段、画像補正手段)
12 主記憶部
13 外部記憶部
14 操作部
15 画面表示部
16 送受信部
21 画像入力部
22 画像補正部(画像補正手段)
23 特徴点抽出部(特徴点抽出手段)
24 オプティカルフロー生成部(オプティカルフロー生成手段)
25 グルーピング処理部(グルーピング手段)
26 移動物体判定部
27 表示処理部
28 データ取得部
29 等変位点抽出処理部(変位算出手段、等変位点選択手段)
51 収集時系列画像データ
52 補正時系列画像データ
53 特徴点データ
54 オプティカルフローデータ
55 グルーピングデータ
56 距離データ
DESCRIPTION OF SYMBOLS 1 Moving object recognition apparatus 2 Camera (imaging means)
3 Distance measuring device (distance detection means)
5 Data holding unit 7 Display device 10 Internal bus 11 Control unit (feature point extraction means, optical flow generation means, grouping means, displacement calculation means, equal displacement point selection means, image correction means)
DESCRIPTION OF SYMBOLS 12 Main memory | storage part 13 External memory | storage part 14 Operation part 15 Screen display part 16 Transmission / reception part 21 Image input part 22 Image correction part (image correction means)
23 feature point extraction unit (feature point extraction means)
24 Optical flow generator (optical flow generator)
25 Grouping processing unit (grouping means)
26 moving object determination unit 27 display processing unit 28 data acquisition unit 29 equal displacement point extraction processing unit (displacement calculation means, equal displacement point selection means)
51 Collected time-series image data 52 Corrected time-series image data 53 Feature point data 54 Optical flow data 55 Grouping data 56 Distance data

Claims (6)

時系列の画像を撮像する撮像手段と、
前記撮像手段で撮像した前記時系列の各画像の特徴点を抽出する特徴点抽出手段と、
前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生成手段と、
前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを、1つの移動物体に属するオプティカルフローとして選択するグルーピング手段と、
を備えることを特徴とする移動物体認識装置。
An imaging means for capturing time-series images;
Feature point extracting means for extracting feature points of each time-series image captured by the imaging means;
Optical flow generation means for comparing the feature points of the time-series images between different images and generating an optical flow that is a vector connecting the feature points having the same pattern;
Among the optical flows, the extension line of the optical flow intersects at one vanishing point within a predetermined error range, and the optical flow extension line has one end point of the optical flow as an outer dividing point. A grouping means for selecting, as an optical flow belonging to one moving object, an optical flow in which the outer division ratio of the line connecting the other end point of the flow and the vanishing point is equal within a predetermined error range;
A moving object recognition device comprising:
前記撮像手段で撮像した画像を、前記撮像手段のレンズの特性に合わせて、透視図に補正する画像補正手段を備え、
前記特徴点抽出手段は、前記画像補正手段で補正された画像の特徴点を抽出することを特徴とする請求項1に記載の移動物体認識装置。
An image correction unit that corrects an image captured by the imaging unit to a perspective view according to the characteristics of the lens of the imaging unit,
The moving object recognition apparatus according to claim 1, wherein the feature point extraction unit extracts a feature point of the image corrected by the image correction unit.
前記グルーピング手段でグルーピングしたオプティカルフローの前記画像中の最下点が、前記撮像手段を備える物体と前記移動物体とが共通して存在する平面に位置すると仮定して、前記撮像手段から前記移動物体の特徴点までの距離の撮像方向への方向余弦を、前記撮像手段から前記移動物体までの距離として算出する距離算出手段を備えることを特徴とする請求項1に記載の移動物体認識装置。 Assuming that the lowest point in the image of the optical flows grouped by the grouping unit is located on a plane in which the object including the imaging unit and the moving object exist in common, the imaging unit to the moving object The moving object recognition apparatus according to claim 1, further comprising a distance calculating unit that calculates a direction cosine of the distance to the feature point in the imaging direction as a distance from the imaging unit to the moving object. 時系列の画像を入力する撮像ステップと、
前記撮像ステップで入力した前記時系列の各画像の特徴点を抽出する特徴点抽出ステップと、
前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生成ステップと、
前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを選択するグルーピングステップと、
を備えることを特徴とする移動物体認識方法。
An imaging step for inputting time-series images;
A feature point extracting step of extracting feature points of each time-series image input in the imaging step;
An optical flow generation step of comparing the feature points of the time-series images between different images and generating an optical flow that is a vector connecting the feature points having the same pattern;
Among the optical flows, the extension line of the optical flow intersects at one vanishing point within a predetermined error range, and the optical flow extension line has one end point of the optical flow as an outer dividing point. A grouping step of selecting an optical flow in which the external division ratio between the other end point of the flow and the vanishing point is equal within a predetermined error range;
A moving object recognition method comprising:
前記撮像ステップで入力した画像を、前記撮像手段のレンズの特性に合わせて、透視図に補正する画像補正ステップを備え、
前記特徴点抽出ステップは、前記画像補正ステップで補正された画像の特徴点を抽出することを特徴とする請求項に記載の移動物体認識方法。
An image correction step of correcting the image input in the imaging step into a perspective view in accordance with the characteristics of the lens of the imaging means;
5. The moving object recognition method according to claim 4 , wherein the feature point extraction step extracts feature points of the image corrected in the image correction step.
コンピュータを、
時系列の画像を撮像手段から入力する画像入力手段と、
画像入力手段で入力した時系列の各画像の複数の特徴点を抽出する特徴点抽出手段と、
前記時系列の画像の特徴点を異なる画像間で比較して、画像上で位置が変化した同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生成手段と、
前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを、1つの移動物体に属するオプティカルフローとして選択するグルーピング手段、
として機能させることを特徴とするコンピュータプログラム。
Computer
Image input means for inputting time-series images from the imaging means;
Feature point extraction means for extracting a plurality of feature points of each time-series image input by the image input means;
Optical flow generation means for comparing the feature points of the time-series images between different images and generating an optical flow that is a vector connecting the feature points having the same pattern whose position is changed on the images;
Among the optical flows, the extension line of the optical flow intersects at one vanishing point within a predetermined error range, and one end point of the optical flow in the extension line of the optical flow is defined as an outer dividing point. A grouping means for selecting, as an optical flow belonging to one moving object, an optical flow in which an external division ratio between the other end point of the flow and the vanishing point is equal within a predetermined error range;
A computer program that functions as a computer program.
JP2006275387A 2006-10-06 2006-10-06 Moving object recognition apparatus, moving object recognition method, and computer program Expired - Fee Related JP4367475B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006275387A JP4367475B2 (en) 2006-10-06 2006-10-06 Moving object recognition apparatus, moving object recognition method, and computer program
US12/442,286 US8290209B2 (en) 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program thereof
PCT/JP2007/069463 WO2008044592A1 (en) 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program
EP07829201.8A EP2081154B9 (en) 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006275387A JP4367475B2 (en) 2006-10-06 2006-10-06 Moving object recognition apparatus, moving object recognition method, and computer program

Publications (2)

Publication Number Publication Date
JP2008097126A JP2008097126A (en) 2008-04-24
JP4367475B2 true JP4367475B2 (en) 2009-11-18

Family

ID=39282796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006275387A Expired - Fee Related JP4367475B2 (en) 2006-10-06 2006-10-06 Moving object recognition apparatus, moving object recognition method, and computer program

Country Status (4)

Country Link
US (1) US8290209B2 (en)
EP (1) EP2081154B9 (en)
JP (1) JP4367475B2 (en)
WO (1) WO2008044592A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141219A1 (en) 2011-04-13 2012-10-18 日産自動車株式会社 Driving assistance device and adjacent vehicle detection method therefor

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4919036B2 (en) 2007-01-30 2012-04-18 アイシン精機株式会社 Moving object recognition device
JP4720859B2 (en) * 2008-07-09 2011-07-13 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US20130124147A1 (en) 2008-08-15 2013-05-16 Hailin Jin Random Sample Consensus for Groups of Data
KR101239566B1 (en) 2008-09-30 2013-03-05 주식회사 만도 Method and Apparatus for Identifing Multiple Objects
JP5004923B2 (en) * 2008-10-29 2012-08-22 本田技研工業株式会社 Vehicle driving support device
JP5152144B2 (en) * 2009-10-07 2013-02-27 株式会社デンソーアイティーラボラトリ Image processing device
JP5644097B2 (en) * 2009-12-08 2014-12-24 ソニー株式会社 Image processing apparatus, image processing method, and program
CN102111530B (en) * 2009-12-24 2013-01-02 财团法人工业技术研究院 Device and method for movable object detection
JP5533323B2 (en) * 2010-06-21 2014-06-25 日産自動車株式会社 Movement amount estimation apparatus and movement amount estimation method
US9342746B1 (en) * 2011-03-17 2016-05-17 UtopiaCompression Corporation Maneuverless passive range estimation using monocular image sequences
US10235577B1 (en) 2011-03-17 2019-03-19 UtopiaCompression Corporation Maneuverless passive range estimation using monocular image sequences
US9547795B2 (en) * 2011-04-25 2017-01-17 Magna Electronics Inc. Image processing method for detecting objects using relative motion
JP5776769B2 (en) * 2011-05-24 2015-09-09 富士通株式会社 Object approach detection device, object approach detection method, and program
US9046364B2 (en) * 2011-06-14 2015-06-02 Nissan Motor Co., Ltd. Distance measurement device and environment map generation apparatus
KR101327736B1 (en) * 2011-12-23 2013-11-11 현대자동차주식회사 AVM Top View Based Parking Support System
JP5866238B2 (en) * 2012-03-27 2016-02-17 富士重工業株式会社 Outside environment recognition device and outside environment recognition method
JP5973843B2 (en) * 2012-08-24 2016-08-23 富士重工業株式会社 Outside environment recognition device and outside environment recognition method
US20160035107A1 (en) * 2013-04-25 2016-02-04 Wenming Zheng Moving object detection
CN103324932B (en) * 2013-06-07 2017-04-12 东软集团股份有限公司 Video-based vehicle detecting and tracking method and system
KR101738995B1 (en) 2013-08-19 2017-05-23 젠텍스 코포레이션 Imaging system and method with ego motion detection
CN103679172B (en) * 2013-10-10 2017-02-08 南京理工大学 Method for detecting long-distance ground moving object via rotary infrared detector
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
JP6119643B2 (en) * 2014-03-03 2017-04-26 トヨタ自動車株式会社 Perimeter monitoring apparatus and object determination method
JPWO2015162910A1 (en) * 2014-04-24 2017-04-13 パナソニックIpマネジメント株式会社 In-vehicle display device, control method for in-vehicle display device, and program
WO2015170706A1 (en) * 2014-05-07 2015-11-12 日本電産エレシス株式会社 Traveling body detection method and program
CN106796648B (en) 2014-06-03 2020-11-24 御眼视觉技术有限公司 System and method for detecting objects
US10042047B2 (en) * 2014-09-19 2018-08-07 GM Global Technology Operations LLC Doppler-based segmentation and optical flow in radar images
US10215851B2 (en) 2014-09-19 2019-02-26 GM Global Technology Operations LLC Doppler-based segmentation and optical flow in radar images
JP6265095B2 (en) * 2014-09-24 2018-01-24 株式会社デンソー Object detection device
DE102014117708A1 (en) * 2014-12-02 2016-06-02 Connaught Electronics Ltd. Method for classifying a flow vector, driver assistance system and motor vehicle
KR101531530B1 (en) * 2014-12-31 2015-06-25 (주)스타넥스 Image analysis method, apparatus and computer readable medium
JP2016157197A (en) * 2015-02-23 2016-09-01 株式会社リコー Self-position estimation device, self-position estimation method, and program
JP6657925B2 (en) * 2015-06-04 2020-03-04 ソニー株式会社 In-vehicle camera system and image processing device
US9430840B1 (en) * 2015-07-23 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting an image based on motion vanishing points
US11062174B2 (en) 2017-02-28 2021-07-13 Nec Solution Innovators, Ltd. Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium
DE102017117211B3 (en) 2017-07-31 2018-09-06 Dr. Ing. H.C. F. Porsche Aktiengesellschaft A method of trajectory-based feature mapping in an image captured by an image capture unit of a vehicle
CN109522910B (en) * 2018-12-25 2020-12-11 浙江商汤科技开发有限公司 Key point detection method and device, electronic equipment and storage medium

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5036474A (en) 1989-03-31 1991-07-30 Honeywell Inc. Motion detection and tracking from a mobile platform
US5265172A (en) * 1989-10-13 1993-11-23 Texas Instruments Incorporated Method and apparatus for producing optical flow using multi-spectral images
JPH0591513A (en) 1991-09-27 1993-04-09 Toshiba Corp Image monitoring device
CA2054344C (en) * 1990-10-29 1997-04-15 Kazuhiro Itsumi Video camera having focusing and image-processing function
JP2940582B2 (en) 1992-10-15 1999-08-25 ダイハツ工業株式会社 Obliquely backward traveling vehicle detection method
JP3239521B2 (en) 1993-03-30 2001-12-17 トヨタ自動車株式会社 Mobile object recognition device
JP3485135B2 (en) 1995-09-27 2004-01-13 矢崎総業株式会社 Rear side monitoring device for vehicles
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6124647A (en) * 1998-12-16 2000-09-26 Donnelly Corporation Information display in a rearview mirror
JP3629935B2 (en) 1998-01-27 2005-03-16 オムロン株式会社 Speed measurement method for moving body and speed measurement device using the method
JP3580475B2 (en) * 1998-09-14 2004-10-20 矢崎総業株式会社 Perimeter monitoring device
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP2001216519A (en) 2000-02-04 2001-08-10 Fujitsu Ltd Traffic monitor device
JP2002099906A (en) 2000-09-22 2002-04-05 Mazda Motor Corp Object-recognizing device
JP2003306102A (en) * 2002-04-11 2003-10-28 Toshiba Corp Passing vehicle detection device, and rear side alarm device for drive supporting system
US7324665B2 (en) 2002-09-16 2008-01-29 Massachusetts Institute Of Technology Method of multi-resolution adaptive correlation processing
JP3862015B2 (en) * 2002-10-25 2006-12-27 オムロン株式会社 Automotive radar equipment
WO2005081178A1 (en) 2004-02-17 2005-09-01 Yeda Research & Development Co., Ltd. Method and apparatus for matching portions of input images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141219A1 (en) 2011-04-13 2012-10-18 日産自動車株式会社 Driving assistance device and adjacent vehicle detection method therefor

Also Published As

Publication number Publication date
US20090252377A1 (en) 2009-10-08
EP2081154B9 (en) 2015-02-25
US8290209B2 (en) 2012-10-16
EP2081154B1 (en) 2014-11-26
EP2081154A4 (en) 2011-05-04
EP2081154A1 (en) 2009-07-22
JP2008097126A (en) 2008-04-24
WO2008044592A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP4367475B2 (en) Moving object recognition apparatus, moving object recognition method, and computer program
US9811742B2 (en) Vehicle-surroundings recognition device
US8005266B2 (en) Vehicle surroundings monitoring apparatus
JP5146446B2 (en) MOBILE BODY DETECTION DEVICE, MOBILE BODY DETECTING PROGRAM, AND MOBILE BODY DETECTING METHOD
JP2008186246A (en) Moving object recognizing device
JP5799784B2 (en) Road shape estimation apparatus and program
WO2010067770A1 (en) Three-dimensional object emergence detection device
JP6891954B2 (en) Object detection device, object detection method, and program
JP2002197469A (en) Device for detecting traffic lane
JP5756709B2 (en) Height estimation device, height estimation method, and height estimation program
US10991105B2 (en) Image processing device
JP6795224B2 (en) Mobile detection device, mobile detection method, and program
JP5048609B2 (en) Object tracking device and program
KR102060113B1 (en) System and method for performing calibration
JP3906210B2 (en) Vehicle tracking device and program
KR101637535B1 (en) Apparatus and method for correcting distortion in top view image
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP3956817B2 (en) Displacement data extraction method and object detection apparatus
JP2001243456A (en) Device and method for detecting obstacle
JP2009077022A (en) Driving support system and vehicle
JP3951734B2 (en) Vehicle external recognition device
JP2005301892A (en) Lane recognition device by a plurality of cameras
JP2004038760A (en) Traveling lane recognition device for vehicle
JP4239834B2 (en) Object detection device
JP2019096031A (en) Estimation program, estimation device, and estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090817

R151 Written notification of patent or utility model registration

Ref document number: 4367475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130904

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees