JP2012027595A - Start notification device, start notification method and program - Google Patents

Start notification device, start notification method and program Download PDF

Info

Publication number
JP2012027595A
JP2012027595A JP2010163980A JP2010163980A JP2012027595A JP 2012027595 A JP2012027595 A JP 2012027595A JP 2010163980 A JP2010163980 A JP 2010163980A JP 2010163980 A JP2010163980 A JP 2010163980A JP 2012027595 A JP2012027595 A JP 2012027595A
Authority
JP
Japan
Prior art keywords
vehicle
area
feature point
region
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010163980A
Other languages
Japanese (ja)
Inventor
Tokihiko Akita
時彦 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2010163980A priority Critical patent/JP2012027595A/en
Publication of JP2012027595A publication Critical patent/JP2012027595A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform a notification at an appropriate timing by highly accurately detecting a start of a stopped vehicle.SOLUTION: When an area of a region including grouped optical flow is a threshold or more, this start notification device notifies a driver of a start of a forward vehicle whose moving direction is indicated by the optical flow. When an area of a region including feature points uninvolved in the regulation of the optical flow is less than the threshold, this start notification device notifies of the start of the forward vehicle. This method can thus notify the start of the forward vehicle that is stopped in front thereof to the driver driving the vehicle at an appropriate timing.

Description

本発明は、発進報知装置、発進報知方法及びプログラムに関し、更に詳しくは、自車の前方に停止した車両の発進を報知する発進報知装置、自車の前方に停止した車両の発進を報知するための発進報知方法、及びプログラムに関する。   The present invention relates to a start notification device, a start notification method, and a program. More specifically, the present invention relates to a start notification device that notifies the start of a vehicle stopped in front of the host vehicle, and to notify the start of the vehicle stopped in front of the host vehicle. It is related with the start alerting method and program.

近年、車内に設置されたカメラから出力される画像に基づいて、自車近傍に位置する車両の発進及び停止などの挙動を監視する運転支援システムの実用化が進められている。この種の運転支援システムは、画像に含まれる特徴点の時系列的な位置変化を示すベクトル(オプティカルフロー)の大きさに基づいて、自車近傍に位置する車両の挙動を監視する(例えば特許文献1乃至3参照)。   2. Description of the Related Art In recent years, a driving support system that monitors behaviors such as start and stop of a vehicle located in the vicinity of the host vehicle based on an image output from a camera installed in the vehicle has been put into practical use. This type of driving support system monitors the behavior of a vehicle located in the vicinity of the host vehicle based on the magnitude of a vector (optical flow) indicating a time-series position change of feature points included in an image (for example, a patent) References 1 to 3).

特開2009−067240号公報JP 2009-0667240 A 特開平7−239998号公報JP-A-7-239998 特開2007−207274号公報JP 2007-207274 A

特許文献1に記載された装置は、自車の前方に停止する車両(以下、停止車両ともいう)が写る画像から、この停止車両のブレーキランプを構成する画素を抽出する。そして、ブレーキランプを構成する画素の輝度が、停止車両のブレーキ灯が点灯したときと、消灯したときとで変化することを利用して、停止車両の発進を検出する。   The device described in Patent Literature 1 extracts pixels constituting a brake lamp of a stopped vehicle from an image showing a vehicle that stops in front of the host vehicle (hereinafter also referred to as a stopped vehicle). Then, the start of the stopped vehicle is detected by utilizing the fact that the luminance of the pixels constituting the brake lamp changes between when the brake light of the stopped vehicle is turned on and when it is turned off.

しかしながら、停止車両の挙動は、必ずしもブレーキ灯の変化とリンクしない。このため、停止車両の挙動を確実に検出することが困難となる場合がある。   However, the behavior of a stopped vehicle does not necessarily link with a change in brake lights. For this reason, it may be difficult to reliably detect the behavior of the stopped vehicle.

特許文献2に記載された装置は、停止車両の画像を複数のブロックに分割する。そして、ブロックごとに規定されるオプティカルフローに基づいて、停止車両の発進を検出する。   The apparatus described in Patent Document 2 divides an image of a stopped vehicle into a plurality of blocks. And based on the optical flow prescribed | regulated for every block, the start of a stop vehicle is detected.

しかしながら、ブロックごとに規定されたオプティカルフローに基づく検出を行う場合には、例えば停止車両への照明条件や、周囲環境によっては、停止車両をうまく特定することができなくなる場合がある。また、停止車両の周囲環境を考慮した検出を行おうとすると、検出を行うための処理が煩雑になることが予想される。   However, when detection based on an optical flow defined for each block is performed, the stopped vehicle may not be identified well depending on, for example, the lighting conditions for the stopped vehicle and the surrounding environment. Further, if detection is performed in consideration of the surrounding environment of the stopped vehicle, it is expected that the processing for performing detection becomes complicated.

特許文献3に記載された装置は、停止車両の画像に監視ラインを規定する。そして、この監視ライン上の特徴点の移動量等に基づいて、停止車両の発進を検出する。   The device described in Patent Document 3 defines a monitoring line in an image of a stopped vehicle. Then, the start of the stopped vehicle is detected based on the amount of movement of the feature points on the monitoring line.

しかしながら、監視ライン上の特徴点のみに基づく検出を行う場合には、照明等の影響などにより、監視ライン上の特徴点を精度よく検出できないことが考えられる。この場合には、停止車両の挙動の検出が不正確になることが予想される。   However, when performing detection based only on the feature points on the monitoring line, it is conceivable that the feature points on the monitoring line cannot be accurately detected due to the influence of illumination or the like. In this case, it is expected that the detection of the behavior of the stopped vehicle will be inaccurate.

本発明は、上述の事情の下になされたもので、停止車両の発進を精度良く検出し、適切なタイミングで報知することを目的とする。   The present invention has been made under the above-described circumstances, and an object thereof is to accurately detect the start of a stopped vehicle and to notify at an appropriate timing.

上記目的を達成するために、本発明の発進報知装置は、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点と、第2画像に含まれる、前記第1特徴点に対応する第2特徴点とを抽出する抽出手段と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定するオプティカルフロー規定手段と、
前記オプティカルフローを、前記移動体ごとにグルーピングするグルーピング処理手段と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する第1演算手段と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する報知手段と、
を備える。
In order to achieve the above object, the start notification device of the present invention is:
A first feature point included in a first image obtained by photographing a moving body stopped in front of the host vehicle and a second feature point corresponding to the first feature point included in a second image are extracted. Extraction means;
Optical flow defining means for defining an optical flow starting from the first feature point and ending at the second feature point;
Grouping processing means for grouping the optical flow for each moving object;
First computing means for calculating an area of a first region including optical flows grouped as optical flows related to the same moving body;
Informing means for informing the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
Is provided.

前記第1領域は、矩形であってもよい。   The first area may be rectangular.

グルーピングされた前記オプティカルフローの一部の始点が、前記第1領域の外縁に位置していてもよい。   A start point of a part of the grouped optical flows may be located at an outer edge of the first region.

発進報知装置は、
所定の領域内において、前記オプティカルフロー規定手段によって規定されたオプティカルフローの始点及び終点が含まれない第2領域の面積を算出する第2演算手段を有し、
前記報知手段は、前記第2領域の面積が閾値以下の場合に、前記自車の前方に停止した前記移動体の発進を報知することとしてもよい。
The start notification device
A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
The notification means may notify the start of the moving body stopped in front of the host vehicle when the area of the second region is equal to or smaller than a threshold value.

また、発進報知装置は、
所定の領域内において、前記オプティカルフロー規定手段によって規定されたオプティカルフローの始点及び終点が含まれない第2領域の面積を算出する第2演算手段を有し、
前記報知手段は、前記第2領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進の報知を抑制することとしてもよい。
In addition, the start notification device
A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
The notification means may suppress notification of the start of the moving body stopped in front of the host vehicle when the area of the second region is equal to or greater than a threshold value.

前記第2領域は、矩形であってもよい。   The second area may be rectangular.

前記所定の領域は、横方向の大きさが前記自車の幅に相当し、縦方向の大きさが前記自車の高さに相当する領域であってもよい。   The predetermined area may be an area in which the size in the horizontal direction corresponds to the width of the vehicle and the size in the vertical direction corresponds to the height of the vehicle.

前記所定の領域は、横方向の大きさが前記自車が走行するレーンの幅に相当する領域であってもよい。   The predetermined area may be an area whose lateral size corresponds to a width of a lane in which the host vehicle travels.

前記抽出手段は、前記第1画像及び前記第2画像の検出領域から、前記第1特徴点及び前記第2特徴点を抽出し、
前記第2演算手段は、前記検出領域における前記所定の領域内において、前記第2領域の面積を算出することとしてもよい。
The extraction means extracts the first feature point and the second feature point from detection areas of the first image and the second image,
The second calculation means may calculate the area of the second region within the predetermined region in the detection region.

本発明の発進報知方法は、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する工程と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する工程と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する工程と、
前記オプティカルフローを、前記移動体ごとにグルーピングする工程と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する工程と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する工程と、
を含む。
The start notification method of the present invention includes:
Extracting a first feature point included in a first image obtained by photographing a moving body stopped in front of the own vehicle;
Extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving body stopped in front of the host vehicle;
Defining an optical flow having the first feature point as a start point and the second feature point as an end point;
Grouping the optical flows for each of the moving objects;
Calculating an area of a first region including optical flows grouped as optical flows related to the same moving object;
A step of notifying the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
including.

本発明のプログラムは、
コンピュータに、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する手順と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する手順と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する手順と、
前記オプティカルフローを、前記移動体ごとにグルーピングする手順と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する手順と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する手順と、
を実行させる。
The program of the present invention
On the computer,
A procedure for extracting a first feature point included in a first image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for defining an optical flow having the first feature point as a start point and the second feature point as an end point;
A procedure for grouping the optical flows for each of the moving objects;
A step of calculating an area of a first region including an optical flow grouped as an optical flow related to the same moving body;
When the area of the first region is equal to or greater than a threshold, a procedure for notifying the start of the moving body stopped in front of the host vehicle;
Is executed.

本発明によれば、オプティカルフローを含む領域の面積が、所定の閾値以上である場合に、オプティカルフローによって移動方向が示される車両の発進が報知される。このため、自車の直近に停止した車両がある場合に、例えば自車から離れた位置にある車両が発進したとしても、誤って発進が報知されることがなくなる。したがって、対象車両の発進を精度良く検出し、適切なタイミングで報知することが可能となる。   According to the present invention, when the area of the region including the optical flow is equal to or larger than the predetermined threshold, the vehicle start in which the moving direction is indicated by the optical flow is notified. For this reason, when there is a vehicle stopped in the immediate vicinity of the own vehicle, for example, even if a vehicle at a position away from the own vehicle starts, the start is not erroneously notified. Therefore, it is possible to accurately detect the start of the target vehicle and notify the vehicle at an appropriate timing.

第1の実施形態に係る発進報知システムのブロック図である。1 is a block diagram of a start notification system according to a first embodiment. 撮影装置の取り付け位置を説明するための図である。It is a figure for demonstrating the attachment position of an imaging device. 自車と停止車両との相対的な位置関係を示す図である。It is a figure which shows the relative positional relationship of the own vehicle and a stop vehicle. 撮影装置によって撮影された画像を示す図(その1)である。FIG. 3 is a first diagram illustrating an image photographed by the photographing apparatus. 撮影装置によって撮影された画像を示す図(その2)である。It is FIG. (2) which shows the image image | photographed with the imaging device. オプティカルフローを示す図である。It is a figure which shows an optical flow. オプティカルフローを含む領域を示す図である。It is a figure which shows the area | region containing an optical flow. オプティカルフローを規定しない特徴点を含む領域を示す図である。It is a figure which shows the area | region containing the feature point which does not prescribe | regulate an optical flow. 発進報知システムの効果を説明するための図である。It is a figure for demonstrating the effect of a start alerting | reporting system. 第2の実施形態に係る発進報知システムのブロック図である。It is a block diagram of the start notification system concerning a 2nd embodiment. 発進報知装置の動作を説明するためのフローチャート(その1)である。It is a flowchart (the 1) for demonstrating operation | movement of a start alerting | reporting apparatus. 発進報知装置の動作を説明するためのフローチャート(その2)である。It is a flowchart (the 2) for demonstrating operation | movement of a start alerting | reporting apparatus.

《第1の実施形態》
以下、本発明の第1の実施形態を、図面を参照しつつ説明する。図1は本実施形態に係る発進報知システム10の概略的な構成を示すブロック図である。発進報知システム10は、自車(車両100)の前方に停止した停止車両の発進を検出し、当該停止車両の発進をドライバーへ報知するシステムである。図1に示されるように、発進報知システム10は、撮影装置20と、発進報知装置30とを有している。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a start notification system 10 according to the present embodiment. The start notification system 10 is a system that detects the start of a stopped vehicle stopped in front of the host vehicle (vehicle 100) and notifies the driver of the start of the stopped vehicle. As shown in FIG. 1, the start notification system 10 includes a photographing device 20 and a start notification device 30.

撮影装置20は、被写体を撮影することにより取得した画像を、電気信号に変換して出力する装置である。撮影装置20は、例えば図2に示されるように、車両100のフロントウインド上部に取り付けられている。この撮影装置20は、車両100の前方を撮影する。そして、撮影により取得した画像に関する情報を発進報知装置30へ出力する。   The photographing device 20 is a device that converts an image acquired by photographing a subject into an electric signal and outputs the electric signal. The imaging device 20 is attached to the upper part of the front window of the vehicle 100, for example, as shown in FIG. The photographing device 20 photographs the front of the vehicle 100. Then, information related to the image acquired by shooting is output to the start notification device 30.

図3は、車両100と車両101,102との相対的な位置関係を示す図である。例えば、矢印a1に示される位置に車両101が停止し、矢印b1に示される位置に車両102が停止している場合を考える。この状態から、車両101が発進し、矢印a2に示される位置に至った場合には、図3を参照するとわかるように、撮影装置20によって、まず、矢印a1に示される位置にある車両101と、矢印b1に示される位置にある車両102が撮影される。次に、矢印a2に示される位置にある車両101と、矢印b1に示される位置にある車両102が撮影される。   FIG. 3 is a diagram illustrating a relative positional relationship between the vehicle 100 and the vehicles 101 and 102. For example, consider a case where the vehicle 101 is stopped at the position indicated by the arrow a1 and the vehicle 102 is stopped at the position indicated by the arrow b1. From this state, when the vehicle 101 starts and reaches the position indicated by the arrow a2, the photographing device 20 firstly sets the vehicle 101 at the position indicated by the arrow a1 with reference to FIG. The vehicle 102 at the position indicated by the arrow b1 is photographed. Next, the vehicle 101 at the position indicated by the arrow a2 and the vehicle 102 at the position indicated by the arrow b1 are photographed.

図4は、図3における矢印a1に示される位置にある車両101を撮影することにより得られた画像PH1を示す図である。また、図5は、図3における矢印a2に示される位置にある車両101を撮影することにより得られた画像PH2を示す図である。撮影装置20は、画像PH1,PH2を撮影すると、画像PH1,PH2に関する情報を、発進報知装置30へ出力する。   FIG. 4 is a diagram showing an image PH1 obtained by photographing the vehicle 101 at the position indicated by the arrow a1 in FIG. FIG. 5 is a diagram showing an image PH2 obtained by photographing the vehicle 101 at the position indicated by the arrow a2 in FIG. When the image capturing device 20 captures the images PH1 and PH2, the image capturing device 20 outputs information related to the images PH1 and PH2 to the start notification device 30.

本実施形態では、上述の画像PH1,PH2について、撮影装置20の光学中心に対応する点(撮影装置20の光軸とその画像面との交点である画像中心)を原点Xc(FOE:Focus of Expansion)とするxy座標系を定義する。このxy座標系の原点Xcは、画像PH1,PH2の中心と一致する。   In the present embodiment, with respect to the above-described images PH1 and PH2, a point corresponding to the optical center of the imaging device 20 (an image center that is the intersection of the optical axis of the imaging device 20 and its image plane) is defined as an origin Xc (FOE: Focus of). Define the xy coordinate system as (Expansion). The origin Xc of the xy coordinate system coincides with the centers of the images PH1 and PH2.

図1に戻り、発進報知装置30は、自車の前方に停止する停止車両の発進を報知する装置である。図1に示されるように、発進報知装置30は、記憶部31、特徴点抽出部32、相関値演算部33、オプティカルフロー規定部34、グルーピング処理部35、第1演算部36、第2演算部37、及び報知部38を有している。   Returning to FIG. 1, the start notification device 30 is a device that notifies the start of a stopped vehicle that stops in front of the host vehicle. As shown in FIG. 1, the start notification device 30 includes a storage unit 31, a feature point extraction unit 32, a correlation value calculation unit 33, an optical flow definition unit 34, a grouping processing unit 35, a first calculation unit 36, and a second calculation. The unit 37 and the notification unit 38 are included.

記憶部31は、撮影装置20から順次出力される画像に関する情報を時系列的に記憶する。また、上記各部32〜38の処理結果としての情報を順次記憶する。   The storage unit 31 stores information on images sequentially output from the imaging device 20 in time series. Further, information as a processing result of each of the units 32 to 38 is sequentially stored.

特徴点抽出部32は、図4及び図5を参照するとわかるように、記憶部31に記憶された情報に基づく画像PH1,PH2に対して、例えば原点Xcと中心が一致する矩形状の検出領域DAを規定する。この検出領域DAは、例えば予め補助記憶部30cに記憶された自車の横幅、高さ、撮影装置20の焦点距離、画角(視野角)等の情報に基づいて規定される。   As can be seen from FIG. 4 and FIG. 5, the feature point extraction unit 32 has, for example, a rectangular detection region whose center coincides with the origin Xc for the images PH1 and PH2 based on the information stored in the storage unit 31. Define DA. This detection area DA is defined based on, for example, information such as the lateral width and height of the host vehicle, the focal length of the photographing apparatus 20, and the angle of view (viewing angle) stored in advance in the auxiliary storage unit 30c.

次に、特徴点抽出部32は、画像PH1に規定された検出領域DA、及び画像PH2に規定された検出領域DA内の画素それぞれについての特徴量を算出する。そして、この特徴量に基づいて画像PH1,PH2に規定された検出領域DA内に含まれる特徴点を抽出する。例えば、図4に示される画像PH1上に規定されたxy座標系で示される画素M(x、y)の特徴量f(x、y)は、画像の輝度勾配を示す関数I(x、y)を用いると次式(1)によって表される。   Next, the feature point extraction unit 32 calculates a feature amount for each of the pixels in the detection area DA defined in the image PH1 and the detection area DA defined in the image PH2. Then, feature points included in the detection area DA defined in the images PH1 and PH2 are extracted based on the feature amounts. For example, the feature quantity f (x, y) of the pixel M (x, y) shown in the xy coordinate system defined on the image PH1 shown in FIG. 4 is the function I (x, y) indicating the luminance gradient of the image. ) Is expressed by the following equation (1).

Figure 2012027595
Figure 2012027595

ただし、Ixx、Iyy、Ixyはそれぞれ次式(2)〜(4)によってそれぞれ表される。また、kは定数である。   However, Ixx, Iyy, and Ixy are respectively expressed by the following equations (2) to (4). K is a constant.

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

特徴点抽出部32は、まず、式(1)を用いて画像PH1の検出領域DA内にある画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。次に、特徴点抽出部32は、画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出し、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除する。特徴点抽出部32は、これにより得られた比較値V(=f(x、y)/AVG(x、y))を、予め設定された閾値と比較して、比較値Vが閾値以上の場合に、このときの画素M(x、y)を特徴点として抽出する。特徴点抽出部32は、上述の処理を画像PH2に対しても実行する。ここで、特徴量f(x、y)を輝度の平均値AVG(x、y)を4乗したもので除する理由は、特徴量f(x、y)を輝度に関して正規化するためである。 The feature point extraction unit 32 first calculates a feature quantity f (x, y) for each pixel M (x, y) in the detection area DA of the image PH1 using Expression (1). Next, the feature point extraction unit 32 calculates the average value AVG (x, y) of the brightness of the pixels around the pixel M (x, y), and calculates the feature value f (x, y) as the average brightness. Divide the value AVG (x, y) by the fourth power. The feature point extraction unit 32 compares the comparison value V (= f (x, y) / AVG (x, y) 4 ) obtained thereby with a preset threshold value, and the comparison value V is equal to or greater than the threshold value. In this case, the pixel M (x, y) at this time is extracted as a feature point. The feature point extraction unit 32 also performs the above-described processing on the image PH2. Here, the reason why the feature quantity f (x, y) is divided by the fourth power of the average luminance value AVG (x, y) is to normalize the feature quantity f (x, y) with respect to the brightness. .

図4には、画像PH1の検出領域DAから抽出された車両101に関連する特徴点P1,P2,P3,P4と、車両102に関連する特徴点P5,P6,P7,P8が示されている。また、図5には、画像PH2の検出領域DAから抽出された車両101に関連する特徴点Q1,Q2,Q3,Q4と、車両102に関連する特徴点Q5,Q6,Q7,Q8が示されている。画像PH1及び画像PH2を参照するとわかるように、特徴点抽出部32は、画像PH1,PH2に写り込んだ車両101,102の輪郭が急峻に変化する不連続点や、車両101,102を構成するパーツの形状が不連続に変化する点などを特徴点として抽出する。   FIG. 4 shows feature points P1, P2, P3, P4 related to the vehicle 101 extracted from the detection area DA of the image PH1, and feature points P5, P6, P7, P8 related to the vehicle 102. . FIG. 5 also shows feature points Q1, Q2, Q3, Q4 related to the vehicle 101 extracted from the detection area DA of the image PH2, and feature points Q5, Q6, Q7, Q8 related to the vehicle 102. ing. As can be seen by referring to the images PH1 and PH2, the feature point extraction unit 32 constitutes discontinuous points where the contours of the vehicles 101 and 102 reflected in the images PH1 and PH2 change sharply, and the vehicles 101 and 102. The points where the shape of the part changes discontinuously are extracted as feature points.

特徴点抽出部32は、画像PH1,PH2についての特徴点の抽出が完了すると、抽出した特徴点に関する情報を記憶部31へ出力するとともに、特徴点の抽出が完了したことを相関値演算部33へ通知する。なお、ここでは説明の便宜上、各画像PH1,PH2から特徴点が8つ抽出された場合について述べているが、実際は、1枚の画像から複数の特徴点が抽出される。   When the feature point extraction unit 32 completes the extraction of the feature points for the images PH1 and PH2, the feature point extraction unit 32 outputs information about the extracted feature points to the storage unit 31 and also indicates that the feature point extraction has been completed. To notify. Here, for convenience of explanation, a case where eight feature points are extracted from each of the images PH1 and PH2 is described, but actually, a plurality of feature points are extracted from one image.

図1に戻り、相関値演算部33は、画像PH1の特徴点P1〜P8を順次選択する。そして、この選択した特徴点と、画像PH2の特徴点Q1〜Q8との相関値を算出する。   Returning to FIG. 1, the correlation value calculator 33 sequentially selects the feature points P1 to P8 of the image PH1. Then, a correlation value between the selected feature point and the feature points Q1 to Q8 of the image PH2 is calculated.

具体的には、図4に示されるように、相関値演算部33は、画像PH1の特徴点P1を中心とする長方形の画像(画像PH1の部分画像)をテンプレートTF1として規定する。このテンプレートTF1は、M行N列のマトリクス状に配置された画素からなる画像である。また、以下の説明では、テンプレートTF1の座標とは、テンプレートTF1の中心の座標をいうものとする。   Specifically, as shown in FIG. 4, the correlation value calculation unit 33 defines a rectangular image (partial image of the image PH1) centered on the feature point P1 of the image PH1 as a template TF1. The template TF1 is an image composed of pixels arranged in a matrix of M rows and N columns. In the following description, the coordinates of the template TF1 refer to the coordinates of the center of the template TF1.

次に、相関値演算部33は、テンプレートTF1を、画像PH2の特徴点Q1〜Q8の近傍で移動させながら、画像PH2に対するテンプレートTF1の相関値Rを順次算出する。この相関値Rの算出は、例えば正規化相互相関を示す下記の式(5)を用いることができる。なお、T(i,j)は、テンプレートTF1のi行目かつj列目に位置する画素の輝度である。また、I(i,j)は、テンプレートTF1と重なる画像PH2の部分画像のi行目かつj列目に位置する画素の輝度である。また、IAVGは、上記部分画像を構成する画素の輝度の平均値である。また、TAVGは、テンプレートを構成する画素の輝度の平均値である。IAVG及びTAVGは下記の式(6)及び式(7)で示される。 Next, the correlation value calculator 33 sequentially calculates the correlation value R of the template TF1 with respect to the image PH2, while moving the template TF1 in the vicinity of the feature points Q1 to Q8 of the image PH2. The correlation value R can be calculated using, for example, the following equation (5) indicating normalized cross-correlation. T (i, j) is the luminance of the pixel located in the i-th row and the j-th column of the template TF1. I (i, j) is the luminance of the pixel located in the i-th row and the j-th column of the partial image of the image PH2 overlapping the template TF1. Further, IAVG is an average value of luminances of pixels constituting the partial image. TAVG is an average value of the luminance of the pixels constituting the template. I AVG and T AVG are represented by the following formulas (6) and (7).

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

相関値演算部33は、相関値Rを、上記式(5)に基づいて算出すると、この相関値Rに関する情報を、テンプレートTF1のxy座標系における位置座標と関連付けて、記憶部31へ記憶する。相関値演算部33は、画像PH1の特徴点P2〜P8についても、上述と同様の処理を実行する。そして、すべての特徴点P1〜P8についての相関値Rを算出すると、相関値Rの算出が完了したことをオプティカルフロー規定部34へ通知する。   When the correlation value calculation unit 33 calculates the correlation value R based on the above equation (5), the correlation value R is stored in the storage unit 31 in association with the position coordinates in the xy coordinate system of the template TF1. . The correlation value calculation unit 33 executes the same process as described above for the feature points P2 to P8 of the image PH1. When the correlation values R for all the feature points P1 to P8 are calculated, the optical flow defining unit 34 is notified that the calculation of the correlation values R is complete.

図1に戻り、オプティカルフロー規定部34は、相関値演算部33によって算出された相関値Rに基づいて、画像PH1の特徴点を始点とし、画像PH2の特徴点を終点とするオプティカルフローを規定する。   Returning to FIG. 1, based on the correlation value R calculated by the correlation value calculation unit 33, the optical flow defining unit 34 defines an optical flow having the feature point of the image PH1 as the start point and the feature point of the image PH2 as the end point. To do.

例えば、オプティカルフロー規定部34は、テンプレートTF1を用いて算出した相関値Rが最大となったときの、テンプレートTF1の座標に最も近い画像PH2の特徴点を特定する。特徴点P1は、車両101の後部バンパーの右側端部に対応する特徴点である。このため、テンプレートTF1を用いて算出した相関値Rは、テンプレートTF1の中心が、画像PH2の特徴点Q1にほぼ一致するときに最大となる。したがって、ここでは、特徴点P1に対応する特徴点として、特徴点Q1が特定される。   For example, the optical flow defining unit 34 specifies the feature point of the image PH2 closest to the coordinates of the template TF1 when the correlation value R calculated using the template TF1 is maximized. The feature point P <b> 1 is a feature point corresponding to the right end portion of the rear bumper of the vehicle 101. For this reason, the correlation value R calculated using the template TF1 is maximized when the center of the template TF1 substantially matches the feature point Q1 of the image PH2. Therefore, here, the feature point Q1 is specified as the feature point corresponding to the feature point P1.

図6に示されるように、オプティカルフロー規定部34は、xy座標系において、特徴点P1を始点とし、特徴点Q1を終点とするオプティカルフローOP1を規定する。   As shown in FIG. 6, the optical flow defining unit 34 defines an optical flow OP1 having a feature point P1 as a start point and a feature point Q1 as an end point in an xy coordinate system.

オプティカルフロー規定部34は、上述した手順で同様に、特徴点P2を始点とし、特徴点Q2を終点とするオプティカルフローOP2を規定する。また、特徴点P3を始点とし、特徴点Q3を終点とするオプティカルフローOP3を規定する。また、特徴点P4を始点とし、特徴点Q4を終点とするオプティカルフローOP4を規定する。   In the same manner as described above, the optical flow defining unit 34 defines the optical flow OP2 having the feature point P2 as the start point and the feature point Q2 as the end point. Further, an optical flow OP3 having a feature point P3 as a start point and a feature point Q3 as an end point is defined. Further, an optical flow OP4 having a feature point P4 as a start point and a feature point Q4 as an end point is defined.

なお、撮影装置20による撮影が順次行われたときに、車両100の前方に停止していた車両が発進していない場合には、画像PH1の特徴点の座標と、この特徴点に対応する画像PH2の特徴点の座標とが一致する。そして、この両特徴点によって規定されるオプティカルフローの大きさが零となる。この場合には、オプティカルフロー規定部34は、オプティカルフローを規定しないものとする。したがって、車両101のみが走行している場合には、図6に示されるように、車両100についてのオプティカルフローOP1〜OP4のみが規定され、特徴点P5〜P8,Q5〜Q8に関するオプティカルフローは規定されないことになる。   Note that if the vehicle stopped in front of the vehicle 100 has not started when the photographing by the photographing device 20 is sequentially performed, the coordinates of the feature point of the image PH1 and the image corresponding to the feature point are displayed. The coordinates of the feature points of PH2 coincide. Then, the size of the optical flow defined by these both feature points becomes zero. In this case, the optical flow defining unit 34 does not define an optical flow. Therefore, when only the vehicle 101 is traveling, as shown in FIG. 6, only the optical flows OP1 to OP4 for the vehicle 100 are defined, and the optical flows for the characteristic points P5 to P8 and Q5 to Q8 are defined. Will not be.

オプティカルフロー規定部34は、オプティカルフローOP1〜OP4を規定すると、このオプティカルフローOP1〜OP4に関する情報を記憶部31へ出力するとともに、オプティカルフローの規定が完了したことをグルーピング処理部35へ通知する。   When the optical flow defining unit 34 defines the optical flows OP1 to OP4, the optical flow defining unit 34 outputs information on the optical flows OP1 to OP4 to the storage unit 31 and notifies the grouping processing unit 35 that the definition of the optical flow has been completed.

グルーピング処理部35は、規定された1群のオプティカルフローのグルーピングを行う。図6に示されるように、本実施形態では説明の便宜上、車両101に関するオプティカルフローが4本である場合について説明している。しかしながら、実際は、車両101を撮影した画像からは、数十或いは数百の特徴点を抽出することができる。そして、数十或いは数百本のオプティカルフローを規定することができる。   The grouping processing unit 35 performs grouping of a specified group of optical flows. As shown in FIG. 6, in the present embodiment, a case where there are four optical flows related to the vehicle 101 is described for convenience of explanation. However, in practice, tens or hundreds of feature points can be extracted from an image obtained by photographing the vehicle 101. Dozens or hundreds of optical flows can be defined.

グルーピング処理部35は、数十或いは数百本のオプティカルフローのうちから、ノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、車両101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線それぞれは消失点VPで交わるはずである。そこで、グルーピング処理部35は、オプティカルフローと一致する直線が、消失点VPから著しく離れている場合に、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。なお、グルーピングに関しては、例えば特開2008−97126号公報に詳細に開示されている。また、ここでは車両101に関するオプティカルフローOP1〜OP4が、車両101のオプティカルフローとしてグルーピングされたものとする。   The grouping processing unit 35 excludes optical flows including many noise components from tens or hundreds of optical flows, and groups the remaining optical flows. For example, when the vehicle 101 is in a complete linear motion, each straight line that matches each optical flow should intersect at the vanishing point VP. Therefore, the grouping processing unit 35 excludes the optical flow when the straight line that matches the optical flow is significantly away from the vanishing point VP, and regards the remaining optical flow as the optical flow related to the same mobile object. Group. The grouping is disclosed in detail in, for example, Japanese Patent Application Laid-Open No. 2008-97126. Here, it is assumed that the optical flows OP <b> 1 to OP <b> 4 related to the vehicle 101 are grouped as the optical flows of the vehicle 101.

グルーピング処理部35は、オプティカルフローのグルーピングが完了すると、グルーピングしたオプティカルフローに関する情報を記憶部31へ出力するとともに、グルーピングが完了したことを、第1演算部36へ通知する。   When the grouping of the optical flows is completed, the grouping processing unit 35 outputs information on the grouped optical flows to the storage unit 31 and notifies the first calculation unit 36 that the grouping is completed.

第1演算部36は、グルーピングされたオプティカルフローからなるグループごとに、オプティカルフローを含むグルーピング領域の面積を算出する。   The first calculation unit 36 calculates the area of the grouping region including the optical flow for each group including the grouped optical flows.

例えば、第1演算部36は、図7に示されるように、グルーピングされたオプティカルフローOP1〜OP4を含む矩形状のグルーピング領域AR1を規定する。そして、このグルーピング領域AR1の面積S1を算出する。グルーピング領域AR1の面積S1が最小となるときには、いくつかのオプティカルフローの始点がグルーピング領域AR1の外縁に位置する。   For example, as shown in FIG. 7, the first arithmetic unit 36 defines a rectangular grouping area AR1 including the grouped optical flows OP1 to OP4. Then, the area S1 of the grouping area AR1 is calculated. When the area S1 of the grouping area AR1 is minimized, the start points of some optical flows are located at the outer edge of the grouping area AR1.

第1演算部36は、グルーピング領域AR1の面積S1を算出すると、この演算結果を記憶部31へ出力するとともに、演算が完了したことを第2演算部37へ通知する。   When calculating the area S1 of the grouping area AR1, the first calculation unit 36 outputs the calculation result to the storage unit 31 and notifies the second calculation unit 37 that the calculation is completed.

第2演算部37は、図4及び図5を参照するとわかるように、検出領域DAに、原点Xcと中心が一致する矩形状の静止物体検出領域SAを規定する。そして、この静止物体検出領域SA内にあり、オプティカルフローを規定しない(オプティカルフローの始点及び終点とならない)特徴点を含む矩形状の静止物体検出領域SAの面積を算出する。   As can be seen with reference to FIGS. 4 and 5, the second calculation unit 37 defines a rectangular stationary object detection area SA whose center coincides with the origin Xc in the detection area DA. Then, the area of the rectangular stationary object detection area SA including the feature points that are in the stationary object detection area SA and do not define the optical flow (not the start point and end point of the optical flow) is calculated.

検出領域DAは、X軸方向の長さが、車両100の例えば3m前方の位置における、自車(車両100)の幅の両側に余裕幅(例えば2m)を加えた長さであり、Y軸方向の長さが、車両100の例えば3m前方の位置における、自車の高さに余裕高さ(例えば1.5m)を加えた長さである領域に相当する。この場合、検出領域DAは、画像PH1,PH2から、検出対象(車両101等)が明らかに存在しない領域が排除された領域である。   In the detection area DA, the length in the X-axis direction is a length obtained by adding a margin width (for example, 2 m) to both sides of the width of the own vehicle (the vehicle 100) at a position 3 meters ahead of the vehicle 100, for example. The length in the direction corresponds to a region where the height of the host vehicle is added to the height of the host vehicle (for example, 1.5 m) at a position, for example, 3 m ahead of the vehicle 100. In this case, the detection area DA is an area in which an area where the detection target (vehicle 101 or the like) does not clearly exist is excluded from the images PH1 and PH2.

この静止物体検出領域SAは、x軸方向の長さが、車両100の例えば3m前方の位置における、車両100の幅の両側に余裕幅(例えば1m)を加えた長さで、y軸方向の長さが、車両100の例えば3m前方の位置における、車両100の高さに余裕高さ(例えば50cm)を加えた長さの矩形領域に対応した領域である。この静止物体検出領域SAは、車両100が走行するレーンの前方に存在する車両のみが写り込む領域であることが好ましい。   This stationary object detection area SA has a length in the x-axis direction, which is a length obtained by adding a margin width (for example, 1 m) to both sides of the width of the vehicle 100 at a position 3 m ahead of the vehicle 100, for example. The length is an area corresponding to a rectangular area having a length obtained by adding an extra height (for example, 50 cm) to the height of the vehicle 100 at a position, for example, 3 m ahead of the vehicle 100. The stationary object detection area SA is preferably an area in which only the vehicle existing in front of the lane on which the vehicle 100 travels is reflected.

次に、第2演算部37は、図8を参照するとわかるように、画像PH2に規定された静止物体検出領域SAにある特徴点のうちから、オプティカルフローOP1〜OP4を規定しない特徴点Q5,Q7を抽出する。次に、第2演算部37は、抽出された特徴点Q5,Q7を含む、矩形状の静止特徴点存在領域AR2を規定する。そして、この静止特徴点存在領域AR2の面積S2を算出する。静止特徴点存在領域AR2の面積が最小となるときには、いくつかの特徴点が静止特徴点存在領域AR2の外縁に位置する。   Next, as can be seen with reference to FIG. 8, the second computing unit 37 does not define the optical flows OP1 to OP4 among the feature points in the stationary object detection area SA defined in the image PH2. Q7 is extracted. Next, the second calculation unit 37 defines a rectangular stationary feature point existence area AR2 including the extracted feature points Q5 and Q7. Then, the area S2 of the stationary feature point existence area AR2 is calculated. When the area of the stationary feature point existence area AR2 is minimized, some feature points are located on the outer edge of the stationary feature point existence area AR2.

第2演算部37は、静止特徴点存在領域AR2の面積S2を算出すると、この演算結果を記憶部31へ出力するとともに、演算が完了したことを報知部38へ通知する。   When calculating the area S2 of the stationary feature point existence area AR2, the second calculation unit 37 outputs the calculation result to the storage unit 31 and notifies the notification unit 38 that the calculation is completed.

報知部38は、記憶部31に記憶されたグルーピング領域AR1の面積S1と第1の閾値とを比較するとともに、静止特徴点存在領域AR2の面積S2と第2の閾値とを比較する。そして、グルーピング領域AR1の面積S1が閾値以上であり、静止特徴点存在領域AR2の面積S2が閾値以下の場合に、車両100のドライバーにオプティカルフローOP1〜OP4によって移動方向が示される車両101の発進を報知する。   The notification unit 38 compares the area S1 of the grouping area AR1 stored in the storage unit 31 with the first threshold value, and compares the area S2 of the stationary feature point existence area AR2 with the second threshold value. Then, when the area S1 of the grouping area AR1 is equal to or larger than the threshold value and the area S2 of the stationary feature point existence area AR2 is equal to or smaller than the threshold value, the vehicle 101 is started in which the moving direction is indicated to the driver of the vehicle 100 by the optical flows OP1 to OP4. Is notified.

以上説明したように、本実施形態では、グルーピングされたオプティカルフローを含むグルーピング領域AR1の面積S1が、閾値以上である場合に、ドライバーに当該グルーピング領域AR1のオプティカルフローによって移動方向が示される車両101の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。以下、具体的に説明する。   As described above, in the present embodiment, when the area S1 of the grouping area AR1 including the grouped optical flows is equal to or larger than the threshold value, the vehicle 101 whose direction of movement is indicated to the driver by the optical flow of the grouping area AR1. The start of is notified. Thereby, it is possible to accurately notify the driver who drives the vehicle 100 of the start of the vehicle that has stopped forward at an appropriate timing. This will be specifically described below.

例えば、図3に示されるように、車両100の走行経路からずれた位置に停止し、撮影装置20の視野の端に位置する車両102が発進した場合を考える。この場合、図9に示されるように、画像PH1の特徴点P5〜P8を始点とし、画像PH2の特徴点Q5〜Q8を終点とするオプティカルフローOP5〜OP8が規定される。これらのオプティカルフローOP5〜OP8は、画像PH2の左端に規定される。   For example, as shown in FIG. 3, consider a case where the vehicle 102 that stops at a position deviated from the travel route of the vehicle 100 and starts at the end of the field of view of the photographing apparatus 20 starts. In this case, as shown in FIG. 9, optical flows OP5 to OP8 starting from the characteristic points P5 to P8 of the image PH1 and ending with the characteristic points Q5 to Q8 of the image PH2 are defined. These optical flows OP5 to OP8 are defined at the left end of the image PH2.

車両100の走行経路からずれた車両や、車両100から比較的遠い位置に停止している車両の発進に起因するオプティカルフローが現れるグルーピング領域の面積は、車両100の直近前方に停止している車両101の発進に起因するオプティカルフローOP1〜OP4が現れるグルーピング領域の面積に比較して小さい。   The area of the grouping region in which an optical flow resulting from the start of a vehicle deviating from the travel route of the vehicle 100 or a vehicle that is stopped at a position relatively far from the vehicle 100 appears is a vehicle that is stopped immediately in front of the vehicle 100. The area is smaller than the area of the grouping region in which the optical flows OP1 to OP4 resulting from the start of 101 appear.

具体的には、図8及び図9を参照するとわかるように、車両102の発進に起因するオプティカルフローが現れるグルーピング領域AR3(図9参照)の面積は、車両101の発進に起因するオプティカルフローが現れるグルーピング領域AR1(図8参照)の面積よりも小さい。このため、オプティカルフローを含むグルーピング領域の面積が、所定の閾値以上の場合に、車両100のドライバーに前方車両の発進を報知することとすることで、直近前方に車両が停止しているにも関わらず、誤って発進が報知されることを回避することができる。したがって、車両100のドライバーに、適切なタイミングで、前方車両の発進を報知することが可能となる。   Specifically, as can be seen with reference to FIGS. 8 and 9, the area of the grouping area AR <b> 3 (see FIG. 9) where the optical flow due to the start of the vehicle 102 appears is the optical flow due to the start of the vehicle 101. The area of the appearing grouping area AR1 (see FIG. 8) is smaller. For this reason, when the area of the grouping region including the optical flow is equal to or greater than a predetermined threshold, the vehicle is stopped immediately in front by notifying the driver of the vehicle 100 of the start of the preceding vehicle. Regardless, it is possible to prevent the start from being notified by mistake. Therefore, it is possible to notify the driver of the vehicle 100 of the start of the preceding vehicle at an appropriate timing.

また、本実施形態では、オプティカルフローの規定に関与しない特徴点を含む静止特徴点存在領域AR2の面積S2が、閾値以下である場合に、ドライバーにオプティカルフローによって移動方向が示される車両の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。以下、具体的に説明する。   Further, in the present embodiment, when the area S2 of the stationary feature point existence area AR2 including the feature points that are not involved in the definition of the optical flow is equal to or less than the threshold value, the vehicle is started in which the moving direction is indicated by the optical flow to the driver. Informed. Thereby, it is possible to accurately notify the driver who drives the vehicle 100 of the start of the vehicle that has stopped forward at an appropriate timing. This will be specifically described below.

例えば、図3の矢印a1に示される位置にある車両101が発進しない場合を考える。この場合、画像PH1の特徴点P1〜P4を始点とし、画像PH2の特徴点Q1〜Q4を終点とするオプティカルフローは規定されない。そして、画像PH2の特徴点Q1〜Q8のうち、車両101に関連する特徴点Q1〜Q4は、オプティカルフローを規定しない静止特徴点Q1〜Q4となる。車両101が車両100の直近前方に停止している場合には、車両101に起因する静止特徴点Q1〜Q4を含む静止特徴点存在領域AR4は、図9に示されるように、画像PH2に占める割合がある程度大きくなる。   For example, consider a case where the vehicle 101 at the position indicated by the arrow a1 in FIG. 3 does not start. In this case, an optical flow having the feature points P1 to P4 of the image PH1 as the start points and the feature points Q1 to Q4 of the image PH2 as the end points is not defined. Of the feature points Q1 to Q8 of the image PH2, the feature points Q1 to Q4 related to the vehicle 101 are stationary feature points Q1 to Q4 that do not define an optical flow. When the vehicle 101 is stopped immediately in front of the vehicle 100, the stationary feature point existence area AR4 including the stationary feature points Q1 to Q4 caused by the vehicle 101 occupies the image PH2, as shown in FIG. The proportion increases to some extent.

本実施形態では、直近前方に位置する車両に起因する静止特徴点を含む静止特徴点存在領域の面積が、所定の閾値以下の場合に、車両100のドライバーに前方車両の発進を報知する。そして、静止特徴点存在領域の面積が、所定の閾値以上の場合に、前方車両の発進の報知を抑制する。これにより、直近前方に車両が停止しているにもかかわらず、誤って発進が報知されることを回避することができる。したがって、車両100のドライバーに、適切なタイミングで、前方車両の発進を報知することが可能となる。   In the present embodiment, when the area of the stationary feature point existence area including the stationary feature point caused by the vehicle positioned immediately in front is equal to or smaller than a predetermined threshold, the driver of the vehicle 100 is notified of the start of the preceding vehicle. Then, when the area of the stationary feature point existence region is equal to or larger than a predetermined threshold, notification of the start of the preceding vehicle is suppressed. Thereby, it can be avoided that the start is inadvertently notified even though the vehicle is stopped immediately in front. Therefore, it is possible to notify the driver of the vehicle 100 of the start of the preceding vehicle at an appropriate timing.

また、本実施形態では、特徴点を抽出するための処理、及びオプティカルフローを規定するための処理を、画像PH1,PH2に規定された検出領域DAについて行う。このため、発進の報知を行うために必要な処理を画像全体に実行する必要がなく、処理の時間を短縮することができる。   In the present embodiment, the process for extracting the feature points and the process for defining the optical flow are performed on the detection area DA defined in the images PH1 and PH2. For this reason, it is not necessary to execute the process necessary for notifying the start of the entire image, and the processing time can be shortened.

また、静止物体検出領域SAは、上記検出領域DAに規定される。本実施形態では、この静止物体検出領域SAは、x軸方向の長さが、車両100の幅の両側に余裕幅(例えば1m)を加えた長さで、y軸方向の長さが、車両100の高さに余裕高さ(例えば50cm)を加えた長さの矩形領域に対応した画像上の領域であるものとした。これに限らず、X軸方向の長さを、車両100の例えば3m前方の位置における、車両100が走行するレーン幅に相当する長さとしてもよい。ここで、レーン幅とは、予め定められた設計上の幅でもよいし、画像から検出した白線に基づいて算出された幅であってもよい。   The stationary object detection area SA is defined by the detection area DA. In the present embodiment, the stationary object detection area SA has a length in the x-axis direction that is a length obtained by adding a margin width (for example, 1 m) on both sides of the width of the vehicle 100 and a length in the y-axis direction. The region on the image corresponds to a rectangular region having a length obtained by adding a marginal height (for example, 50 cm) to the height of 100. Not limited to this, the length in the X-axis direction may be a length corresponding to the lane width in which the vehicle 100 travels, for example, at a position 3 m ahead of the vehicle 100. Here, the lane width may be a predetermined design width, or may be a width calculated based on a white line detected from an image.

《第2の実施形態》
次に、本発明の第2の実施形態を、図面を参照しつつ説明する。なお、上記各実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described with reference to the drawings. In addition, about the structure same or equivalent to said each embodiment, while using an equivalent code | symbol, the description is abbreviate | omitted or simplified.

本実施形態に係る発進報知システム10は、発進報知装置30が、一般的なコンピュータ、又はマイクロコンピュータなどの装置と同様の構成によって実現されている点で、上記実施形態に係る発進報知システム10と相違している。   The start notification system 10 according to this embodiment differs from the start notification system 10 according to the above embodiment in that the start notification device 30 is realized by the same configuration as a general computer or a device such as a microcomputer. It is different.

図10は、発進報知システム10の物理的な構成を示すブロック図である。図10に示されるように、発進報知システム10は、撮影装置20と、コンピュータからなる発進報知装置30とから構成されている。   FIG. 10 is a block diagram showing a physical configuration of the start notification system 10. As shown in FIG. 10, the start notification system 10 includes a photographing device 20 and a start notification device 30 including a computer.

発進報知装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを含んで構成されている。   The start notification device 30 includes a central processing unit (CPU) 30a, a main storage unit 30b, an auxiliary storage unit 30c, a display unit 30d, an input unit 30e, an interface unit 30f, and a system bus 30g that interconnects the above units. It is configured.

CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮影装置20によって取得された画像PH1,PH2に対して後述する処理を実行する。   CPU30a performs the process mentioned later with respect to the images PH1 and PH2 acquired by the imaging device 20 according to the program memorize | stored in the auxiliary storage part 30c.

主記憶部30bは、RAM(Random Access Memory)等を含んで構成され、CPU30aの作業領域として用いられる。   The main storage unit 30b includes a RAM (Random Access Memory) and the like, and is used as a work area for the CPU 30a.

補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを含んで構成されている。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、撮影装置20から出力される画像に関する情報、及びCPU30aによる処理結果などを含む情報を順次記憶する。   The auxiliary storage unit 30c includes a nonvolatile memory such as a ROM (Read Only Memory), a magnetic disk, and a semiconductor memory. The auxiliary storage unit 30c stores programs executed by the CPU 30a, various parameters, and the like. In addition, information about an image output from the photographing apparatus 20 and information including a processing result by the CPU 30a are sequentially stored.

表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成され、CPU30aの処理結果を表示する。   The display unit 30d includes a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and displays the processing result of the CPU 30a.

入力部30eは、キースイッチやポインティングデバイスを含んで構成されている。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。   The input unit 30e includes a key switch and a pointing device. The operator's instruction is input via the input unit 30e and notified to the CPU 30a via the system bus 30g.

インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を含んで構成されている。撮影装置20は、インターフェイス部30fを介してシステムバス30gに接続される。   The interface unit 30f includes a serial interface or a LAN (Local Area Network) interface. The imaging device 20 is connected to the system bus 30g via the interface unit 30f.

図11及び図12のフローチャートは、CPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図11及び図12を参照しつつ、発進報知装置30が実行する処理について説明する。なお、この処理は、発進報知システム10が起動され、撮影装置20によって撮影された画像に関する情報が出力されたことをトリガとして実行される。また、前提として、撮影装置20からは、図4に示される画像PH1、及び図5に示される画像PH2が順次出力されるものとする。   The flowcharts of FIGS. 11 and 12 correspond to a series of processing algorithms of a program executed by the CPU 30a. Hereinafter, the process which the start alerting | reporting apparatus 30 performs is demonstrated, referring FIG.11 and FIG.12. This process is executed when the start notification system 10 is activated and information related to an image captured by the imaging device 20 is output. As a premise, it is assumed that the image capturing device 20 sequentially outputs an image PH1 shown in FIG. 4 and an image PH2 shown in FIG.

まず、最初のステップS101では、CPU30aは、CPU30aの起動直後の初期化処理として、不図示のタイマ、フラグ、パラメータ、変数等の初期化を行う。これにより、タイマが初期化され、初期化された時刻からの経過時間の計測が開始される。   First, in the first step S101, the CPU 30a initializes timers, flags, parameters, variables, and the like (not shown) as initialization processing immediately after the activation of the CPU 30a. As a result, the timer is initialized and measurement of the elapsed time from the initialized time is started.

次のステップS102では、CPU30aは、車両100の速度計からの出力に基づいて、車両100が停止しているか否かを判断する。車両100の速度が閾値以上である場合には、CPU30aは車両が走行していると判断し(ステップS102:No)、ステップS112に移行する。   In the next step S102, the CPU 30a determines whether or not the vehicle 100 is stopped based on the output from the speedometer of the vehicle 100. When the speed of the vehicle 100 is equal to or higher than the threshold value, the CPU 30a determines that the vehicle is traveling (step S102: No), and proceeds to step S112.

ステップS112では、CPU30aは、ステップS101と同様に、タイマ、フラグ、パラメータ、変数等の初期化を行う。これにより、タイマが初期化され、初期化された時刻からの経過時間の計測が開始される。CPU30aは、ステップS112での処理を終えると、ステップS102へ戻り、以降ステップS102での判断が肯定されるまで、ステップS102及びステップS112での処理を繰り返し実行する。   In step S112, the CPU 30a initializes timers, flags, parameters, variables, and the like as in step S101. As a result, the timer is initialized and measurement of the elapsed time from the initialized time is started. After completing the process in step S112, the CPU 30a returns to step S102, and thereafter repeatedly executes the processes in step S102 and step S112 until the determination in step S102 is affirmed.

一方、ステップS102において、車両100の速度が閾値以下である場合には、CPU30aは、車両100が停止していると判断し(ステップS102:Yes)、次のステップS103へ移行する。   On the other hand, when the speed of the vehicle 100 is equal to or less than the threshold value in step S102, the CPU 30a determines that the vehicle 100 is stopped (step S102: Yes), and proceeds to the next step S103.

ステップS103では、CPU30aは、補助記憶部30cに記憶された最新の画像PH2に関する情報と、この画像PH2の1フレーム前に撮影された画像PH1に関する情報を取得する。   In step S103, the CPU 30a obtains information related to the latest image PH2 stored in the auxiliary storage unit 30c and information related to the image PH1 captured one frame before the image PH2.

次のステップS104では、CPU30aは、検出領域DAを規定する。この検出領域DAは、例えば予め補助記憶部30cに記憶された自車の横幅、高さ、撮影装置20の焦点距離、画角(視野角)等の情報に基づいて規定される。   In the next step S104, the CPU 30a defines the detection area DA. This detection area DA is defined based on, for example, information such as the lateral width and height of the host vehicle, the focal length of the photographing apparatus 20, and the angle of view (viewing angle) stored in advance in the auxiliary storage unit 30c.

次のステップS105では、CPU30aは、画像PH1に規定された検出領域DAと、画像PH2に規定された検出領域DAとから特徴点を抽出する。例えば、CPU30aは、画像PH1,PH2の検出領域DA内の画素それぞれについての特徴量を算出し、この特徴量に基づいて、画像PH1,PH2に規定された検出領域DA内に含まれる特徴点を抽出する。例えば、図4に示されるように、ここでは画像PH1について、車両101に関する特徴点P1,P2,P3,P4と、車両102に関する特徴点P5,P6,P7,P8が抽出される。また、図5に示されるように、画像PH2について、車両101に関する特徴点Q1,Q2,Q3,Q4と、車両102に関する特徴点Q5,Q6,Q7,Q8が抽出される。   In the next step S105, the CPU 30a extracts feature points from the detection area DA defined in the image PH1 and the detection area DA defined in the image PH2. For example, the CPU 30a calculates a feature amount for each pixel in the detection area DA of the images PH1 and PH2, and based on the feature amount, calculates a feature point included in the detection area DA defined in the images PH1 and PH2. Extract. For example, as shown in FIG. 4, feature points P1, P2, P3, and P4 related to the vehicle 101 and feature points P5, P6, P7, and P8 related to the vehicle 102 are extracted from the image PH1. Further, as shown in FIG. 5, feature points Q1, Q2, Q3, and Q4 related to the vehicle 101 and feature points Q5, Q6, Q7, and Q8 related to the vehicle 102 are extracted from the image PH2.

次のステップS106では、CPU30aは、画像PH1の特徴点P1〜P8を順次選択する。そして、この選択した特徴点と、画像PH2の特徴点Q1〜Q8との相関値を算出する。具体的には、CPU30aは、まず画像PH1の特徴点P1を中心とするテンプレートTF1を、画像PH2の特徴点Q1〜Q8の近傍で移動させながら、画像PH2に対するテンプレートTF1の相関値Rを順次算出する。CPU30aは、上述の処理を、特徴点P2〜P8についても行う。   In the next step S106, the CPU 30a sequentially selects feature points P1 to P8 of the image PH1. Then, a correlation value between the selected feature point and the feature points Q1 to Q8 of the image PH2 is calculated. Specifically, first, the CPU 30a sequentially calculates the correlation value R of the template TF1 with respect to the image PH2 while moving the template TF1 centered on the feature point P1 of the image PH1 in the vicinity of the feature points Q1 to Q8 of the image PH2. To do. CPU30a performs the above-mentioned process also about the feature points P2-P8.

次のステップS107では、CPU30aは、図6を参照するとわかるように、算出した相関値Rに基づいて、画像PH1の特徴点を始点とし、画像PH2の特徴点を終点とするオプティカルフローOP1〜OP4を規定する。なお、ここでは、画像PH1の特徴点と、当該特徴点に対応する画像PH2の特徴点の座標が一致していると判断できる場合には、オプティカルフローは規定されないものとする。   In the next step S107, as can be seen with reference to FIG. 6, based on the calculated correlation value R, the CPU 30a has optical flows OP1 to OP4 with the feature point of the image PH1 as the start point and the feature point of the image PH2 as the end point. Is specified. Here, it is assumed that the optical flow is not defined when it can be determined that the feature point of the image PH1 and the coordinate of the feature point of the image PH2 corresponding to the feature point match.

次のステップS108では、CPU30aは、規定された1群のオプティカルフローのグルーピングを行う。図6に示されるように、本実施形態では説明の便宜上、車両101に関するオプティカルフローが4本である場合について説明している。しかしながら、実際は、車両101を撮影した画像からは、数十或いは数百の特徴点を抽出することができる。そして、数十或いは数百本のオプティカルフローを規定することができる。そこで、CPU30aは、数十或いは数百本のオプティカルフローのうちから、ノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。これにより、車両101に関連する特徴点によって規定されるオプティカルフローOP1〜OP4がグルーピングされる。   In the next step S108, the CPU 30a performs grouping of a specified group of optical flows. As shown in FIG. 6, in the present embodiment, a case where there are four optical flows related to the vehicle 101 is described for convenience of explanation. However, in practice, tens or hundreds of feature points can be extracted from an image obtained by photographing the vehicle 101. Dozens or hundreds of optical flows can be defined. Therefore, the CPU 30a excludes optical flows including a lot of noise components from tens or hundreds of optical flows, and groups the remaining optical flows. Thereby, the optical flows OP1 to OP4 defined by the feature points related to the vehicle 101 are grouped.

次のステップS109では、CPU30aは、車両100の前方に停止している車両の発進を検出するために、図12に示されるサブルーチン200を実行する。   In the next step S109, the CPU 30a executes a subroutine 200 shown in FIG. 12 in order to detect the start of the vehicle stopped in front of the vehicle 100.

サブルーチン200の最初のステップS201では、CPU30aは、グルーピングされたオプティカルフローからなるグループごとに、オプティカルフローを含むグルーピング領域の面積を算出する。例えば、CPU30aは、図7に示されるように、グルーピングされたオプティカルフローOP1〜OP4を含む矩形状のグルーピング領域AR1を規定する。そして、このグルーピング領域AR1の面積S1を算出する。   In the first step S201 of the subroutine 200, the CPU 30a calculates the area of the grouping region including the optical flow for each group including the grouped optical flows. For example, as illustrated in FIG. 7, the CPU 30a defines a rectangular grouping area AR1 including the grouped optical flows OP1 to OP4. Then, the area S1 of the grouping area AR1 is calculated.

次のステップS202では、CPU30aは、図4及び図5に示されるように、検出領域DAに、検出領域DAと中心が一致する矩形状の静止物体検出領域SAを規定する。そして、この静止物体検出領域SA内にあり、オプティカルフローを規定しない(オプティカルフローの始点及び終点とならない)静止特徴点を含む矩形状の静止特徴点存在領域の面積を算出する。具体的には、図8を参照するとわかるように、画像PH2に規定された静止物体検出領域SAにある特徴点のうちから、オプティカルフローOP1〜OP4を規定しない特徴点Q5,Q7を抽出する。次に、CPU30aは、抽出された特徴点Q5,Q7を含む静止特徴点存在領域AR2を規定し、この静止特徴点存在領域AR2の面積S2を算出する。   In the next step S202, as shown in FIGS. 4 and 5, the CPU 30a defines a rectangular stationary object detection area SA whose center coincides with the detection area DA in the detection area DA. Then, an area of a rectangular stationary feature point existing area that includes a stationary feature point that is in the stationary object detection area SA and that does not define an optical flow (not a starting point and an ending point of the optical flow) is calculated. Specifically, as can be seen with reference to FIG. 8, feature points Q5 and Q7 that do not define the optical flows OP1 to OP4 are extracted from the feature points in the stationary object detection area SA defined in the image PH2. Next, the CPU 30a defines a stationary feature point existence area AR2 including the extracted feature points Q5 and Q7, and calculates an area S2 of the stationary feature point existence area AR2.

次のステップS203では、CPU30aは、グルーピング領域AR1の面積S1が、閾値以上である否かを判断する。面積S1が閾値以上である場合には(ステップS203:Yes)、CPU30aは、次のステップS204へ移行する。   In the next step S203, the CPU 30a determines whether or not the area S1 of the grouping area AR1 is equal to or greater than a threshold value. When the area S1 is equal to or greater than the threshold (step S203: Yes), the CPU 30a proceeds to the next step S204.

次のステップS204では、CPU30aは、静止特徴点存在領域AR2の面積S2が、閾値以下である否かを判断する。面積S2が閾値以下である場合には(ステップS204:Yes)、CPU30aは、次のステップS205へ移行する。   In the next step S204, the CPU 30a determines whether or not the area S2 of the stationary feature point existence area AR2 is equal to or less than a threshold value. When the area S2 is equal to or smaller than the threshold (step S204: Yes), the CPU 30a proceeds to the next step S205.

次のステップS205では、CPU30aは、タイマによって計測されている経過時間が、予め設定された時間(設定時間)を超えているか否かを判断する。経過時間が設定時間を超えている場合は、CPU30aは、次のステップS206へ移行して、発進フラグをオンにする。そして、サブルーチン200を終了して、次のステップS110へ移行する。   In the next step S205, the CPU 30a determines whether or not the elapsed time measured by the timer exceeds a preset time (set time). If the elapsed time exceeds the set time, the CPU 30a proceeds to the next step S206 and turns on the start flag. Then, the subroutine 200 is terminated and the process proceeds to the next step S110.

一方、上述のステップS203での判断が否定された場合(ステップS203:No)、又はステップ204での判断が否定された場合(ステップS204:No)には、CPU30aは、ステップS207へ移行し、タイマを初期化する。そして、CPU30aは、ステップS208へ移行して発進フラグをオフにした後、サブルーチン200を終了して、次のステップS110へ移行する。   On the other hand, if the determination in step S203 described above is negative (step S203: No), or if the determination in step 204 is negative (step S204: No), the CPU 30a proceeds to step S207, Initialize the timer. Then, the CPU 30a proceeds to step S208 to turn off the start flag, then ends the subroutine 200 and proceeds to the next step S110.

また、上述のステップS205での判断が否定された場合(ステップS205:No)には、CPU30aは、ステップS208へ移行して発進フラグをオフにした後、サブルーチン200を終了して、次のステップS110へ移行する。   If the determination in step S205 is negative (step S205: No), the CPU 30a proceeds to step S208 to turn off the start flag, and then ends the subroutine 200 to execute the next step. The process proceeds to S110.

次のステップS110では、CPU30aは、自車の前方に停止した車両101が発進したか否かを判断する。具体的には、CPU30aは、発進フラグがオフの場合には、前方の車両101が発進していないと判断し(ステップS110:No)、ステップS102へ戻る。以降、CPU30aは、ステップS110での判断が肯定されるまで、ステップS102からステップS110までの処理を繰り返し実行する。   In the next step S110, the CPU 30a determines whether or not the vehicle 101 stopped in front of the host vehicle has started. Specifically, when the start flag is off, the CPU 30a determines that the preceding vehicle 101 has not started (step S110: No), and returns to step S102. Thereafter, the CPU 30a repeatedly executes the processing from step S102 to step S110 until the determination in step S110 is affirmed.

一方、発進フラグがオンの場合には、CPU30aは、前方の車両101が発進したと判断し、次のステップS111へ移行する。   On the other hand, when the start flag is on, the CPU 30a determines that the preceding vehicle 101 has started, and proceeds to the next step S111.

次のステップS111では、CPU30aは、外部に前方車両の発進を報知する。ステップS11での発進の報知は、例えば、スピーカなどの外部機器等へ、前方車両の発進を示す信号を出力することなどが考えられる。   In the next step S111, the CPU 30a notifies the start of the preceding vehicle to the outside. The notification of the start in step S11 may be, for example, outputting a signal indicating the start of the preceding vehicle to an external device such as a speaker.

CPU30aは、ステップS111での処理を実行すると、ステップS102へ戻り、以降、ステップS102からステップS111までの処理を繰り返し実行する。   When executing the processing in step S111, the CPU 30a returns to step S102, and thereafter repeatedly executes the processing from step S102 to step S111.

以上説明したように、本実施形態では、グルーピングされたオプティカルフローを含むグルーピング領域AR1の面積S1が、閾値以上である場合に、ドライバーに当該オプティカルフローによって移動方向が示される車両101の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。   As described above, in this embodiment, when the area S1 of the grouping area AR1 including the grouped optical flows is equal to or larger than the threshold value, the driver is notified of the start of the vehicle 101 whose movement direction is indicated by the optical flows. Is done. Thereby, it is possible to accurately notify the driver who drives the vehicle 100 of the start of the vehicle that has stopped forward at an appropriate timing.

また、本実施形態では、オプティカルフローの規定に関与しない特徴点を含む静止特徴点存在領域AR2の面積S2が、閾値以下である場合に、ドライバーにオプティカルフローによって移動方向が示される車両の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。   Further, in the present embodiment, when the area S2 of the stationary feature point existence area AR2 including the feature points that are not involved in the definition of the optical flow is equal to or less than the threshold value, the vehicle is started in which the moving direction is indicated by the optical flow to the driver. Informed. Thereby, it is possible to accurately notify the driver who drives the vehicle 100 of the start of the vehicle that has stopped forward at an appropriate timing.

以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not limited by the said embodiment.

例えば、上記実施形態では、式(1)を用いて特徴量f(x、y)を算出したが、本発明はこれに限定されるものではない。例えば、特徴量は、いわゆるKLT特徴量min(λ1、λ2)であってもよい。この場合は、特徴量を上述した平均値AVG(x、y)を2乗したもので除することで比較値Vを算出することができる。なお、λ1及びλ2は、それぞれ下記の式(8)及び式(9)で示される。   For example, in the above embodiment, the feature quantity f (x, y) is calculated using the equation (1), but the present invention is not limited to this. For example, the feature amount may be a so-called KLT feature amount min (λ1, λ2). In this case, the comparison value V can be calculated by dividing the feature amount by the square of the average value AVG (x, y) described above. Note that λ1 and λ2 are represented by the following equations (8) and (9), respectively.

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

なお、A〜Cは下記の式(10)で表される。ただし、Ix、Iyは、画像上の位置(x、y)における輝度I(x、y)のX軸方向及びY軸方向の勾配を示す。具体的には、下記の式(11)及び式(12)で表される。   A to C are represented by the following formula (10). Here, Ix and Iy indicate gradients in the X-axis direction and Y-axis direction of the luminance I (x, y) at the position (x, y) on the image. Specifically, it is represented by the following formula (11) and formula (12).

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

Figure 2012027595
Figure 2012027595

また、上記各実施形態に係る発進報知装置30の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。   Further, the function of the start notification device 30 according to each of the above embodiments can be realized by dedicated hardware or by a normal computer system.

また、第2の実施形態において発進報知装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。   In the second embodiment, the programs stored in the auxiliary storage unit 30c of the start notification device 30 are a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk), an MO (Magneto). A device that executes the above-described processing may be configured by storing and distributing in a computer-readable recording medium such as -Optical disk) and installing the program in the computer.

また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するようにしても良い。   Further, the program may be stored in a disk device or the like included in a predetermined server device on a communication network such as the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。   It should be noted that the present invention can be variously modified and modified without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention.

本発明の発進報知装置、衝突時間算出方法及びプログラムは、前方車両の発進の報知に適している。   The start notification device, the collision time calculation method, and the program according to the present invention are suitable for notification of the start of the preceding vehicle.

10 発進報知システム
20 撮影装置
30 発進報知装置
30a CPU
30b 主記憶部
30c 補助記憶部
30d 表示部
30e 入力部
30f インターフェイス部
30g システムバス
31 記憶部
32 特徴点抽出部
33 相関値演算部
34 オプティカルフロー規定部
35 グルーピング処理部
36 第1演算部
37 第2演算部
38 報知部
100,101,102 車両
AR1 グルーピング領域
AR2 静止特徴点存在領域
AR3 グルーピング領域
AR4 静止特徴点存在領域
DA 検出領域
OP1〜OP8 オプティカルフロー
P1〜P8 特徴点
PH1,PH2 画像
Q1〜Q8 特徴点
S1,S2 面積
SA 静止物体検出領域
TF1 テンプレート
VP 消失点
Xc 原点
DESCRIPTION OF SYMBOLS 10 Start notification system 20 Imaging device 30 Start notification device 30a CPU
30b main storage unit 30c auxiliary storage unit 30d display unit 30e input unit 30f interface unit 30g system bus 31 storage unit 32 feature point extraction unit 33 correlation value calculation unit 34 optical flow definition unit 35 grouping processing unit 36 first calculation unit 37 second Arithmetic unit 38 Informing unit 100, 101, 102 Vehicle AR1 Grouping area AR2 Stationary feature point existence area AR3 Grouping area AR4 Stationary feature point existence area DA detection area OP1-OP8 Optical flow P1-P8 Feature point PH1, PH2 Image Q1-Q8 Feature Point S1, S2 Area SA Stationary object detection area TF1 Template VP Vanishing point Xc Origin

Claims (11)

自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点と、第2画像に含まれる、前記第1特徴点に対応する第2特徴点とを抽出する抽出手段と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定するオプティカルフロー規定手段と、
前記オプティカルフローを、前記移動体ごとにグルーピングするグルーピング処理手段と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する第1演算手段と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する報知手段と、
を備える発進報知装置。
A first feature point included in a first image obtained by photographing a moving body stopped in front of the host vehicle and a second feature point corresponding to the first feature point included in a second image are extracted. Extraction means;
Optical flow defining means for defining an optical flow starting from the first feature point and ending at the second feature point;
Grouping processing means for grouping the optical flow for each moving object;
First computing means for calculating an area of a first region including optical flows grouped as optical flows related to the same moving body;
Informing means for informing the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
A start notification device.
前記第1領域は、矩形である請求項1に記載の発進報知装置。   The start notification device according to claim 1, wherein the first region is rectangular. グルーピングされた前記オプティカルフローの一部の始点が、前記第1領域の外縁に位置する請求項2に記載の発進報知装置。   The start notification device according to claim 2, wherein a start point of a part of the grouped optical flows is located at an outer edge of the first region. 所定の領域内において、前記オプティカルフロー規定手段によって規定されたオプティカルフローの始点及び終点が含まれない第2領域の面積を算出する第2演算手段を有し、
前記報知手段は、前記第2領域の面積が閾値以下の場合に、前記自車の前方に停止した前記移動体の発進を報知する請求項1乃至3のいずれか一項に記載の発進報知装置。
A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
4. The start notification device according to claim 1, wherein when the area of the second region is equal to or less than a threshold value, the notification unit notifies the start of the moving body stopped in front of the host vehicle. .
所定の領域内において、前記オプティカルフロー規定手段によって規定されたオプティカルフローの始点及び終点が含まれない第2領域の面積を算出する第2演算手段を有し、
前記報知手段は、前記第2領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進の報知を抑制する請求項1乃至3のいずれか一項に記載の発進報知装置。
A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
The start according to any one of claims 1 to 3, wherein the notification means suppresses a start notification of the moving body that has stopped in front of the host vehicle when the area of the second region is equal to or greater than a threshold value. Notification device.
前記第2領域は、矩形である請求項4又は5に記載の発進報知装置。   The start notification device according to claim 4 or 5, wherein the second region is rectangular. 前記所定の領域は、横方向の大きさが前記自車の幅に相当し、縦方向の大きさが前記自車の高さに相当する領域である請求項4乃至6のいずれか一項に記載の発進報知装置。   The predetermined region is a region in which a horizontal size corresponds to a width of the own vehicle and a vertical size corresponds to a height of the own vehicle. The start notification device described. 前記所定の領域は、横方向の大きさが前記自車が走行するレーンの幅に相当する請求項4乃至6のいずれか一項に記載の発進報知装置。   The start notification device according to any one of claims 4 to 6, wherein a size of the predetermined region corresponds to a width of a lane in which the host vehicle travels. 前記抽出手段は、前記第1画像及び前記第2画像の検出領域から、前記第1特徴点及び前記第2特徴点を抽出し、
前記第2演算手段は、前記検出領域における前記所定の領域内において、前記第2領域の面積を算出する請求項4乃至8のいずれか一項に記載の発進報知装置。
The extraction means extracts the first feature point and the second feature point from detection areas of the first image and the second image,
The start notification device according to any one of claims 4 to 8, wherein the second calculation means calculates an area of the second region within the predetermined region in the detection region.
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する工程と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する工程と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する工程と、
前記オプティカルフローを、前記移動体ごとにグルーピングする工程と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する工程と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する工程と、
を含む発進報知方法。
Extracting a first feature point included in a first image obtained by photographing a moving body stopped in front of the own vehicle;
Extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving body stopped in front of the host vehicle;
Defining an optical flow having the first feature point as a start point and the second feature point as an end point;
Grouping the optical flows for each of the moving objects;
Calculating an area of a first region including optical flows grouped as optical flows related to the same moving object;
A step of notifying the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
A start notification method including:
コンピュータに、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する手順と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する手順と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する手順と、
前記オプティカルフローを、前記移動体ごとにグルーピングする手順と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する手順と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する手順と、
を実行させるためのプログラム。
On the computer,
A procedure for extracting a first feature point included in a first image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for defining an optical flow having the first feature point as a start point and the second feature point as an end point;
A procedure for grouping the optical flows for each of the moving objects;
A step of calculating an area of a first region including an optical flow grouped as an optical flow related to the same moving body;
When the area of the first region is equal to or greater than a threshold, a procedure for notifying the start of the moving body stopped in front of the host vehicle;
A program for running
JP2010163980A 2010-07-21 2010-07-21 Start notification device, start notification method and program Pending JP2012027595A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010163980A JP2012027595A (en) 2010-07-21 2010-07-21 Start notification device, start notification method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010163980A JP2012027595A (en) 2010-07-21 2010-07-21 Start notification device, start notification method and program

Publications (1)

Publication Number Publication Date
JP2012027595A true JP2012027595A (en) 2012-02-09

Family

ID=45780472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010163980A Pending JP2012027595A (en) 2010-07-21 2010-07-21 Start notification device, start notification method and program

Country Status (1)

Country Link
JP (1) JP2012027595A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015170706A1 (en) * 2014-05-07 2015-11-12 日本電産エレシス株式会社 Traveling body detection method and program
US20220080974A1 (en) * 2020-09-17 2022-03-17 Hyundai Motor Company Vehicle and method of controlling the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015170706A1 (en) * 2014-05-07 2015-11-12 日本電産エレシス株式会社 Traveling body detection method and program
US20220080974A1 (en) * 2020-09-17 2022-03-17 Hyundai Motor Company Vehicle and method of controlling the same
US11713044B2 (en) * 2020-09-17 2023-08-01 Hyundai Motor Company Vehicle for estimation a state of the other vehicle using reference point of the other vehicle, and method of controlling the vehicle

Similar Documents

Publication Publication Date Title
US9245171B2 (en) Gaze point detection device and gaze point detection method
JP6227318B2 (en) Detection device for detecting obstacles and steep slopes, and vehicle equipped with the same
JP6239186B2 (en) Display control apparatus, display control method, and display control program
US9158738B2 (en) Apparatus for monitoring vicinity of a vehicle
US9317924B2 (en) Information processing apparatus, three-dimensional position calculation method, and program
JP4173902B2 (en) Vehicle periphery monitoring device
JP2007293627A (en) Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
US20160057354A1 (en) Vehicular surrounding-monitoring control apparatus
JP6515704B2 (en) Lane detection device and lane detection method
CN111976601B (en) Automatic parking method, device, equipment and storage medium
JP2016206995A (en) Image processing apparatus, image processing method, and program
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JPWO2016151976A1 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP2018018234A (en) Person detection device, person detection system, person detection method, and person detection program
JP5418427B2 (en) Collision time calculation device, collision time calculation method and program
CN112381876B (en) Traffic sign marking method and device and computer equipment
JP2016012303A (en) Target article recognition apparatus
JP2012027595A (en) Start notification device, start notification method and program
CN113569812A (en) Unknown obstacle identification method and device and electronic equipment
Wakayama et al. Estimation of the human performance for pedestrian detectability based on visual search and motion features
JPWO2014033885A1 (en) Image processing apparatus, image processing method, and image processing program
JP2008077154A (en) Vehicle periphery supervision unit
JP2011043922A (en) Device and method for recognizing traveling object, and program
JP2015204021A (en) Visual line detection device and visual line detection method
CN112348876B (en) Space coordinate acquisition method and device for signboards