JP2012027595A - Start notification device, start notification method and program - Google Patents
Start notification device, start notification method and program Download PDFInfo
- Publication number
- JP2012027595A JP2012027595A JP2010163980A JP2010163980A JP2012027595A JP 2012027595 A JP2012027595 A JP 2012027595A JP 2010163980 A JP2010163980 A JP 2010163980A JP 2010163980 A JP2010163980 A JP 2010163980A JP 2012027595 A JP2012027595 A JP 2012027595A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- area
- feature point
- region
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、発進報知装置、発進報知方法及びプログラムに関し、更に詳しくは、自車の前方に停止した車両の発進を報知する発進報知装置、自車の前方に停止した車両の発進を報知するための発進報知方法、及びプログラムに関する。 The present invention relates to a start notification device, a start notification method, and a program. More specifically, the present invention relates to a start notification device that notifies the start of a vehicle stopped in front of the host vehicle, and to notify the start of the vehicle stopped in front of the host vehicle. It is related with the start alerting method and program.
近年、車内に設置されたカメラから出力される画像に基づいて、自車近傍に位置する車両の発進及び停止などの挙動を監視する運転支援システムの実用化が進められている。この種の運転支援システムは、画像に含まれる特徴点の時系列的な位置変化を示すベクトル(オプティカルフロー)の大きさに基づいて、自車近傍に位置する車両の挙動を監視する(例えば特許文献1乃至3参照)。
2. Description of the Related Art In recent years, a driving support system that monitors behaviors such as start and stop of a vehicle located in the vicinity of the host vehicle based on an image output from a camera installed in the vehicle has been put into practical use. This type of driving support system monitors the behavior of a vehicle located in the vicinity of the host vehicle based on the magnitude of a vector (optical flow) indicating a time-series position change of feature points included in an image (for example, a patent)
特許文献1に記載された装置は、自車の前方に停止する車両(以下、停止車両ともいう)が写る画像から、この停止車両のブレーキランプを構成する画素を抽出する。そして、ブレーキランプを構成する画素の輝度が、停止車両のブレーキ灯が点灯したときと、消灯したときとで変化することを利用して、停止車両の発進を検出する。
The device described in
しかしながら、停止車両の挙動は、必ずしもブレーキ灯の変化とリンクしない。このため、停止車両の挙動を確実に検出することが困難となる場合がある。 However, the behavior of a stopped vehicle does not necessarily link with a change in brake lights. For this reason, it may be difficult to reliably detect the behavior of the stopped vehicle.
特許文献2に記載された装置は、停止車両の画像を複数のブロックに分割する。そして、ブロックごとに規定されるオプティカルフローに基づいて、停止車両の発進を検出する。 The apparatus described in Patent Document 2 divides an image of a stopped vehicle into a plurality of blocks. And based on the optical flow prescribed | regulated for every block, the start of a stop vehicle is detected.
しかしながら、ブロックごとに規定されたオプティカルフローに基づく検出を行う場合には、例えば停止車両への照明条件や、周囲環境によっては、停止車両をうまく特定することができなくなる場合がある。また、停止車両の周囲環境を考慮した検出を行おうとすると、検出を行うための処理が煩雑になることが予想される。 However, when detection based on an optical flow defined for each block is performed, the stopped vehicle may not be identified well depending on, for example, the lighting conditions for the stopped vehicle and the surrounding environment. Further, if detection is performed in consideration of the surrounding environment of the stopped vehicle, it is expected that the processing for performing detection becomes complicated.
特許文献3に記載された装置は、停止車両の画像に監視ラインを規定する。そして、この監視ライン上の特徴点の移動量等に基づいて、停止車両の発進を検出する。 The device described in Patent Document 3 defines a monitoring line in an image of a stopped vehicle. Then, the start of the stopped vehicle is detected based on the amount of movement of the feature points on the monitoring line.
しかしながら、監視ライン上の特徴点のみに基づく検出を行う場合には、照明等の影響などにより、監視ライン上の特徴点を精度よく検出できないことが考えられる。この場合には、停止車両の挙動の検出が不正確になることが予想される。 However, when performing detection based only on the feature points on the monitoring line, it is conceivable that the feature points on the monitoring line cannot be accurately detected due to the influence of illumination or the like. In this case, it is expected that the detection of the behavior of the stopped vehicle will be inaccurate.
本発明は、上述の事情の下になされたもので、停止車両の発進を精度良く検出し、適切なタイミングで報知することを目的とする。 The present invention has been made under the above-described circumstances, and an object thereof is to accurately detect the start of a stopped vehicle and to notify at an appropriate timing.
上記目的を達成するために、本発明の発進報知装置は、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点と、第2画像に含まれる、前記第1特徴点に対応する第2特徴点とを抽出する抽出手段と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定するオプティカルフロー規定手段と、
前記オプティカルフローを、前記移動体ごとにグルーピングするグルーピング処理手段と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する第1演算手段と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する報知手段と、
を備える。
In order to achieve the above object, the start notification device of the present invention is:
A first feature point included in a first image obtained by photographing a moving body stopped in front of the host vehicle and a second feature point corresponding to the first feature point included in a second image are extracted. Extraction means;
Optical flow defining means for defining an optical flow starting from the first feature point and ending at the second feature point;
Grouping processing means for grouping the optical flow for each moving object;
First computing means for calculating an area of a first region including optical flows grouped as optical flows related to the same moving body;
Informing means for informing the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
Is provided.
前記第1領域は、矩形であってもよい。 The first area may be rectangular.
グルーピングされた前記オプティカルフローの一部の始点が、前記第1領域の外縁に位置していてもよい。 A start point of a part of the grouped optical flows may be located at an outer edge of the first region.
発進報知装置は、
所定の領域内において、前記オプティカルフロー規定手段によって規定されたオプティカルフローの始点及び終点が含まれない第2領域の面積を算出する第2演算手段を有し、
前記報知手段は、前記第2領域の面積が閾値以下の場合に、前記自車の前方に停止した前記移動体の発進を報知することとしてもよい。
The start notification device
A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
The notification means may notify the start of the moving body stopped in front of the host vehicle when the area of the second region is equal to or smaller than a threshold value.
また、発進報知装置は、
所定の領域内において、前記オプティカルフロー規定手段によって規定されたオプティカルフローの始点及び終点が含まれない第2領域の面積を算出する第2演算手段を有し、
前記報知手段は、前記第2領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進の報知を抑制することとしてもよい。
In addition, the start notification device
A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
The notification means may suppress notification of the start of the moving body stopped in front of the host vehicle when the area of the second region is equal to or greater than a threshold value.
前記第2領域は、矩形であってもよい。 The second area may be rectangular.
前記所定の領域は、横方向の大きさが前記自車の幅に相当し、縦方向の大きさが前記自車の高さに相当する領域であってもよい。 The predetermined area may be an area in which the size in the horizontal direction corresponds to the width of the vehicle and the size in the vertical direction corresponds to the height of the vehicle.
前記所定の領域は、横方向の大きさが前記自車が走行するレーンの幅に相当する領域であってもよい。 The predetermined area may be an area whose lateral size corresponds to a width of a lane in which the host vehicle travels.
前記抽出手段は、前記第1画像及び前記第2画像の検出領域から、前記第1特徴点及び前記第2特徴点を抽出し、
前記第2演算手段は、前記検出領域における前記所定の領域内において、前記第2領域の面積を算出することとしてもよい。
The extraction means extracts the first feature point and the second feature point from detection areas of the first image and the second image,
The second calculation means may calculate the area of the second region within the predetermined region in the detection region.
本発明の発進報知方法は、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する工程と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する工程と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する工程と、
前記オプティカルフローを、前記移動体ごとにグルーピングする工程と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する工程と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する工程と、
を含む。
The start notification method of the present invention includes:
Extracting a first feature point included in a first image obtained by photographing a moving body stopped in front of the own vehicle;
Extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving body stopped in front of the host vehicle;
Defining an optical flow having the first feature point as a start point and the second feature point as an end point;
Grouping the optical flows for each of the moving objects;
Calculating an area of a first region including optical flows grouped as optical flows related to the same moving object;
A step of notifying the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
including.
本発明のプログラムは、
コンピュータに、
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する手順と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する手順と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する手順と、
前記オプティカルフローを、前記移動体ごとにグルーピングする手順と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する手順と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する手順と、
を実行させる。
The program of the present invention
On the computer,
A procedure for extracting a first feature point included in a first image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for defining an optical flow having the first feature point as a start point and the second feature point as an end point;
A procedure for grouping the optical flows for each of the moving objects;
A step of calculating an area of a first region including an optical flow grouped as an optical flow related to the same moving body;
When the area of the first region is equal to or greater than a threshold, a procedure for notifying the start of the moving body stopped in front of the host vehicle;
Is executed.
本発明によれば、オプティカルフローを含む領域の面積が、所定の閾値以上である場合に、オプティカルフローによって移動方向が示される車両の発進が報知される。このため、自車の直近に停止した車両がある場合に、例えば自車から離れた位置にある車両が発進したとしても、誤って発進が報知されることがなくなる。したがって、対象車両の発進を精度良く検出し、適切なタイミングで報知することが可能となる。 According to the present invention, when the area of the region including the optical flow is equal to or larger than the predetermined threshold, the vehicle start in which the moving direction is indicated by the optical flow is notified. For this reason, when there is a vehicle stopped in the immediate vicinity of the own vehicle, for example, even if a vehicle at a position away from the own vehicle starts, the start is not erroneously notified. Therefore, it is possible to accurately detect the start of the target vehicle and notify the vehicle at an appropriate timing.
《第1の実施形態》
以下、本発明の第1の実施形態を、図面を参照しつつ説明する。図1は本実施形態に係る発進報知システム10の概略的な構成を示すブロック図である。発進報知システム10は、自車(車両100)の前方に停止した停止車両の発進を検出し、当該停止車両の発進をドライバーへ報知するシステムである。図1に示されるように、発進報知システム10は、撮影装置20と、発進報知装置30とを有している。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a
撮影装置20は、被写体を撮影することにより取得した画像を、電気信号に変換して出力する装置である。撮影装置20は、例えば図2に示されるように、車両100のフロントウインド上部に取り付けられている。この撮影装置20は、車両100の前方を撮影する。そして、撮影により取得した画像に関する情報を発進報知装置30へ出力する。
The photographing
図3は、車両100と車両101,102との相対的な位置関係を示す図である。例えば、矢印a1に示される位置に車両101が停止し、矢印b1に示される位置に車両102が停止している場合を考える。この状態から、車両101が発進し、矢印a2に示される位置に至った場合には、図3を参照するとわかるように、撮影装置20によって、まず、矢印a1に示される位置にある車両101と、矢印b1に示される位置にある車両102が撮影される。次に、矢印a2に示される位置にある車両101と、矢印b1に示される位置にある車両102が撮影される。
FIG. 3 is a diagram illustrating a relative positional relationship between the
図4は、図3における矢印a1に示される位置にある車両101を撮影することにより得られた画像PH1を示す図である。また、図5は、図3における矢印a2に示される位置にある車両101を撮影することにより得られた画像PH2を示す図である。撮影装置20は、画像PH1,PH2を撮影すると、画像PH1,PH2に関する情報を、発進報知装置30へ出力する。
FIG. 4 is a diagram showing an image PH1 obtained by photographing the
本実施形態では、上述の画像PH1,PH2について、撮影装置20の光学中心に対応する点(撮影装置20の光軸とその画像面との交点である画像中心)を原点Xc(FOE:Focus of Expansion)とするxy座標系を定義する。このxy座標系の原点Xcは、画像PH1,PH2の中心と一致する。
In the present embodiment, with respect to the above-described images PH1 and PH2, a point corresponding to the optical center of the imaging device 20 (an image center that is the intersection of the optical axis of the
図1に戻り、発進報知装置30は、自車の前方に停止する停止車両の発進を報知する装置である。図1に示されるように、発進報知装置30は、記憶部31、特徴点抽出部32、相関値演算部33、オプティカルフロー規定部34、グルーピング処理部35、第1演算部36、第2演算部37、及び報知部38を有している。
Returning to FIG. 1, the
記憶部31は、撮影装置20から順次出力される画像に関する情報を時系列的に記憶する。また、上記各部32〜38の処理結果としての情報を順次記憶する。
The
特徴点抽出部32は、図4及び図5を参照するとわかるように、記憶部31に記憶された情報に基づく画像PH1,PH2に対して、例えば原点Xcと中心が一致する矩形状の検出領域DAを規定する。この検出領域DAは、例えば予め補助記憶部30cに記憶された自車の横幅、高さ、撮影装置20の焦点距離、画角(視野角)等の情報に基づいて規定される。
As can be seen from FIG. 4 and FIG. 5, the feature
次に、特徴点抽出部32は、画像PH1に規定された検出領域DA、及び画像PH2に規定された検出領域DA内の画素それぞれについての特徴量を算出する。そして、この特徴量に基づいて画像PH1,PH2に規定された検出領域DA内に含まれる特徴点を抽出する。例えば、図4に示される画像PH1上に規定されたxy座標系で示される画素M(x、y)の特徴量f(x、y)は、画像の輝度勾配を示す関数I(x、y)を用いると次式(1)によって表される。
Next, the feature
ただし、Ixx、Iyy、Ixyはそれぞれ次式(2)〜(4)によってそれぞれ表される。また、kは定数である。 However, Ixx, Iyy, and Ixy are respectively expressed by the following equations (2) to (4). K is a constant.
特徴点抽出部32は、まず、式(1)を用いて画像PH1の検出領域DA内にある画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。次に、特徴点抽出部32は、画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出し、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除する。特徴点抽出部32は、これにより得られた比較値V(=f(x、y)/AVG(x、y)4)を、予め設定された閾値と比較して、比較値Vが閾値以上の場合に、このときの画素M(x、y)を特徴点として抽出する。特徴点抽出部32は、上述の処理を画像PH2に対しても実行する。ここで、特徴量f(x、y)を輝度の平均値AVG(x、y)を4乗したもので除する理由は、特徴量f(x、y)を輝度に関して正規化するためである。
The feature
図4には、画像PH1の検出領域DAから抽出された車両101に関連する特徴点P1,P2,P3,P4と、車両102に関連する特徴点P5,P6,P7,P8が示されている。また、図5には、画像PH2の検出領域DAから抽出された車両101に関連する特徴点Q1,Q2,Q3,Q4と、車両102に関連する特徴点Q5,Q6,Q7,Q8が示されている。画像PH1及び画像PH2を参照するとわかるように、特徴点抽出部32は、画像PH1,PH2に写り込んだ車両101,102の輪郭が急峻に変化する不連続点や、車両101,102を構成するパーツの形状が不連続に変化する点などを特徴点として抽出する。
FIG. 4 shows feature points P1, P2, P3, P4 related to the
特徴点抽出部32は、画像PH1,PH2についての特徴点の抽出が完了すると、抽出した特徴点に関する情報を記憶部31へ出力するとともに、特徴点の抽出が完了したことを相関値演算部33へ通知する。なお、ここでは説明の便宜上、各画像PH1,PH2から特徴点が8つ抽出された場合について述べているが、実際は、1枚の画像から複数の特徴点が抽出される。
When the feature
図1に戻り、相関値演算部33は、画像PH1の特徴点P1〜P8を順次選択する。そして、この選択した特徴点と、画像PH2の特徴点Q1〜Q8との相関値を算出する。
Returning to FIG. 1, the
具体的には、図4に示されるように、相関値演算部33は、画像PH1の特徴点P1を中心とする長方形の画像(画像PH1の部分画像)をテンプレートTF1として規定する。このテンプレートTF1は、M行N列のマトリクス状に配置された画素からなる画像である。また、以下の説明では、テンプレートTF1の座標とは、テンプレートTF1の中心の座標をいうものとする。
Specifically, as shown in FIG. 4, the correlation
次に、相関値演算部33は、テンプレートTF1を、画像PH2の特徴点Q1〜Q8の近傍で移動させながら、画像PH2に対するテンプレートTF1の相関値Rを順次算出する。この相関値Rの算出は、例えば正規化相互相関を示す下記の式(5)を用いることができる。なお、T(i,j)は、テンプレートTF1のi行目かつj列目に位置する画素の輝度である。また、I(i,j)は、テンプレートTF1と重なる画像PH2の部分画像のi行目かつj列目に位置する画素の輝度である。また、IAVGは、上記部分画像を構成する画素の輝度の平均値である。また、TAVGは、テンプレートを構成する画素の輝度の平均値である。IAVG及びTAVGは下記の式(6)及び式(7)で示される。
Next, the
相関値演算部33は、相関値Rを、上記式(5)に基づいて算出すると、この相関値Rに関する情報を、テンプレートTF1のxy座標系における位置座標と関連付けて、記憶部31へ記憶する。相関値演算部33は、画像PH1の特徴点P2〜P8についても、上述と同様の処理を実行する。そして、すべての特徴点P1〜P8についての相関値Rを算出すると、相関値Rの算出が完了したことをオプティカルフロー規定部34へ通知する。
When the correlation
図1に戻り、オプティカルフロー規定部34は、相関値演算部33によって算出された相関値Rに基づいて、画像PH1の特徴点を始点とし、画像PH2の特徴点を終点とするオプティカルフローを規定する。
Returning to FIG. 1, based on the correlation value R calculated by the correlation
例えば、オプティカルフロー規定部34は、テンプレートTF1を用いて算出した相関値Rが最大となったときの、テンプレートTF1の座標に最も近い画像PH2の特徴点を特定する。特徴点P1は、車両101の後部バンパーの右側端部に対応する特徴点である。このため、テンプレートTF1を用いて算出した相関値Rは、テンプレートTF1の中心が、画像PH2の特徴点Q1にほぼ一致するときに最大となる。したがって、ここでは、特徴点P1に対応する特徴点として、特徴点Q1が特定される。
For example, the optical
図6に示されるように、オプティカルフロー規定部34は、xy座標系において、特徴点P1を始点とし、特徴点Q1を終点とするオプティカルフローOP1を規定する。
As shown in FIG. 6, the optical
オプティカルフロー規定部34は、上述した手順で同様に、特徴点P2を始点とし、特徴点Q2を終点とするオプティカルフローOP2を規定する。また、特徴点P3を始点とし、特徴点Q3を終点とするオプティカルフローOP3を規定する。また、特徴点P4を始点とし、特徴点Q4を終点とするオプティカルフローOP4を規定する。
In the same manner as described above, the optical
なお、撮影装置20による撮影が順次行われたときに、車両100の前方に停止していた車両が発進していない場合には、画像PH1の特徴点の座標と、この特徴点に対応する画像PH2の特徴点の座標とが一致する。そして、この両特徴点によって規定されるオプティカルフローの大きさが零となる。この場合には、オプティカルフロー規定部34は、オプティカルフローを規定しないものとする。したがって、車両101のみが走行している場合には、図6に示されるように、車両100についてのオプティカルフローOP1〜OP4のみが規定され、特徴点P5〜P8,Q5〜Q8に関するオプティカルフローは規定されないことになる。
Note that if the vehicle stopped in front of the
オプティカルフロー規定部34は、オプティカルフローOP1〜OP4を規定すると、このオプティカルフローOP1〜OP4に関する情報を記憶部31へ出力するとともに、オプティカルフローの規定が完了したことをグルーピング処理部35へ通知する。
When the optical
グルーピング処理部35は、規定された1群のオプティカルフローのグルーピングを行う。図6に示されるように、本実施形態では説明の便宜上、車両101に関するオプティカルフローが4本である場合について説明している。しかしながら、実際は、車両101を撮影した画像からは、数十或いは数百の特徴点を抽出することができる。そして、数十或いは数百本のオプティカルフローを規定することができる。
The
グルーピング処理部35は、数十或いは数百本のオプティカルフローのうちから、ノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、車両101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線それぞれは消失点VPで交わるはずである。そこで、グルーピング処理部35は、オプティカルフローと一致する直線が、消失点VPから著しく離れている場合に、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。なお、グルーピングに関しては、例えば特開2008−97126号公報に詳細に開示されている。また、ここでは車両101に関するオプティカルフローOP1〜OP4が、車両101のオプティカルフローとしてグルーピングされたものとする。
The
グルーピング処理部35は、オプティカルフローのグルーピングが完了すると、グルーピングしたオプティカルフローに関する情報を記憶部31へ出力するとともに、グルーピングが完了したことを、第1演算部36へ通知する。
When the grouping of the optical flows is completed, the
第1演算部36は、グルーピングされたオプティカルフローからなるグループごとに、オプティカルフローを含むグルーピング領域の面積を算出する。
The
例えば、第1演算部36は、図7に示されるように、グルーピングされたオプティカルフローOP1〜OP4を含む矩形状のグルーピング領域AR1を規定する。そして、このグルーピング領域AR1の面積S1を算出する。グルーピング領域AR1の面積S1が最小となるときには、いくつかのオプティカルフローの始点がグルーピング領域AR1の外縁に位置する。
For example, as shown in FIG. 7, the first
第1演算部36は、グルーピング領域AR1の面積S1を算出すると、この演算結果を記憶部31へ出力するとともに、演算が完了したことを第2演算部37へ通知する。
When calculating the area S1 of the grouping area AR1, the
第2演算部37は、図4及び図5を参照するとわかるように、検出領域DAに、原点Xcと中心が一致する矩形状の静止物体検出領域SAを規定する。そして、この静止物体検出領域SA内にあり、オプティカルフローを規定しない(オプティカルフローの始点及び終点とならない)特徴点を含む矩形状の静止物体検出領域SAの面積を算出する。
As can be seen with reference to FIGS. 4 and 5, the
検出領域DAは、X軸方向の長さが、車両100の例えば3m前方の位置における、自車(車両100)の幅の両側に余裕幅(例えば2m)を加えた長さであり、Y軸方向の長さが、車両100の例えば3m前方の位置における、自車の高さに余裕高さ(例えば1.5m)を加えた長さである領域に相当する。この場合、検出領域DAは、画像PH1,PH2から、検出対象(車両101等)が明らかに存在しない領域が排除された領域である。
In the detection area DA, the length in the X-axis direction is a length obtained by adding a margin width (for example, 2 m) to both sides of the width of the own vehicle (the vehicle 100) at a position 3 meters ahead of the
この静止物体検出領域SAは、x軸方向の長さが、車両100の例えば3m前方の位置における、車両100の幅の両側に余裕幅(例えば1m)を加えた長さで、y軸方向の長さが、車両100の例えば3m前方の位置における、車両100の高さに余裕高さ(例えば50cm)を加えた長さの矩形領域に対応した領域である。この静止物体検出領域SAは、車両100が走行するレーンの前方に存在する車両のみが写り込む領域であることが好ましい。
This stationary object detection area SA has a length in the x-axis direction, which is a length obtained by adding a margin width (for example, 1 m) to both sides of the width of the
次に、第2演算部37は、図8を参照するとわかるように、画像PH2に規定された静止物体検出領域SAにある特徴点のうちから、オプティカルフローOP1〜OP4を規定しない特徴点Q5,Q7を抽出する。次に、第2演算部37は、抽出された特徴点Q5,Q7を含む、矩形状の静止特徴点存在領域AR2を規定する。そして、この静止特徴点存在領域AR2の面積S2を算出する。静止特徴点存在領域AR2の面積が最小となるときには、いくつかの特徴点が静止特徴点存在領域AR2の外縁に位置する。
Next, as can be seen with reference to FIG. 8, the
第2演算部37は、静止特徴点存在領域AR2の面積S2を算出すると、この演算結果を記憶部31へ出力するとともに、演算が完了したことを報知部38へ通知する。
When calculating the area S2 of the stationary feature point existence area AR2, the
報知部38は、記憶部31に記憶されたグルーピング領域AR1の面積S1と第1の閾値とを比較するとともに、静止特徴点存在領域AR2の面積S2と第2の閾値とを比較する。そして、グルーピング領域AR1の面積S1が閾値以上であり、静止特徴点存在領域AR2の面積S2が閾値以下の場合に、車両100のドライバーにオプティカルフローOP1〜OP4によって移動方向が示される車両101の発進を報知する。
The
以上説明したように、本実施形態では、グルーピングされたオプティカルフローを含むグルーピング領域AR1の面積S1が、閾値以上である場合に、ドライバーに当該グルーピング領域AR1のオプティカルフローによって移動方向が示される車両101の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。以下、具体的に説明する。
As described above, in the present embodiment, when the area S1 of the grouping area AR1 including the grouped optical flows is equal to or larger than the threshold value, the
例えば、図3に示されるように、車両100の走行経路からずれた位置に停止し、撮影装置20の視野の端に位置する車両102が発進した場合を考える。この場合、図9に示されるように、画像PH1の特徴点P5〜P8を始点とし、画像PH2の特徴点Q5〜Q8を終点とするオプティカルフローOP5〜OP8が規定される。これらのオプティカルフローOP5〜OP8は、画像PH2の左端に規定される。
For example, as shown in FIG. 3, consider a case where the
車両100の走行経路からずれた車両や、車両100から比較的遠い位置に停止している車両の発進に起因するオプティカルフローが現れるグルーピング領域の面積は、車両100の直近前方に停止している車両101の発進に起因するオプティカルフローOP1〜OP4が現れるグルーピング領域の面積に比較して小さい。
The area of the grouping region in which an optical flow resulting from the start of a vehicle deviating from the travel route of the
具体的には、図8及び図9を参照するとわかるように、車両102の発進に起因するオプティカルフローが現れるグルーピング領域AR3(図9参照)の面積は、車両101の発進に起因するオプティカルフローが現れるグルーピング領域AR1(図8参照)の面積よりも小さい。このため、オプティカルフローを含むグルーピング領域の面積が、所定の閾値以上の場合に、車両100のドライバーに前方車両の発進を報知することとすることで、直近前方に車両が停止しているにも関わらず、誤って発進が報知されることを回避することができる。したがって、車両100のドライバーに、適切なタイミングで、前方車両の発進を報知することが可能となる。
Specifically, as can be seen with reference to FIGS. 8 and 9, the area of the grouping area AR <b> 3 (see FIG. 9) where the optical flow due to the start of the
また、本実施形態では、オプティカルフローの規定に関与しない特徴点を含む静止特徴点存在領域AR2の面積S2が、閾値以下である場合に、ドライバーにオプティカルフローによって移動方向が示される車両の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。以下、具体的に説明する。
Further, in the present embodiment, when the area S2 of the stationary feature point existence area AR2 including the feature points that are not involved in the definition of the optical flow is equal to or less than the threshold value, the vehicle is started in which the moving direction is indicated by the optical flow to the driver. Informed. Thereby, it is possible to accurately notify the driver who drives the
例えば、図3の矢印a1に示される位置にある車両101が発進しない場合を考える。この場合、画像PH1の特徴点P1〜P4を始点とし、画像PH2の特徴点Q1〜Q4を終点とするオプティカルフローは規定されない。そして、画像PH2の特徴点Q1〜Q8のうち、車両101に関連する特徴点Q1〜Q4は、オプティカルフローを規定しない静止特徴点Q1〜Q4となる。車両101が車両100の直近前方に停止している場合には、車両101に起因する静止特徴点Q1〜Q4を含む静止特徴点存在領域AR4は、図9に示されるように、画像PH2に占める割合がある程度大きくなる。
For example, consider a case where the
本実施形態では、直近前方に位置する車両に起因する静止特徴点を含む静止特徴点存在領域の面積が、所定の閾値以下の場合に、車両100のドライバーに前方車両の発進を報知する。そして、静止特徴点存在領域の面積が、所定の閾値以上の場合に、前方車両の発進の報知を抑制する。これにより、直近前方に車両が停止しているにもかかわらず、誤って発進が報知されることを回避することができる。したがって、車両100のドライバーに、適切なタイミングで、前方車両の発進を報知することが可能となる。
In the present embodiment, when the area of the stationary feature point existence area including the stationary feature point caused by the vehicle positioned immediately in front is equal to or smaller than a predetermined threshold, the driver of the
また、本実施形態では、特徴点を抽出するための処理、及びオプティカルフローを規定するための処理を、画像PH1,PH2に規定された検出領域DAについて行う。このため、発進の報知を行うために必要な処理を画像全体に実行する必要がなく、処理の時間を短縮することができる。 In the present embodiment, the process for extracting the feature points and the process for defining the optical flow are performed on the detection area DA defined in the images PH1 and PH2. For this reason, it is not necessary to execute the process necessary for notifying the start of the entire image, and the processing time can be shortened.
また、静止物体検出領域SAは、上記検出領域DAに規定される。本実施形態では、この静止物体検出領域SAは、x軸方向の長さが、車両100の幅の両側に余裕幅(例えば1m)を加えた長さで、y軸方向の長さが、車両100の高さに余裕高さ(例えば50cm)を加えた長さの矩形領域に対応した画像上の領域であるものとした。これに限らず、X軸方向の長さを、車両100の例えば3m前方の位置における、車両100が走行するレーン幅に相当する長さとしてもよい。ここで、レーン幅とは、予め定められた設計上の幅でもよいし、画像から検出した白線に基づいて算出された幅であってもよい。
The stationary object detection area SA is defined by the detection area DA. In the present embodiment, the stationary object detection area SA has a length in the x-axis direction that is a length obtained by adding a margin width (for example, 1 m) on both sides of the width of the
《第2の実施形態》
次に、本発明の第2の実施形態を、図面を参照しつつ説明する。なお、上記各実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described with reference to the drawings. In addition, about the structure same or equivalent to said each embodiment, while using an equivalent code | symbol, the description is abbreviate | omitted or simplified.
本実施形態に係る発進報知システム10は、発進報知装置30が、一般的なコンピュータ、又はマイクロコンピュータなどの装置と同様の構成によって実現されている点で、上記実施形態に係る発進報知システム10と相違している。
The
図10は、発進報知システム10の物理的な構成を示すブロック図である。図10に示されるように、発進報知システム10は、撮影装置20と、コンピュータからなる発進報知装置30とから構成されている。
FIG. 10 is a block diagram showing a physical configuration of the
発進報知装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを含んで構成されている。
The
CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮影装置20によって取得された画像PH1,PH2に対して後述する処理を実行する。
CPU30a performs the process mentioned later with respect to the images PH1 and PH2 acquired by the
主記憶部30bは、RAM(Random Access Memory)等を含んで構成され、CPU30aの作業領域として用いられる。
The
補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを含んで構成されている。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、撮影装置20から出力される画像に関する情報、及びCPU30aによる処理結果などを含む情報を順次記憶する。
The
表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成され、CPU30aの処理結果を表示する。
The
入力部30eは、キースイッチやポインティングデバイスを含んで構成されている。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。
The
インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を含んで構成されている。撮影装置20は、インターフェイス部30fを介してシステムバス30gに接続される。
The
図11及び図12のフローチャートは、CPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図11及び図12を参照しつつ、発進報知装置30が実行する処理について説明する。なお、この処理は、発進報知システム10が起動され、撮影装置20によって撮影された画像に関する情報が出力されたことをトリガとして実行される。また、前提として、撮影装置20からは、図4に示される画像PH1、及び図5に示される画像PH2が順次出力されるものとする。
The flowcharts of FIGS. 11 and 12 correspond to a series of processing algorithms of a program executed by the
まず、最初のステップS101では、CPU30aは、CPU30aの起動直後の初期化処理として、不図示のタイマ、フラグ、パラメータ、変数等の初期化を行う。これにより、タイマが初期化され、初期化された時刻からの経過時間の計測が開始される。
First, in the first step S101, the
次のステップS102では、CPU30aは、車両100の速度計からの出力に基づいて、車両100が停止しているか否かを判断する。車両100の速度が閾値以上である場合には、CPU30aは車両が走行していると判断し(ステップS102:No)、ステップS112に移行する。
In the next step S102, the
ステップS112では、CPU30aは、ステップS101と同様に、タイマ、フラグ、パラメータ、変数等の初期化を行う。これにより、タイマが初期化され、初期化された時刻からの経過時間の計測が開始される。CPU30aは、ステップS112での処理を終えると、ステップS102へ戻り、以降ステップS102での判断が肯定されるまで、ステップS102及びステップS112での処理を繰り返し実行する。
In step S112, the
一方、ステップS102において、車両100の速度が閾値以下である場合には、CPU30aは、車両100が停止していると判断し(ステップS102:Yes)、次のステップS103へ移行する。
On the other hand, when the speed of the
ステップS103では、CPU30aは、補助記憶部30cに記憶された最新の画像PH2に関する情報と、この画像PH2の1フレーム前に撮影された画像PH1に関する情報を取得する。
In step S103, the
次のステップS104では、CPU30aは、検出領域DAを規定する。この検出領域DAは、例えば予め補助記憶部30cに記憶された自車の横幅、高さ、撮影装置20の焦点距離、画角(視野角)等の情報に基づいて規定される。
In the next step S104, the
次のステップS105では、CPU30aは、画像PH1に規定された検出領域DAと、画像PH2に規定された検出領域DAとから特徴点を抽出する。例えば、CPU30aは、画像PH1,PH2の検出領域DA内の画素それぞれについての特徴量を算出し、この特徴量に基づいて、画像PH1,PH2に規定された検出領域DA内に含まれる特徴点を抽出する。例えば、図4に示されるように、ここでは画像PH1について、車両101に関する特徴点P1,P2,P3,P4と、車両102に関する特徴点P5,P6,P7,P8が抽出される。また、図5に示されるように、画像PH2について、車両101に関する特徴点Q1,Q2,Q3,Q4と、車両102に関する特徴点Q5,Q6,Q7,Q8が抽出される。
In the next step S105, the
次のステップS106では、CPU30aは、画像PH1の特徴点P1〜P8を順次選択する。そして、この選択した特徴点と、画像PH2の特徴点Q1〜Q8との相関値を算出する。具体的には、CPU30aは、まず画像PH1の特徴点P1を中心とするテンプレートTF1を、画像PH2の特徴点Q1〜Q8の近傍で移動させながら、画像PH2に対するテンプレートTF1の相関値Rを順次算出する。CPU30aは、上述の処理を、特徴点P2〜P8についても行う。
In the next step S106, the
次のステップS107では、CPU30aは、図6を参照するとわかるように、算出した相関値Rに基づいて、画像PH1の特徴点を始点とし、画像PH2の特徴点を終点とするオプティカルフローOP1〜OP4を規定する。なお、ここでは、画像PH1の特徴点と、当該特徴点に対応する画像PH2の特徴点の座標が一致していると判断できる場合には、オプティカルフローは規定されないものとする。
In the next step S107, as can be seen with reference to FIG. 6, based on the calculated correlation value R, the
次のステップS108では、CPU30aは、規定された1群のオプティカルフローのグルーピングを行う。図6に示されるように、本実施形態では説明の便宜上、車両101に関するオプティカルフローが4本である場合について説明している。しかしながら、実際は、車両101を撮影した画像からは、数十或いは数百の特徴点を抽出することができる。そして、数十或いは数百本のオプティカルフローを規定することができる。そこで、CPU30aは、数十或いは数百本のオプティカルフローのうちから、ノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。これにより、車両101に関連する特徴点によって規定されるオプティカルフローOP1〜OP4がグルーピングされる。
In the next step S108, the
次のステップS109では、CPU30aは、車両100の前方に停止している車両の発進を検出するために、図12に示されるサブルーチン200を実行する。
In the next step S109, the
サブルーチン200の最初のステップS201では、CPU30aは、グルーピングされたオプティカルフローからなるグループごとに、オプティカルフローを含むグルーピング領域の面積を算出する。例えば、CPU30aは、図7に示されるように、グルーピングされたオプティカルフローOP1〜OP4を含む矩形状のグルーピング領域AR1を規定する。そして、このグルーピング領域AR1の面積S1を算出する。
In the first step S201 of the
次のステップS202では、CPU30aは、図4及び図5に示されるように、検出領域DAに、検出領域DAと中心が一致する矩形状の静止物体検出領域SAを規定する。そして、この静止物体検出領域SA内にあり、オプティカルフローを規定しない(オプティカルフローの始点及び終点とならない)静止特徴点を含む矩形状の静止特徴点存在領域の面積を算出する。具体的には、図8を参照するとわかるように、画像PH2に規定された静止物体検出領域SAにある特徴点のうちから、オプティカルフローOP1〜OP4を規定しない特徴点Q5,Q7を抽出する。次に、CPU30aは、抽出された特徴点Q5,Q7を含む静止特徴点存在領域AR2を規定し、この静止特徴点存在領域AR2の面積S2を算出する。
In the next step S202, as shown in FIGS. 4 and 5, the
次のステップS203では、CPU30aは、グルーピング領域AR1の面積S1が、閾値以上である否かを判断する。面積S1が閾値以上である場合には(ステップS203:Yes)、CPU30aは、次のステップS204へ移行する。
In the next step S203, the
次のステップS204では、CPU30aは、静止特徴点存在領域AR2の面積S2が、閾値以下である否かを判断する。面積S2が閾値以下である場合には(ステップS204:Yes)、CPU30aは、次のステップS205へ移行する。
In the next step S204, the
次のステップS205では、CPU30aは、タイマによって計測されている経過時間が、予め設定された時間(設定時間)を超えているか否かを判断する。経過時間が設定時間を超えている場合は、CPU30aは、次のステップS206へ移行して、発進フラグをオンにする。そして、サブルーチン200を終了して、次のステップS110へ移行する。
In the next step S205, the
一方、上述のステップS203での判断が否定された場合(ステップS203:No)、又はステップ204での判断が否定された場合(ステップS204:No)には、CPU30aは、ステップS207へ移行し、タイマを初期化する。そして、CPU30aは、ステップS208へ移行して発進フラグをオフにした後、サブルーチン200を終了して、次のステップS110へ移行する。
On the other hand, if the determination in step S203 described above is negative (step S203: No), or if the determination in
また、上述のステップS205での判断が否定された場合(ステップS205:No)には、CPU30aは、ステップS208へ移行して発進フラグをオフにした後、サブルーチン200を終了して、次のステップS110へ移行する。
If the determination in step S205 is negative (step S205: No), the
次のステップS110では、CPU30aは、自車の前方に停止した車両101が発進したか否かを判断する。具体的には、CPU30aは、発進フラグがオフの場合には、前方の車両101が発進していないと判断し(ステップS110:No)、ステップS102へ戻る。以降、CPU30aは、ステップS110での判断が肯定されるまで、ステップS102からステップS110までの処理を繰り返し実行する。
In the next step S110, the
一方、発進フラグがオンの場合には、CPU30aは、前方の車両101が発進したと判断し、次のステップS111へ移行する。
On the other hand, when the start flag is on, the
次のステップS111では、CPU30aは、外部に前方車両の発進を報知する。ステップS11での発進の報知は、例えば、スピーカなどの外部機器等へ、前方車両の発進を示す信号を出力することなどが考えられる。
In the next step S111, the
CPU30aは、ステップS111での処理を実行すると、ステップS102へ戻り、以降、ステップS102からステップS111までの処理を繰り返し実行する。
When executing the processing in step S111, the
以上説明したように、本実施形態では、グルーピングされたオプティカルフローを含むグルーピング領域AR1の面積S1が、閾値以上である場合に、ドライバーに当該オプティカルフローによって移動方向が示される車両101の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。
As described above, in this embodiment, when the area S1 of the grouping area AR1 including the grouped optical flows is equal to or larger than the threshold value, the driver is notified of the start of the
また、本実施形態では、オプティカルフローの規定に関与しない特徴点を含む静止特徴点存在領域AR2の面積S2が、閾値以下である場合に、ドライバーにオプティカルフローによって移動方向が示される車両の発進が報知される。これにより、車両100を運転するドライバーに対して、前方に停止していた車両の発進を精度良く、適切なタイミングで報知することができる。
Further, in the present embodiment, when the area S2 of the stationary feature point existence area AR2 including the feature points that are not involved in the definition of the optical flow is equal to or less than the threshold value, the vehicle is started in which the moving direction is indicated by the optical flow to the driver. Informed. Thereby, it is possible to accurately notify the driver who drives the
以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。 As mentioned above, although embodiment of this invention was described, this invention is not limited by the said embodiment.
例えば、上記実施形態では、式(1)を用いて特徴量f(x、y)を算出したが、本発明はこれに限定されるものではない。例えば、特徴量は、いわゆるKLT特徴量min(λ1、λ2)であってもよい。この場合は、特徴量を上述した平均値AVG(x、y)を2乗したもので除することで比較値Vを算出することができる。なお、λ1及びλ2は、それぞれ下記の式(8)及び式(9)で示される。 For example, in the above embodiment, the feature quantity f (x, y) is calculated using the equation (1), but the present invention is not limited to this. For example, the feature amount may be a so-called KLT feature amount min (λ1, λ2). In this case, the comparison value V can be calculated by dividing the feature amount by the square of the average value AVG (x, y) described above. Note that λ1 and λ2 are represented by the following equations (8) and (9), respectively.
なお、A〜Cは下記の式(10)で表される。ただし、Ix、Iyは、画像上の位置(x、y)における輝度I(x、y)のX軸方向及びY軸方向の勾配を示す。具体的には、下記の式(11)及び式(12)で表される。 A to C are represented by the following formula (10). Here, Ix and Iy indicate gradients in the X-axis direction and Y-axis direction of the luminance I (x, y) at the position (x, y) on the image. Specifically, it is represented by the following formula (11) and formula (12).
また、上記各実施形態に係る発進報知装置30の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。
Further, the function of the
また、第2の実施形態において発進報知装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。
In the second embodiment, the programs stored in the
また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するようにしても良い。 Further, the program may be stored in a disk device or the like included in a predetermined server device on a communication network such as the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.
なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。 It should be noted that the present invention can be variously modified and modified without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention.
本発明の発進報知装置、衝突時間算出方法及びプログラムは、前方車両の発進の報知に適している。 The start notification device, the collision time calculation method, and the program according to the present invention are suitable for notification of the start of the preceding vehicle.
10 発進報知システム
20 撮影装置
30 発進報知装置
30a CPU
30b 主記憶部
30c 補助記憶部
30d 表示部
30e 入力部
30f インターフェイス部
30g システムバス
31 記憶部
32 特徴点抽出部
33 相関値演算部
34 オプティカルフロー規定部
35 グルーピング処理部
36 第1演算部
37 第2演算部
38 報知部
100,101,102 車両
AR1 グルーピング領域
AR2 静止特徴点存在領域
AR3 グルーピング領域
AR4 静止特徴点存在領域
DA 検出領域
OP1〜OP8 オプティカルフロー
P1〜P8 特徴点
PH1,PH2 画像
Q1〜Q8 特徴点
S1,S2 面積
SA 静止物体検出領域
TF1 テンプレート
VP 消失点
Xc 原点
DESCRIPTION OF
30b
Claims (11)
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定するオプティカルフロー規定手段と、
前記オプティカルフローを、前記移動体ごとにグルーピングするグルーピング処理手段と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する第1演算手段と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する報知手段と、
を備える発進報知装置。 A first feature point included in a first image obtained by photographing a moving body stopped in front of the host vehicle and a second feature point corresponding to the first feature point included in a second image are extracted. Extraction means;
Optical flow defining means for defining an optical flow starting from the first feature point and ending at the second feature point;
Grouping processing means for grouping the optical flow for each moving object;
First computing means for calculating an area of a first region including optical flows grouped as optical flows related to the same moving body;
Informing means for informing the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
A start notification device.
前記報知手段は、前記第2領域の面積が閾値以下の場合に、前記自車の前方に停止した前記移動体の発進を報知する請求項1乃至3のいずれか一項に記載の発進報知装置。 A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
4. The start notification device according to claim 1, wherein when the area of the second region is equal to or less than a threshold value, the notification unit notifies the start of the moving body stopped in front of the host vehicle. .
前記報知手段は、前記第2領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進の報知を抑制する請求項1乃至3のいずれか一項に記載の発進報知装置。 A second computing unit that calculates an area of a second region that does not include the start point and the end point of the optical flow defined by the optical flow defining unit within a predetermined region;
The start according to any one of claims 1 to 3, wherein the notification means suppresses a start notification of the moving body that has stopped in front of the host vehicle when the area of the second region is equal to or greater than a threshold value. Notification device.
前記第2演算手段は、前記検出領域における前記所定の領域内において、前記第2領域の面積を算出する請求項4乃至8のいずれか一項に記載の発進報知装置。 The extraction means extracts the first feature point and the second feature point from detection areas of the first image and the second image,
The start notification device according to any one of claims 4 to 8, wherein the second calculation means calculates an area of the second region within the predetermined region in the detection region.
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する工程と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する工程と、
前記オプティカルフローを、前記移動体ごとにグルーピングする工程と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する工程と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する工程と、
を含む発進報知方法。 Extracting a first feature point included in a first image obtained by photographing a moving body stopped in front of the own vehicle;
Extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving body stopped in front of the host vehicle;
Defining an optical flow having the first feature point as a start point and the second feature point as an end point;
Grouping the optical flows for each of the moving objects;
Calculating an area of a first region including optical flows grouped as optical flows related to the same moving object;
A step of notifying the start of the moving body stopped in front of the host vehicle when the area of the first region is equal to or greater than a threshold;
A start notification method including:
自車の前方に停止した移動体を撮影して得られる第1画像に含まれる第1特徴点を抽出する手順と、
自車の前方に停止した移動体を撮影して得られる第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する手順と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローを規定する手順と、
前記オプティカルフローを、前記移動体ごとにグルーピングする手順と、
同一の前記移動体に関連するオプティカルフローとしてグルーピングされたオプティカルフローが含まれる第1領域の面積を算出する手順と、
前記第1領域の面積が閾値以上の場合に、前記自車の前方に停止した前記移動体の発進を報知する手順と、
を実行させるためのプログラム。 On the computer,
A procedure for extracting a first feature point included in a first image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for extracting a second feature point corresponding to the first feature point included in a second image obtained by photographing a moving object stopped in front of the host vehicle;
A procedure for defining an optical flow having the first feature point as a start point and the second feature point as an end point;
A procedure for grouping the optical flows for each of the moving objects;
A step of calculating an area of a first region including an optical flow grouped as an optical flow related to the same moving body;
When the area of the first region is equal to or greater than a threshold, a procedure for notifying the start of the moving body stopped in front of the host vehicle;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010163980A JP2012027595A (en) | 2010-07-21 | 2010-07-21 | Start notification device, start notification method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010163980A JP2012027595A (en) | 2010-07-21 | 2010-07-21 | Start notification device, start notification method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012027595A true JP2012027595A (en) | 2012-02-09 |
Family
ID=45780472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010163980A Pending JP2012027595A (en) | 2010-07-21 | 2010-07-21 | Start notification device, start notification method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012027595A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015170706A1 (en) * | 2014-05-07 | 2015-11-12 | 日本電産エレシス株式会社 | Traveling body detection method and program |
US20220080974A1 (en) * | 2020-09-17 | 2022-03-17 | Hyundai Motor Company | Vehicle and method of controlling the same |
-
2010
- 2010-07-21 JP JP2010163980A patent/JP2012027595A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015170706A1 (en) * | 2014-05-07 | 2015-11-12 | 日本電産エレシス株式会社 | Traveling body detection method and program |
US20220080974A1 (en) * | 2020-09-17 | 2022-03-17 | Hyundai Motor Company | Vehicle and method of controlling the same |
US11713044B2 (en) * | 2020-09-17 | 2023-08-01 | Hyundai Motor Company | Vehicle for estimation a state of the other vehicle using reference point of the other vehicle, and method of controlling the vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9245171B2 (en) | Gaze point detection device and gaze point detection method | |
JP6227318B2 (en) | Detection device for detecting obstacles and steep slopes, and vehicle equipped with the same | |
JP6239186B2 (en) | Display control apparatus, display control method, and display control program | |
US9158738B2 (en) | Apparatus for monitoring vicinity of a vehicle | |
US9317924B2 (en) | Information processing apparatus, three-dimensional position calculation method, and program | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP2007293627A (en) | Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle | |
US20160057354A1 (en) | Vehicular surrounding-monitoring control apparatus | |
JP6515704B2 (en) | Lane detection device and lane detection method | |
CN111976601B (en) | Automatic parking method, device, equipment and storage medium | |
JP2016206995A (en) | Image processing apparatus, image processing method, and program | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JPWO2016151976A1 (en) | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT | |
JP2018018234A (en) | Person detection device, person detection system, person detection method, and person detection program | |
JP5418427B2 (en) | Collision time calculation device, collision time calculation method and program | |
CN112381876B (en) | Traffic sign marking method and device and computer equipment | |
JP2016012303A (en) | Target article recognition apparatus | |
JP2012027595A (en) | Start notification device, start notification method and program | |
CN113569812A (en) | Unknown obstacle identification method and device and electronic equipment | |
Wakayama et al. | Estimation of the human performance for pedestrian detectability based on visual search and motion features | |
JPWO2014033885A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008077154A (en) | Vehicle periphery supervision unit | |
JP2011043922A (en) | Device and method for recognizing traveling object, and program | |
JP2015204021A (en) | Visual line detection device and visual line detection method | |
CN112348876B (en) | Space coordinate acquisition method and device for signboards |