JP2009169618A - Roadside interface detection device - Google Patents
Roadside interface detection device Download PDFInfo
- Publication number
- JP2009169618A JP2009169618A JP2008006228A JP2008006228A JP2009169618A JP 2009169618 A JP2009169618 A JP 2009169618A JP 2008006228 A JP2008006228 A JP 2008006228A JP 2008006228 A JP2008006228 A JP 2008006228A JP 2009169618 A JP2009169618 A JP 2009169618A
- Authority
- JP
- Japan
- Prior art keywords
- boundary surface
- road
- imaging
- feature point
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、路側境界面検出装置に係り、特に、カメラ等により撮像された画像から道路と路側の境界面を検出する路側境界面検出装置に関する。 The present invention relates to a roadside boundary surface detection device, and more particularly to a roadside boundary surface detection device that detects a road and a roadside boundary surface from an image captured by a camera or the like.
近年、車両の衝突や道路からの逸脱等の事故発生の危険性を判断したり、これらの事故を自動的に回避するため、撮像された画像から道路と路側の境界面を検出して車両が走行可能な道路の範囲を認識する技術が提案されている。 In recent years, in order to determine the risk of accidents such as vehicle collisions and deviations from the road, and to automatically avoid these accidents, the vehicle is detected by detecting the interface between the road and the roadside from the captured images. Techniques for recognizing the range of roads that can be driven have been proposed.
例えば、特許文献1には、複数のカメラを備えたステレオ光学系によって車外を撮像し、ステレオ光学系で撮像された画像を処理して画像全体に渡る距離分布を計算し、計算された距離分布の情報に対応する被写体の各部分の三次元位置を計算し、三次元位置の情報を用いて道路の形状と側壁を検出する技術が開示されている。
しかしながら、上記特許文献1の技術では距離分布を求めるため、複数のカメラを備えたステレオ光学系などの測距機構が必要であり、装置構成が煩雑となる、という問題点があった。 However, the technique disclosed in Patent Document 1 requires a distance measuring mechanism such as a stereo optical system including a plurality of cameras in order to obtain a distance distribution, and there is a problem that the apparatus configuration becomes complicated.
本発明は上記問題点を解決するためになされたものであり、簡易な構成で道路と路側の境界面を検出することができる路側境界面検出装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a road-side boundary surface detection device that can detect a road-road boundary surface with a simple configuration.
上記目的を達成するため、請求項1に記載の発明は、車両の前方、後方の一方、あるいはその両方を撮像する撮像手段と、前記撮像手段による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出する特徴点検出手段と、前記特徴点検出手段により検出された特徴点の分布状態に基づいて、前記車両が走行する道路と路側の境界面を特定する境界面特定手段と、を備えている。 In order to achieve the above object, the invention described in claim 1 is included in the image from an imaging unit that images one or both of the front and rear of the vehicle, and an image obtained by imaging by the imaging unit. A feature point detecting means for detecting a feature point indicating the shape of an object to be detected, and a boundary for identifying a road and a roadside boundary surface on which the vehicle travels based on a distribution state of the feature points detected by the feature point detecting means And surface specifying means.
請求項1記載の発明では、撮像手段により、車両の前方、後方の一方、あるいはその両方が撮像され、特徴点検出手段により、撮像手段による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点が検出され、境界面特定手段により、特徴点検出手段により検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面が特定される。 According to the first aspect of the present invention, one or both of the front and rear of the vehicle is imaged by the imaging means, and the object included in the image from the image obtained by the imaging by the imaging means by the feature point detection means The feature point indicating the shape of the vehicle is detected, and the boundary surface specifying unit specifies the road surface on which the vehicle travels and the road side boundary surface based on the distribution state of the feature point detected by the feature point detecting unit.
このように、請求項1記載の発明によれば、撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定しているので、ステレオ光学系などの測距機構を設けることなく、簡易な構成で道路と路側の境界面を検出することができる。 As described above, according to the first aspect of the present invention, the feature points indicating the shape of the object included in the image are detected from the image obtained by imaging, and based on the distribution state of the detected feature points, Since the boundary between the road on which the vehicle runs and the roadside is specified, the boundary between the road and the roadside can be detected with a simple configuration without providing a distance measuring mechanism such as a stereo optical system.
なお、本発明の特徴点検出手段は、請求項2記載の発明のように、撮像手段による撮像によって得られた画像に対してエッジ検出を行って前記特徴点として当該画像に含まれる物体のエッジ点を検出してもよい。 The feature point detection means of the present invention performs edge detection on an image obtained by imaging by the imaging means as in the second aspect of the invention, and detects an edge of an object included in the image as the feature point. A point may be detected.
また、本発明は、請求項3記載の発明のように、前記特徴点検出手段により検出された特徴点から前記路側に存在する柱状物体による特徴点を抽出する特徴点抽出手段をさらに備え、前記境界面特定手段が、前記特徴点抽出手段により抽出された特徴点の分布状態に基づいて、前記境界面を特定してもよい。 Further, the present invention, as in the invention of claim 3, further comprises a feature point extracting means for extracting a feature point by a columnar object existing on the road side from the feature points detected by the feature point detecting means, The boundary surface specifying unit may specify the boundary surface based on the distribution state of the feature points extracted by the feature point extracting unit.
また、請求項3記載の発明の特徴点抽出手段は、請求項4記載の発明のように、前記検出手段により検出された特徴点から垂直方向に連続的に並ぶ特徴点を各々グルーピングし、当該グルーピングされた特徴点を抽出することにより前記柱状物体による特徴点を抽出してもよい。 According to a third aspect of the present invention, the feature point extracting means groups the feature points successively arranged in the vertical direction from the feature points detected by the detecting means, as in the fourth aspect of the invention. The feature points by the columnar object may be extracted by extracting the grouped feature points.
また、本発明の前記境界面特定手段は、請求項5記載の発明のように、前記撮像手段による撮像によって得られた画像の前記道路が消失する消失点に相当する予め定められた位置を原点として、当該原点から予め定められた角度範囲内で当該原点より伸びる2本の直線の角度を変えつつ当該2本の直線の間となる領域内での前記特徴点の分布状態に基づいて、前記境界面を特定してもよい。 Further, the boundary surface specifying means of the present invention, as in the fifth aspect of the present invention, sets a predetermined position corresponding to a vanishing point at which the road disappears in an image obtained by imaging by the imaging means as an origin. Based on the distribution state of the feature points in a region between the two lines while changing the angle of the two lines extending from the origin within a predetermined angle range from the origin, The boundary surface may be specified.
また、請求項5記載の発明は、請求項6記載の発明のように、前記撮像手段による撮像によって得られた画像から前記道路領域を特定して当該道路が消失する消失点の位置を推定する消失点推定手段をさらに備え、前記境界面特定手段が、前記消失点推定手段により推定された消失点の位置を原点として、前記境界面を特定してもよい。 According to a fifth aspect of the invention, as in the sixth aspect of the invention, the road area is identified from an image obtained by imaging by the imaging means, and the position of the vanishing point at which the road disappears is estimated. A vanishing point estimating unit may be further provided, and the boundary surface specifying unit may specify the boundary surface using the position of the vanishing point estimated by the vanishing point estimating unit as an origin.
以上説明したように、本発明によれば、撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定しているので、簡易な構成で道路と路側の境界面を検出することができる、という優れた効果を有する。 As described above, according to the present invention, the feature point indicating the shape of the object included in the image is detected from the image obtained by imaging, and the vehicle is detected based on the distribution state of the detected feature point. Since the boundary surface between the road and the road side is specified, it has an excellent effect that the boundary surface between the road and the road side can be detected with a simple configuration.
以下、図面を参照して本発明の実施の形態について詳細に説明する。なお、以下では、本発明を、車両に搭載され、ドライバの運転支援を行うドライバ支援装置に適用した場合を例として説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Hereinafter, a case where the present invention is applied to a driver support device that is mounted on a vehicle and that supports driving of a driver will be described as an example.
[第1の実施の形態] [First Embodiment]
図1には、本実施の形態に係るドライバ支援装置10の概略構成が示されている。
FIG. 1 shows a schematic configuration of a
同図に示すように、ドライバ支援装置10は、所定の検出対象領域を連続的に撮像するカメラ12と、各種情報を表示するディスプレイ14と、カメラ12による撮像により得られた画像に基づいて各種の警告を行う装置本体20と、を含んで構成されている。
As illustrated in FIG. 1, the
なお、本実施の形態に係るカメラ12は、車両の前方グリルまたはバンパなどの車両の前方側に取り付けられており、車両の前方を撮像する。
The
図1に示すように、装置本体20は、ドライバ支援装置10全体の動作を司るCPU(中央処理装置)22と、CPU22による各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)24と、後述する境界面検出処理プログラムを含む各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)26と、各種情報を記憶するHDD(ハード・ディスク・ドライブ)28と、カメラ12の撮影動作を制御するカメラ制御部30と、ディスプレイ14への画面やメッセージなどの各種情報の表示を制御する表示制御部32と、運転者へ警告を行うためのスピーカ34と、を備えている。
As shown in FIG. 1, the apparatus
CPU22、RAM24、ROM26、HDD28、カメラ制御部30、表示制御部32、及びスピーカ34は、システムバスBUSを介して相互に接続されている。
The
従って、CPU22は、RAM24、ROM26、及びHDD28に対するアクセスと、カメラ制御部30を介してカメラ12の撮影動作の制御と、表示制御部32を介したディスプレイ14に対する各種情報の表示の制御と、スピーカ34からの音声の出力の制御と、を各々行うことができる。
Accordingly, the
図2には、本実施の形態に係るドライバ支援装置10の機能的な構成を示す機能ブロック図が示されている。
FIG. 2 is a functional block diagram showing a functional configuration of the
同図に示されるように、ドライバ支援装置10は、境界面検出部50と、警告表示制御部58と、を備えている。
As shown in the figure, the
カメラ制御部30は、境界面検出部50、及び警告表示制御部58と接続されており、カメラ12による撮影によって得られた画像を示す画像データを順次出力する。
The
同図に示すように、境界面検出部50は、特徴点検出部52と、境界面特定部56と、を備えている。
As shown in the figure, the boundary
特徴点検出部52には、カメラ制御部30、及び境界面特定部56と接続されており、カメラ制御部30から画像データが順次入力される。
The feature
特徴点検出部52は、カメラ制御部30から画像データが入力されると、当該画像データにより示される画像から当該画像内に含まれる物体の形状を示す特徴点を検出しており、本実施の形態では、撮像によって得られた画像に対して微分フィルタ(例えば、ソーベルフィルタ)などを用いてエッジ検出を行って特徴点として当該画像に含まれる物体の垂直エッジ点を検出する。なお、本実施の形態では、特徴点として垂直エッジ点を検出するものとしたが、物体の形状や輪郭を表わすものであれば、これに限定されるものではない。
When the image data is input from the
境界面特定部56は、警告表示制御部58と接続されている。
The boundary
境界面特定部56は、特徴点検出部52により検出された垂直エッジ点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定するものとしており、本実施の形態では、撮像によって得られた画像の道路が消失する消失点に相当する予め定められた位置を原点として、当該原点から予め定められた角度範囲内で当該原点より伸びる2本の直線の角度を変えつつ当該2本の直線の間となる領域内での垂直エッジ点の分布状態に基づいて、境界面を特定する。
The boundary
警告表示制御部58は、ディスプレイ14、及びスピーカ34と接続されており、カメラ制御部30から画像データが順次入力され、境界面特定部56から境界面の位置を示す位置情報が入力される。
The warning
警告表示制御部58は、カメラ制御部30から順次入力される画像データにより示される画像をディスプレイ14に表示させる。また、警告表示制御部58は、境界面特定部56より入力される位置情報に基づいて、車両が走行する道路と路側の境界面と車両との間隔を求め、境界面と車両との間隔が予め定められた閾値以下となった場合に、ディスプレイ14に表示される、当該位置情報により示される境界面の表示形態を変更(例えば、境界面を赤く表示)してドライバに対して警告を発生させるものとされている。なお、この際、スピーカ34から警告音や警告メッセージ等を出力するものとしもよい。
The warning
ところで、以上のように構成されたドライバ支援装置10の各構成要素(境界面検出部50(特徴点検出部52、境界面特定部56)及び警告表示制御部58)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。
By the way, the process by each component (the boundary surface detection part 50 (the feature
以下では、本実施の形態に係るドライバ支援装置10が、境界面検出処理プログラムを実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該境界面検出処理プログラムをROM26やHDD28に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。
Below, the case where the
次に、図3を参照して、本実施の形態に係るドライバ支援装置10の作用を説明する。なお、図3は、CPU22により実行される境界面検出処理プログラムの処理の流れを示すフローチャートである。当該境界面検出処理プログラムは、例えば、ドライバ支援装置10が搭載された車両のエンジンスイッチがオンされるなどによって図示しない車両制御装置から処理開始の指示信号が受信されるとCPU22により実行される。
Next, with reference to FIG. 3, the operation of the
同図のステップ100では、カメラ制御部30からの画像データの入力待ちを行う。
In
次のステップ102では、入力された画像データにより示される画像の濃度値の変化に基づいてエッジ検出を行い、当該画像に含まれる物体の垂直エッジ点を検出する。
In the
図4には、入力された画像データにより示される画像に対してエッジ検出を行った結果検出された垂直エッジ点が「×」印により示されている。 In FIG. 4, vertical edge points detected as a result of performing edge detection on the image indicated by the input image data are indicated by “x” marks.
次のステップ106では、撮像によって得られた画像の直線状の道路が消失する消失点に相当する予め定められた位置を原点Cとして、当該原点Cから境界面が存在すると予測される予め定められた角度範囲内で、原点Cより伸びる2本の直線を定める。
In the
次のステップ108では、2本の直線の間の領域内の垂直エッジ点の分布状態を示す値として、エッジ点数及びエッジ点密度を導出する。
In the
ここで、本実施の形態では、図4に示すように、境界面が存在すると予測される角度範囲及び2本の直線を、原点Cより伸びる所定の基準直線(本実施の形態では原点Cの垂線)との角度θによって定めており、境界面が存在すると予測される角度範囲は、{θmin、θmax}(θmin≦θmax(例えば、θmin=30°、θmax=85°))と表わされ、原点Cより伸びる2本の直線は、直線(θb)、直線(θt)(θmin≦θb<θt≦θmax)と表される。 Here, in the present embodiment, as shown in FIG. 4, an angle range in which a boundary surface is expected to exist and two straight lines are defined by a predetermined reference straight line extending from the origin C (in this embodiment, the origin C The angle range that is defined by the angle θ with respect to the vertical line and is predicted to have a boundary surface is represented as {θmin, θmax} (θmin ≦ θmax (for example, θmin = 30 °, θmax = 85 °)). The two straight lines extending from the origin C are represented as a straight line (θb) and a straight line (θt) (θmin ≦ θb <θt ≦ θmax).
本実施の形態は、この角度範囲{θmin、θmax}内で2本の直線(θb)、直線(θt)の角度を変えつつ、直線(θb)、直線(θt)の間となる領域内での垂直エッジ点のエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を導出している。本実施の形態では、上記ステップ106及びステップ108の処理によって、例えば、最初にθb=θminと一旦定め、当該θbからθmaxの範囲で所定角度(例えば、1°)ずつ角度を変えてθtを定めて、直線(θb)、直線(θt)の間となる領域内でのエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を導出し、当該θbからθmaxの間の範囲の上記所定角度ずつの全ての角度でエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)の導出が終ると、θbを上記所定角度だけ角度を変えて再度θbからθmaxの範囲でθtを定めてエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を求めることをθb=θmaxとなるまで繰り返すことにより、角度範囲{θmin、θmax}内において上記所定角度ずつ範囲が異なる全ての領域でエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)を導出している。
In the present embodiment, the angle between the two straight lines (θb) and (θt) is changed within the angle range {θmin, θmax}, and the region is between the straight lines (θb) and (θt). The number of edge points C (θb, θt) and the edge point density D (θb, θt) are derived. In the present embodiment, for example, first, θb = θmin is first determined by the processing of
次のステップ110では、所定角度ずつ範囲が異なる全ての領域でのエッジ点数C(θb,θt)及びエッジ点密度D(θb,θt)の導出されか否かを判定し、肯定判定となった場合はステップ112へ移行する一方、否定判定となったステップ106へ移行する。
In the
次のステップ112では、導出された各領域におけるエッジ点数C(θb,θt)及びエッジ点密度Dから以下の(1)式を用いて評価値F(θb,θt)を算出し、評価値Fが最大となるθb,θtを特定する。
In the
F(θb,θt)=α×C(θb,θt)+β×D(θb,θt)・・・(1) F (θb, θt) = α × C (θb, θt) + β × D (θb, θt) (1)
ここで、α、βは定数 Where α and β are constants
なお、上記α、βは、実機を用いた実験やコンピュータ・シミュレーション等により、適宜定めればよい。 Note that α and β may be appropriately determined by experiments using a real machine, computer simulation, or the like.
この評価値Fが最大となるθb,θtが車両が走行する道路と路側の境界面の位置を示している。 Θb and θt at which the evaluation value F is maximum indicate the position of the road and the boundary surface on the road side where the vehicle travels.
次のステップ114では、上記ステップ112において特定されたθb,θtに基づき、境界面と車両との間隔を求める。
In the next step 114, the distance between the boundary surface and the vehicle is obtained based on θb and θt specified in
次のステップ116では、ディスプレイ14に、カメラ制御部30から入力される画像データにより示される画像と共に、上記ステップ114において求めた境界面と車両との間隔が予め定められた閾値以下である場合、ドライバに対して警告を発生させる。
In the
次にステップ120では、例えば、車両のエンジンスイッチがオフされるなどによって図示しない車両制御装置から処理終了の指示信号が入力したか否かを判定し、否定判定となった場合はステップ100へ移行する一方、肯定判定となった場合は本境界面検出処理プログラムの処理が処理終了となる。
Next, in
以上のように、本実施の形態によれば、カメラ12による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定しているので、ステレオ光学系などの測距機構を設けることなく、簡易な構成で道路と路側の境界面を検出することができる。
As described above, according to the present embodiment, feature points indicating the shape of an object included in the image are detected from an image obtained by imaging by the
[第2の実施の形態] [Second Embodiment]
第2の実施の形態に係るドライバ支援装置10の電気系の要部構成は、上記第1の実施の形態(図1参照)と同一であるため、説明を省略する。
Since the main configuration of the electric system of the
図5には、本実施の形態に係るドライバ支援装置10の機能的な構成を示す機能ブロック図が示されている。なお、同図における図2と同一の処理部分には図2と同一の符号を付して、その説明を省略する。
FIG. 5 is a functional block diagram showing a functional configuration of the
本実施の形態に係る境界面検出部50は、特徴点抽出部54をさらに備えている。
The boundary
特徴点抽出部54は、特徴点検出部52、及び境界面特定部56と接続されている。
The feature
特徴点抽出部54は、特徴点検出部52により検出された垂直エッジ点から路側に存在する柱状物体による垂直エッジ点を抽出しており、本実施の形態では、特徴点検出部52により検出された垂直エッジ点から垂直方向に連続的に並ぶ垂直エッジ点を各々グルーピングし、当該グルーピングされた垂直エッジ点を抽出することにより柱状物体による垂直エッジ点を抽出している。
The feature
境界面特定部56は、特徴点抽出部54、及び警告表示制御部58と接続されている。
The boundary
境界面特定部56は、特徴点抽出部54により抽出された垂直エッジ点の分布状態に基づいて、境界面を特定する。
The boundary
次に、図6を参照して、本実施の形態に係る境界面検出処理プログラムの処理の流れについて説明する。なお、同図における図3と同一の処理部分には図3と同一の符号を付して、その説明を省略する。 Next, with reference to FIG. 6, the flow of processing of the boundary surface detection processing program according to the present embodiment will be described. In the figure, the same processing parts as those in FIG. 3 are denoted by the same reference numerals as those in FIG.
ステップ104では、ステップ102において検出されれた各垂直エッジ点を、図7に示すように、垂直方向に連続的に並ぶ垂直エッジ点毎に各々グルーピングし、当該グルーピングされた垂直エッジ点を柱状物体による垂直エッジ点として抽出する。
In
すなわち、上記ステップ102において検出されれた各垂直エッジ点には、様々な物体の輪郭を示す垂直エッジ点が含まれている。そこで、本実施の形態では、垂直方向に連続的に(例えば、3画素範囲以内)に並ぶ垂直エッジ点をグルーピングすることにより、柱状物体による垂直エッジ点を特定している。
That is, each vertical edge point detected in
そして、ステップ108では、2本の直線の間の領域内における上記ステップ104により抽出された垂直エッジ点のエッジ点数及びエッジ点密度を導出する。
In
以上のように、本実施の形態によれば、垂直方向に連続的に並ぶ垂直エッジ点毎に各々グルーピングし、当該グルーピングされた垂直エッジ点を抽出することにより、柱状物体による垂直エッジ点を精度良く検出できるため、道路と路側の境界面の検出精度が向上する。 As described above, according to the present embodiment, vertical edge points due to columnar objects are accurately obtained by grouping each vertical edge point continuously arranged in the vertical direction and extracting the grouped vertical edge points. Since it can be detected well, the detection accuracy of the boundary surface between the road and the road is improved.
なお、上記各実施の形態では、垂直エッジ点の分布状態を示す値として、エッジ点数及びエッジ点密度を導出する場合について説明したが、これに限定されるもではなく、例えば、エッジ点数又はエッジ点密度の一方のみを導出し、エッジ点数又はエッジ点密度が最も大きな値となるθb,θtを特定するものとしてもよい。また、垂直エッジ点の分布状態を示す値としてもエッジ点数又はエッジ点密度に限定されるもではない。 In each of the above embodiments, the case where the number of edge points and the edge point density are derived as values indicating the distribution state of the vertical edge points has been described. However, the present invention is not limited to this. Only one of the point densities may be derived, and θb and θt at which the number of edge points or the edge point density becomes the largest value may be specified. Further, the value indicating the distribution state of the vertical edge points is not limited to the number of edge points or the edge point density.
また、上記各実施の形態では、消失点に相当する原点Cの位置を予め定めている場合について説明したが、これに限定されるもではなく、例えば、図8に示すように、カメラ12による撮像によって得られた画像から道路領域を特定して当該道路が消失する消失点の位置を推定する消失点推定部60を設け、境界面特定部56が、消失点推定部60により推定された消失点の位置を原点として、境界面を特定してもよい。
In each of the above embodiments, the case where the position of the origin C corresponding to the vanishing point is determined in advance has been described. However, the present invention is not limited to this. For example, as shown in FIG. A vanishing
すなわち、消失点推定部60が撮像によって得られた画像から道路の白線や路側線を検出し、検出した白線や路側線を近似した直線あるいは曲線を求めて消失点の位置を推定するものとしてもよい。
That is, the vanishing
また、上記各実施の形態では、車両の前方を撮像する場合について説明したが、これに限定されるもではなく、例えば、車両の後方、あるいは車両の前方、後方の両方を撮像して得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出し、検出された特徴点の分布状態に基づいて、車両が走行する道路と路側の境界面を特定するようにしてもよい。 In each of the above embodiments, the case of imaging the front of the vehicle has been described. However, the present invention is not limited to this. For example, it is obtained by imaging the rear of the vehicle or both the front and rear of the vehicle. A feature point indicating the shape of an object included in the image may be detected from the captured image, and a road on which the vehicle travels and a road-side boundary surface may be identified based on the distribution state of the detected feature point. .
その他、上記各実施の形態で説明したドライバ支援装置10の電気系の要部構成(図1参照。)、及びドライバ支援装置10の機能的な構成(図2、図5、及び図8参照。)は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
In addition, the main configuration (see FIG. 1) of the electrical system of the
また、上記各実施の形態で説明した境界面検出処理プログラム(図3、及び図6参照。)の処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。 The processing flow of the boundary surface detection processing program (see FIGS. 3 and 6) described in the above embodiments is also an example, and can be changed as appropriate without departing from the gist of the present invention. Needless to say.
10 ドライバ支援装置
12 カメラ(撮像手段)
50 境界面検出部
52 特徴点検出部(特徴点検出手段)
54 特徴点抽出部(特徴点抽出手段)
56 境界面特定部(境界面特定手段)
60 消失点推定部(消失点推定手段)
10
50 Boundary
54 feature point extraction unit (feature point extraction means)
56 Boundary surface identification part (Boundary surface identification means)
60 Vanishing point estimation unit (vanishing point estimation means)
Claims (6)
前記撮像手段による撮像によって得られた画像から当該画像内に含まれる物体の形状を示す特徴点を検出する特徴点検出手段と、
前記特徴点検出手段により検出された特徴点の分布状態に基づいて、前記車両が走行する道路と路側の境界面を特定する境界面特定手段と、
を備えた路側境界面検出装置。 Imaging means for imaging one or both of the front and rear of the vehicle;
Feature point detection means for detecting a feature point indicating the shape of an object included in the image from an image obtained by imaging by the imaging means;
Based on the distribution state of the feature points detected by the feature point detection means, boundary surface specifying means for specifying the road surface on which the vehicle travels and the road-side boundary surface;
A roadside boundary surface detection device.
請求項1記載の路側境界面検出装置。 The roadside boundary surface detection according to claim 1, wherein the feature point detection means detects an edge point of an object included in the image as the feature point by performing edge detection on an image obtained by imaging by the imaging means. apparatus.
前記境界面特定手段は、前記特徴点抽出手段により抽出された特徴点の分布状態に基づいて、前記境界面を特定する
請求項1又は請求項2記載の路側境界面検出装置。 A feature point extracting means for extracting a feature point by a columnar object existing on the road side from the feature points detected by the feature point detecting means;
The road-side boundary surface detection device according to claim 1, wherein the boundary surface specifying unit specifies the boundary surface based on a distribution state of feature points extracted by the feature point extraction unit.
請求項3記載の路側境界面検出装置。 The feature point extracting unit groups feature points that are continuously arranged in the vertical direction from the feature points detected by the detecting unit, and extracts the feature points by the columnar object by extracting the grouped feature points. The road-side boundary surface detection device according to claim 3.
請求項1乃至請求項4の何れか1項記載の路側境界面検出装置。 The boundary surface specifying means uses the predetermined position corresponding to the vanishing point at which the road disappears in the image obtained by imaging by the imaging means as the origin, and the origin within a predetermined angle range from the origin. 5. The boundary surface is specified based on a distribution state of the feature points in a region between the two straight lines while changing an angle between the two straight lines extending further. The roadside boundary surface detection apparatus according to claim 1.
前記境界面特定手段は、前記消失点推定手段により推定された消失点の位置を原点として、前記境界面を特定する
請求項5記載の路側境界面検出装置。 Further comprising vanishing point estimating means for estimating the position of the vanishing point where the road disappears by specifying the road region from the image obtained by imaging by the imaging means,
The road-side boundary surface detection device according to claim 5, wherein the boundary surface specifying unit specifies the boundary surface with the position of the vanishing point estimated by the vanishing point estimation unit as an origin.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008006228A JP5012522B2 (en) | 2008-01-15 | 2008-01-15 | Roadside boundary surface detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008006228A JP5012522B2 (en) | 2008-01-15 | 2008-01-15 | Roadside boundary surface detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009169618A true JP2009169618A (en) | 2009-07-30 |
JP5012522B2 JP5012522B2 (en) | 2012-08-29 |
Family
ID=40970720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008006228A Expired - Fee Related JP5012522B2 (en) | 2008-01-15 | 2008-01-15 | Roadside boundary surface detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5012522B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014120167A (en) * | 2012-12-12 | 2014-06-30 | Ricoh Co Ltd | Method and apparatus for detecting parallax-directional continuous object by parallax diagram |
JP2015203993A (en) * | 2014-04-14 | 2015-11-16 | 本田技研工業株式会社 | object recognition device |
JP2018052461A (en) * | 2016-09-30 | 2018-04-05 | 株式会社デンソー | Region recognition device and region recognition method |
JP2020030466A (en) * | 2018-08-20 | 2020-02-27 | 株式会社Soken | Object detection device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5888275B2 (en) * | 2013-03-29 | 2016-03-16 | アイシン・エィ・ダブリュ株式会社 | Road edge detection system, method and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1186199A (en) * | 1997-09-10 | 1999-03-30 | Yazaki Corp | Method and device for detecting traffic lane |
JP2003030792A (en) * | 2001-07-12 | 2003-01-31 | Nissan Motor Co Ltd | Device and method for discriminating type of object |
WO2006098311A1 (en) * | 2005-03-15 | 2006-09-21 | Pioneer Corporation | Road scene map creating device, method, and program |
-
2008
- 2008-01-15 JP JP2008006228A patent/JP5012522B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1186199A (en) * | 1997-09-10 | 1999-03-30 | Yazaki Corp | Method and device for detecting traffic lane |
JP2003030792A (en) * | 2001-07-12 | 2003-01-31 | Nissan Motor Co Ltd | Device and method for discriminating type of object |
WO2006098311A1 (en) * | 2005-03-15 | 2006-09-21 | Pioneer Corporation | Road scene map creating device, method, and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014120167A (en) * | 2012-12-12 | 2014-06-30 | Ricoh Co Ltd | Method and apparatus for detecting parallax-directional continuous object by parallax diagram |
JP2015203993A (en) * | 2014-04-14 | 2015-11-16 | 本田技研工業株式会社 | object recognition device |
JP2018052461A (en) * | 2016-09-30 | 2018-04-05 | 株式会社デンソー | Region recognition device and region recognition method |
JP2020030466A (en) * | 2018-08-20 | 2020-02-27 | 株式会社Soken | Object detection device |
JP7135579B2 (en) | 2018-08-20 | 2022-09-13 | 株式会社Soken | Object detection device |
Also Published As
Publication number | Publication date |
---|---|
JP5012522B2 (en) | 2012-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4337929B2 (en) | Moving state estimation device | |
WO2013141226A1 (en) | Device and method for identifying travel section line | |
JP5058002B2 (en) | Object detection device | |
JP4687411B2 (en) | Vehicle peripheral image processing apparatus and program | |
JP4656456B2 (en) | Lane marking device, lane marking detection method, and lane marking detection program | |
JP2008219063A (en) | Apparatus and method for monitoring vehicle's surrounding | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP2011180982A (en) | Lane marker detecting apparatus | |
JP2007188417A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2012212282A (en) | Road surface state detection device, road surface state detection method, and road surface state detection program | |
US20150078619A1 (en) | System and method for detecting obstacles using a single camera | |
JP5012522B2 (en) | Roadside boundary surface detection device | |
JP4962304B2 (en) | Pedestrian detection device | |
JP2008059178A (en) | Operation support device and program | |
JP2007066003A (en) | Stop-line detection device | |
JP2007264717A5 (en) | ||
KR20170055738A (en) | Apparatus and method for recognize driving lane on image | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP4532372B2 (en) | Road marking line detection device | |
JP2018073275A (en) | Image recognition device | |
JP2009276906A (en) | Travelling information providing device | |
KR101568683B1 (en) | Method to estimate the distance between vehicles using image alalysis and apparatus therefor | |
JP2009181310A (en) | Road parameter estimation device | |
JP5914791B2 (en) | Collision detection device | |
TWI621073B (en) | Road lane detection system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120521 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150615 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5012522 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150615 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |