JP2006268865A - Navigation device - Google Patents
Navigation device Download PDFInfo
- Publication number
- JP2006268865A JP2006268865A JP2006105852A JP2006105852A JP2006268865A JP 2006268865 A JP2006268865 A JP 2006268865A JP 2006105852 A JP2006105852 A JP 2006105852A JP 2006105852 A JP2006105852 A JP 2006105852A JP 2006268865 A JP2006268865 A JP 2006268865A
- Authority
- JP
- Japan
- Prior art keywords
- road
- movement vector
- vehicle
- image
- road width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、走行中の車両において、撮像手段からの画像に基づいて道路端を求めるナビゲーション装置等の技術分野に属する。 The present invention belongs to a technical field such as a navigation device for obtaining a road edge based on an image from an imaging unit in a traveling vehicle.
従来から、移動体としての車両の現在位置を検出し、周辺の道路地図と共に検出された現在位置を表示画面に表示して経路案内を行うナビゲーション装置が広く用いられている。この種のナビゲーション装置においては、地図データが記憶された大容量の記録媒体を備えており、表示画面上の表示データを生成するために用いられる。記録媒体上の地図データには、道路形状に関するデータや表示用の各種データなどに加え、これに付随する道幅情報が含まれる。よって、走行中の道路に対応する道幅情報を読み出して、現在走行している道路の道幅を把握することができる。 2. Description of the Related Art Conventionally, navigation apparatuses that detect a current position of a vehicle as a moving body, display the detected current position together with a surrounding road map on a display screen, and perform route guidance have been widely used. This type of navigation device includes a large-capacity recording medium in which map data is stored, and is used to generate display data on a display screen. The map data on the recording medium includes road width information associated with the road shape data and various display data. Therefore, the road width information corresponding to the road on which the vehicle is traveling can be read and the road width of the currently traveling road can be grasped.
しかしながら、上記従来のナビゲーション装置では、地図データに含まれる道幅情報は正確な道幅を示すものではなく、例えば5.5m〜8mのように、その道路の概略の道幅を示すに過ぎなかった。よって、道路のポイントに対応したきめ細かく正確な道幅情報は取得することができなかった。 However, in the conventional navigation device described above, the road width information included in the map data does not indicate an accurate road width, but merely indicates an approximate road width of the road, for example, 5.5 m to 8 m. Therefore, detailed and accurate road width information corresponding to road points could not be acquired.
また、単に道路の道幅を知るだけではなく、道路端までの距離をリアルタイムに求め、これを車両の安全走行に役立てることへのニーズも強くなっている。一方、複数台のカメラを設置して三角測量の原理を応用すれば、立体的に距離を計測可能であり、道路端までの距離を求めることができるが、装置の構成が複雑となってコストアップの要因となる。 In addition to simply knowing the width of a road, there is an increasing need for obtaining a distance to a road edge in real time and using it for safe driving of a vehicle. On the other hand, if you install multiple cameras and apply the principle of triangulation, you can measure the distance three-dimensionally, and you can find the distance to the road edge. It becomes a factor of up.
そこで、本発明はこのような問題に鑑みなされたものであり、簡単な構成で、走行中の車両から撮像した画像に基づき壁面等の道路端までの距離及び道幅を求めることができる画像処理装置、及び、画像処理の結果に応じて、ドライバーに対し安全走行を確保するための警告や案内を行うことが可能なナビゲーション装置を提供することを目的とする。 Therefore, the present invention has been made in view of such a problem, and an image processing apparatus capable of obtaining a distance to a road edge such as a wall surface and a road width based on an image taken from a traveling vehicle with a simple configuration. Another object of the present invention is to provide a navigation device capable of giving a warning and guidance for ensuring safe driving to a driver according to the result of image processing.
上記課題を解決するために、請求項1に記載のナビゲーション装置は、車両前方を撮像して画像を出力する撮像手段と、前記画像中の物体の時間tからt+Δtの動きを示す移動ベクトルを前記車両の走行中に前記撮像手段にて得られる画像を比較することによって求める移動ベクトル検出手段と、前記検出された移動ベクトルに基づいて、前記走行中の道路の道路端までの余裕度を判定する余裕度判定手段と、前記余裕度判定手段の判定結果に基づいて、告知手段を制御する制御手段と、を備え、前記移動ベクトル検出手段の検出結果に基づいて前記撮像手段の撮像方向を校正する校正手段を有することを特徴とする。
In order to solve the above-mentioned problem, the navigation device according to
以下、本発明の好適な実施の形態を図面に基づいて説明する。以下の実施の形態においては、本発明を車両に搭載されるナビゲーション装置に適用した場合について説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the following embodiments, a case where the present invention is applied to a navigation device mounted on a vehicle will be described.
図1は、本実施形態に係るナビゲーション装置の概略構成を示す図である。図1に示すナビゲーション装置は、制御部11と、地図データ記憶部12と、道幅データ記憶部13と、センサ部14と、現在位置検出部15と、ディスプレイ16と、スピーカ17と、画像処理部18と、CCDカメラ19とを含んで構成されている。
FIG. 1 is a diagram illustrating a schematic configuration of a navigation device according to the present embodiment. 1 includes a
以上の構成において、制御部11は、ナビゲーション装置全体の動作を制御する。制御部11はCPU等からなり、図示しないROMに格納される制御プログラムを読み出して実行し、ナビゲーション装置の各構成要素に制御信号を送出すると共に、データを入出力する。
In the above configuration, the
地図データ記憶部12は、地図データを格納する記憶容量の大きなメモリであり、例えばCD−ROMやDVD−ROMが用いられる。地図データ記憶部12に格納される地図データは、道路形状データ、名称データ、背景データなどを含んで構成される。
The map
道幅データ記憶部13は、本発明に係る画像処理に伴って得られた車両走行中の道幅データを更新可能に記録するメモリである。上述の地図データ記憶部12の地図データにも簡易な道幅情報が含まれるが、道幅データ記憶部13に記憶される道幅データは更に詳細なデータであり、道路の位置に応じて変化する道幅を正確に求めたデータである。なお、道幅データの生成方法については後述する。
The road width
センサ部14は、車両の現在位置を検出するために必要な各種センサを含んでいる。具体的には、車両の速度を検出する車速センサや、車両の方位変化量を検出する方位センサや、GPS(Global Positioning System)衛星からの電波を受信するGPS受信部などを含んで構成される。
The
現在位置検出部15は、センサ部14からの出力信号に基づいて、車両の現在位置を算出し、現在位置データを出力する。なお、現在位置データは、制御部11によって前述の地図データと照合されて、マップマッチング処理等により補正される。
The current
ディスプレイ16には、制御部11の指示の下、地図データが種々の態様で表示されると共に、これに重畳して車両の現在位置がカーマークとして表示される。このディスプレイ16は、例えばCRT、液晶表示素子などから構成される。また、スピーカ17からは、車両の経路に沿った誘導情報が音声により出力されると共に、本発明に係る画像処理に関連して後述の案内音声が出力される。
On the display 16, map data is displayed in various modes under the instruction of the
画像処理部18は、車両に設置されるCCDカメラ19からの画像信号を解析して、本実施形態に係る画像処理を行う手段である。ここで、図2を用いて、画像処理部18の構成及び動作について説明する。
The
図2に示すように、画像処理部18は、A/Dコンバータ21と、第1画像メモリ22と、第2画像メモリ23と、移動ベクトル検出部24と、移動ベクトル処理部25を含んで構成されている。また、画像制御部18は、制御部11からの制御信号に従って動作する。
As shown in FIG. 2, the
図2において、A/Dコンバータ21は、CCDカメラ19によって撮像された画像に基づくアナログ画像信号をディジタル画像信号に変換する。通常、A/Dコンバータ21から出力されるディジタル画像信号は、所定のフレーム周期ごとに1つのフレーム画像データを構成し、連続する複数のフレーム画像データからなる。
In FIG. 2, an A /
第1画像メモリ22及び第2画像メモリ23は、それぞれA/Dコンバータ21から出力されるフレーム画像データを格納する。第1画像メモリ22は最新のフレーム画像データを格納し、第2画像メモリ23は1つ前のフレーム画像データを格納する。よって、画像処理部18では、常に最新の2フレーム分の画像データが保持されており、これらを用いて後述の処理が行われる。
The
移動ベクトル検出部24は、第1画像メモリ22及び第2画像メモリ23に格納されるフレーム画像データに基づいて、画像中の各領域ごとの移動ベクトルを検出する。この際、センサ部14から出力された車速データを用いる。
The movement
また、移動ベクトル処理部25は、移動ベクトル検出部24により検出された移動ベクトルに基づいて、走行道路の前方側における壁面等の道路端までの水平方向の距離及びこれに基づく道幅を求め、道幅データ等として出力する。
The movement
なお、移動ベクトル検出部24と移動ベクトル処理部25における処理の詳細については後述する。
Details of the processes in the movement
図1に戻って、本発明の撮像手段としてのCCDカメラ19は、車両の所定位置に設置され、車両の前方方向を撮像し、画像信号を出力する。ここで図3に、CCDカメラ19の車両への設置状態を示す。
Returning to FIG. 1, a
図3(a)は、車両上方から見たCCDカメラ19の設置状態を示す図である。図3(a)に示すように、CCDカメラ19は車両室内上部の中央付近に取付けられている。CCDカメラ19は、車両前方を真っ直ぐ向いて撮像可能な位置に固定される。
FIG. 3A is a diagram illustrating the installation state of the
また、図3(b)は、CCDカメラ19に関し、車両側方からから見た設置状態を撮像範囲と共に示す図である。図3(b)に示すように、CCDカメラ19は車両前方に向かって画角θの範囲を撮像する。通常、撮像された画像の中心を道路面に対し水平方向に一致させる。また、CCDカメラ19は、道路面からの高さHの位置に取付けられる。例えば、H=1.5(m)程度になる。
FIG. 3B is a diagram showing the installation state of the
次に、本実施形態に係る画像処理の原理について、図4〜図9を参照して説明する。 Next, the principle of image processing according to this embodiment will be described with reference to FIGS.
図4は、前述のCCDカメラ19により撮像された画像をピンホールカメラのモデルで表した図である。図4においては、CCDカメラ19の受光素子部に対応する画像平面P0と、レンズ部に対応する焦点面Fとが焦点距離fを隔てて平行に配置されている。焦点面Fのレンズ中心Cがピンホールに対応し、このレンズ中心Cを中心に空間座標系(X,Y,Z)を考える。一方、画像平面P0では、空間座標(0,0,−f)を画像中心cとして、カメラ座標系(x,y)を考える。
FIG. 4 is a diagram showing an image captured by the
ここで、空間座標系の点M(Xm,Ym,Zm)を考える。この点Mは、例えば図3(b)の視野内にある道路面や壁面上の所定の位置に対応させることができる。この点Mに対する中心射影を考えると、点Mから焦点面Fのレンズ中心Cを通って画像平面P0までが直線で結ばれ、カメラ座標系の点m(xm,ym)に射影される。このとき、点M(Xm,Ym,Zm)と射影された点m(xm,ym)の関係は次式で表される。
[数1]
xm = f・Xm/Zm
ym = f・Ym/Zm
Here, a point M (Xm, Ym, Zm) in the spatial coordinate system is considered. This point M can be made to correspond to a predetermined position on the road surface or wall surface within the field of view of FIG. Considering the central projection for this point M, the point M, the lens center C of the focal plane F, and the image plane P0 are connected by a straight line and projected onto the point m (xm, ym) of the camera coordinate system. At this time, the relationship between the point M (Xm, Ym, Zm) and the projected point m (xm, ym) is expressed by the following equation.
[Equation 1]
xm = f · Xm / Zm
ym = f · Ym / Zm
次に図5は、図4に対応して、空間座標系(X,Y,Z)と画像データのピクセル座標系(u,v)の関係を表した図である。図5においては簡単のため、図4の画像平面P0を焦点面Fの前方側に配置させると共に、カメラ座標系(x,y)のx軸、y軸をそれぞれ反転させてu軸、v軸とすることにより、ピクセル画像系(u,v)としたものである。図4の配置を図5の配置に置き換えても、互いに等価であるため、同様の関係が成り立つ。 Next, FIG. 5 is a diagram showing the relationship between the spatial coordinate system (X, Y, Z) and the pixel coordinate system (u, v) of the image data, corresponding to FIG. In FIG. 5, for simplicity, the image plane P0 in FIG. 4 is arranged in front of the focal plane F, and the x-axis and y-axis of the camera coordinate system (x, y) are inverted to obtain the u-axis and v-axis, respectively. Thus, the pixel image system (u, v) is obtained. Even if the arrangement in FIG. 4 is replaced with the arrangement in FIG. 5, the same relationship holds because they are equivalent to each other.
図5において、ピクセル画像系の画像平P1面は、水平方向の画素数Nwと垂直方向の画素数Nhの表示画像に対応しており、画像平面P1には全部でNw×Nhの画素が含まれる。一方、この画像平面P1は、サイズが横幅w、高さhとなるCCDカメラ19の受光領域に一致する。そして、図4と同様に空間座標系の点M(X,Y,Z)を考えると、図5に示すように、画像平面P1の点m(u,v)を通って焦点面Fのレンズ中心Cまで直線で結ばれる。
In FIG. 5, the image plane P1 surface of the pixel image system corresponds to a display image having the number of pixels Nw in the horizontal direction and the number of pixels Nh in the vertical direction, and the image plane P1 includes a total of Nw × Nh pixels. It is. On the other hand, the image plane P1 coincides with the light receiving area of the
ここで、図4と同様に、点mに対する中心射影を考えると、数1に対応して、点M(X,Y,Z)と射影された点m(u,v)の関係は次式で表される。
[数2]
u = (f・X/Z)・Nw/w
v = (f・Y/Z)・Nh/h
Here, in the same way as in FIG. 4, considering the central projection with respect to the point m, the relationship between the point M (X, Y, Z) and the projected point m (u, v) corresponding to
[Equation 2]
u = (f · X / Z) · Nw / w
v = (f · Y / Z) · Nh / h
すなわち、数2は、点m(u,v)の画像平面P1における画素位置を表している。数2において、uが水平方向の画素位置に対応し、vが垂直方向の画素位置に対応している。
That is,
本実施形態では、走行中の車両から撮像された画像を処理するので、画像平面P1内の物体の動きを想定する必要がある。そのため、画像平面P1におけるオプティカルフロー、すなわち移動ベクトルV(u,v)を求める必要がある。3次元空間の同一点の明るさIが一定に保たれる場合、次の時空間微分方程式が成り立つ。
[数3]
dI/dt = Ix・u+Iy・v+It = 0
ただし、それぞれ画像平面P1内において、Ixが水平方向の偏微分、Iyが垂直方向の偏微分、Itが時間軸方向の偏微分、u、vは上述の移動ベクトルVの水平方向、垂直方向の成分である。
In this embodiment, since an image captured from a running vehicle is processed, it is necessary to assume the movement of an object in the image plane P1. Therefore, it is necessary to obtain the optical flow in the image plane P1, that is, the movement vector V (u, v). When the brightness I of the same point in the three-dimensional space is kept constant, the following spatiotemporal differential equation holds.
[Equation 3]
dI / dt = Ix · u + Iy · v + It = 0
However, in the image plane P1, Ix is the partial differential in the horizontal direction, Iy is the partial differential in the vertical direction, It is the partial differential in the time axis direction, and u and v are the horizontal and vertical directions of the movement vector V described above. It is an ingredient.
次に、図6及び図7を用いて移動ベクトルVを求める方法について説明する。図6に示すように、時刻tにおける画像平面P1内に参照ブロックRを定義する。この参照ブロックRは、左上の画素prを起点として、u軸にm画素、v軸にn画素の範囲の矩形領域であり、全部でm×n個の画素を含んでいる。そして、画像平面P1を複数の参照ブロックRに分割し、各々の参照ブロックRごとに移動ベクトルVを求める。図6の例では、m=8、n=8となる参照ブロックRを示している。 Next, a method for obtaining the movement vector V will be described with reference to FIGS. As shown in FIG. 6, a reference block R is defined in the image plane P1 at time t. This reference block R is a rectangular area starting from the upper left pixel pr and having a range of m pixels on the u axis and n pixels on the v axis, and includes a total of m × n pixels. Then, the image plane P1 is divided into a plurality of reference blocks R, and a movement vector V is obtained for each reference block R. In the example of FIG. 6, a reference block R in which m = 8 and n = 8 is shown.
図7は、画像平面P1内の所定の参照ブロックRに対する移動ベクトルVの求め方を説明する図である。図7は、図6の時刻tからΔtが経過した時刻t+Δtにおける画像平面P1に対応する。そして、センサ部14からの車速データ等に基づいて、画像平面P1内の所定の領域を予めサーチ範囲Sとして定めておく。サーチ範囲Sは、u軸にM画素、v軸にN画素となる矩形領域であって、通常は、M、Nがm、nに比べると十分大きくなる。
FIG. 7 is a diagram for explaining how to obtain the movement vector V for a predetermined reference block R in the image plane P1. FIG. 7 corresponds to the image plane P1 at time t + Δt when Δt has elapsed from time t in FIG. A predetermined area in the image plane P1 is determined in advance as the search range S based on vehicle speed data from the
そして、サーチ範囲Sに対し、参照ブロックRと同サイズの比較ブロックCを所定の位置に定義する。サーチ範囲Sは参照ブロックRに比べサイズが十分大きいため、比較ブロックCの位置をサーチ範囲S内で少しづつ動かす必要がある。図7では、比較ブロックCは参照ブロックRと同様にm×nのサイズであり、参照ブロックの左上の画素prに対応する比較ブロックCの左上の画素pcを示している。最初はサーチ範囲Sの左上の画素を比較ブロックCの画素pcに設定し、その後はサーチ範囲Sの中で、u軸方向又はv軸方向に画素pcの位置を1画素づつ動かして、サーチ範囲S内に定義可能な全ての比較ブロックCについて後述の演算を行う。 Then, a comparison block C having the same size as the reference block R is defined in a predetermined position with respect to the search range S. Since the search range S is sufficiently larger than the reference block R, it is necessary to move the position of the comparison block C little by little within the search range S. In FIG. 7, the comparison block C has a size of m × n like the reference block R, and shows the upper left pixel pc of the comparison block C corresponding to the upper left pixel pr of the reference block. First, the upper left pixel of the search range S is set as the pixel pc of the comparison block C, and after that, within the search range S, the position of the pixel pc is moved by one pixel in the u-axis direction or the v-axis direction. The calculation described later is performed for all comparison blocks C that can be defined in S.
次いで、図6の時刻tにおける参照ブロックRと、図7の時刻t+Δtにおける比較ブロックCの間で相関値を求める。ここで、画素の集合である画像データでは、m×n個の全ての画素に濃度値を対応させているので、参照ブロックRと比較ブロックCの対応する画素ごとの濃度値の差分を求める。この濃度値の各画素ごとの差分に対し、m×n個の画素についての和をとれば、相関値を計算することができる。 Next, a correlation value is obtained between the reference block R at time t in FIG. 6 and the comparison block C at time t + Δt in FIG. Here, in the image data which is a set of pixels, the density value is made to correspond to all m × n pixels, and therefore the difference between the density values of the corresponding pixels of the reference block R and the comparison block C is obtained. The correlation value can be calculated by taking the sum of m × n pixels with respect to the difference in density value for each pixel.
そして、参照ブロックRに対し、サーチ範囲Sの中の全ての比較ブロックCとの間の相関値を求め、最小の相関値を与える比較ブロックCを探索する。例えば、図7に示す比較ブロックCが最小の相関値を与えるとする。 Then, the correlation value between all the comparison blocks C in the search range S is obtained for the reference block R, and the comparison block C that gives the minimum correlation value is searched. For example, assume that the comparison block C shown in FIG. 7 gives the minimum correlation value.
この場合は、図7に示すように、画像平面P1において、点線で示した時刻tにおける参照ブロックRから時刻t+Δtにおける比較ブロックCに向かうベクトルを移動ベクトルVとして決定することができる。 In this case, as shown in FIG. 7, a vector from the reference block R at time t indicated by the dotted line toward the comparison block C at time t + Δt on the image plane P1 can be determined as the movement vector V.
図7では1つの移動ベクトルVのみ示したが、実際には移動ベクトルVを、画像平面P1に定義可能な全ての参照ブロックRについて求める。これにより移動ベクトルVの空間的な分布を求める。そして、この移動ベクトルVの空間的な分布に基づいて後述の処理が行われる。 Although only one movement vector V is shown in FIG. 7, the movement vector V is actually obtained for all reference blocks R that can be defined on the image plane P1. Thereby, the spatial distribution of the movement vector V is obtained. Then, based on the spatial distribution of the movement vector V, processing described later is performed.
次に、図8〜図9を用いて、走行中の車両から撮像された画像における移動ベクトルの求め方、及び、車両から道路端までの距離、走行道路の道幅を算出する方法について説明する。 Next, using FIG. 8 to FIG. 9, a method for calculating a movement vector in an image captured from a running vehicle, a method for calculating the distance from the vehicle to the road edge, and the road width of the running road will be described.
図8は、CCDカメラ19から撮像した画像の一例を示す図である。図8では簡単のため、一定幅で直進する道路において両側の道路端に一定の高さの壁面があり、車両はセンターラインから所定距離だけ左側を走行している場合の画像を示している。また、道路面は、左側壁面と境界線BLで接し、右側壁面と境界線BRで接している。
FIG. 8 is a diagram illustrating an example of an image captured from the
図8に示すように、画像の中心をピクセル画像座標系(u,v)における原点(0,0)に対応させる。すなわち、画像の撮像方向が道路面及び壁面に対し平行になり、境界線BL、BRなどが交わる消失点が、原点(0,0)に合致する。また、画像の全体は、左上の点(−Nw/2,Nh/2)と、右上の点(Nw/2,Nh/2)と、左下の点(−Nw/2,−Nh/2)と、右下の点(Nw/2,−Nh/2)の4画素を頂点とする矩形領域である。後述の画像処理を行うに際して、CCDカメラ19の撮像方向や取り付け高さHを予め正確に校正しておく必要がある。ただし、原点(0,0)と消失点が一致しない場合でも、校正により消失点の位置を正確に特定できれば、本発明に係る画像処理を行うことができる。
As shown in FIG. 8, the center of the image is made to correspond to the origin (0, 0) in the pixel image coordinate system (u, v). That is, the vanishing point at which the image capturing direction is parallel to the road surface and the wall surface and the boundary lines BL, BR, etc. meet is the origin (0, 0). In addition, the entire image includes an upper left point (-Nw / 2, Nh / 2), an upper right point (Nw / 2, Nh / 2), and a lower left point (-Nw / 2, -Nh / 2). And a rectangular area having four pixels at the lower right point (Nw / 2, -Nh / 2) as vertices. When performing image processing to be described later, it is necessary to accurately calibrate the imaging direction and the mounting height H of the
図8において、画像中にv=VRで表される基準水平ラインLを設定する。基準水平ラインLは、道路面と左右両側の壁面を横切る位置、すなわち道路端と交差する位置に設定する必要があり、VRは負の値となる。例えば車両から10m前方の道路面上の相対位置に対応する画像位置に基準水平ラインLを設定すればよい。そして、図8において、時刻tから時刻t+Δtとなる間の基準水平ラインL上の移動ベクトルVを求める。Δtが経過するまで車両が一定距離だけ前方に進むと、基準水平ラインL上の撮像対象物はその分だけ車両に近づくので、基準水平ラインL上の移動ベクトルVのv成分は負の値となる。 In FIG. 8, a reference horizontal line L represented by v = VR is set in the image. The reference horizontal line L needs to be set at a position crossing the road surface and the left and right wall surfaces, that is, a position intersecting the road edge, and VR has a negative value. For example, the reference horizontal line L may be set at the image position corresponding to the relative position on the road surface 10 m ahead of the vehicle. Then, in FIG. 8, a movement vector V on the reference horizontal line L from time t to time t + Δt is obtained. When the vehicle advances forward by a certain distance until Δt elapses, the imaging object on the reference horizontal line L approaches the vehicle by that amount, so that the v component of the movement vector V on the reference horizontal line L is a negative value. Become.
基準水平ラインLを設定すべき車両との相対位置は、10mに限られず適切な距離に設定できる。ただし、車両に近づき過ぎると、左右の壁面を横切らない配置となって不適切となる。また、車両から離れ過ぎると、道路面と壁面を横切るとしても距離が大きくなり過ぎて、道路のカーブ等の形状変化による誤差が生じやすくなる。そのため、道路面と壁面に十分重なる範囲で車両にできるだけ近距離の相対位置に設定することが望ましい。 The relative position with respect to the vehicle on which the reference horizontal line L is to be set is not limited to 10 m and can be set to an appropriate distance. However, if it gets too close to the vehicle, it will become inappropriate because it does not cross the left and right wall surfaces. If the vehicle is too far away from the vehicle, the distance becomes too large even if the vehicle crosses the road surface and the wall surface, and errors due to changes in the shape of the road curve or the like are likely to occur. Therefore, it is desirable to set the relative position as close as possible to the vehicle within a range that sufficiently overlaps the road surface and the wall surface.
ここで、速度v0(m/秒)で走行している車両において、フレーム周期T(秒)でCCDカメラ19による撮像を行うとする。この場合、1フレーム間の車両の移動距離dは、
[数4]
d=v0・T(m)
と表すことができる。一方、車両の移動に伴い基準水平ラインLの移動ベクトルVは、消失点である原点(0,0)から放射状に向かうベクトルとなる。そして、移動ベクトルVの大きさは、基準水平ラインL上の撮像対象物と車両との距離が近いほど大きくなるように変化する。
Here, it is assumed that imaging is performed by the
[Equation 4]
d = v0 · T (m)
It can be expressed as. On the other hand, as the vehicle moves, the movement vector V of the reference horizontal line L becomes a vector that goes radially from the origin (0, 0) that is the vanishing point. And the magnitude | size of the movement vector V changes so that it may become large, so that the distance of the imaging target object on the reference | standard horizontal line L and a vehicle is near.
このとき、基準水平ラインLにおける移動ベクトルVの分布をとると、道路面と左右の壁面とでは異なるパターンに従って変化する。よって、移動ベクトルVのパターン変化を分析して、基準水平ラインLと境界線BL、BRとの交点の位置をそれぞれ求め、これに基づき車両の位置から左右の道路端までの距離DL、DRを算出し、更に走行道路の道幅RWを算出する。 At this time, when the distribution of the movement vector V in the reference horizontal line L is taken, the road surface and the left and right wall surfaces change according to different patterns. Therefore, by analyzing the pattern change of the movement vector V, the positions of the intersections of the reference horizontal line L and the boundary lines BL and BR are obtained, and based on this, the distances DL and DR from the vehicle position to the left and right road edges are calculated. Further, the road width RW of the traveling road is calculated.
ここで、図8の基準水平ラインLにおけるピクセル画像座標系(u,v)と実際の空間座標系(X,Y,Z)の関係について、図9を参照して説明する。図8の撮像対象物の奥行きを表すZは、数2に基づき次式で表される。
[数5]
Z = X・f・Nw/(u・w)
Here, the relationship between the pixel image coordinate system (u, v) and the actual spatial coordinate system (X, Y, Z) in the reference horizontal line L in FIG. 8 will be described with reference to FIG. Z representing the depth of the object to be imaged in FIG.
[Equation 5]
Z = X · f · Nw / (u · w)
図9(a)は、画像横軸のuに対する撮像位置から見た奥行きZの変化を示す図である。図9(a)において、変曲点PLは基準水平ラインLと境界線BLの交点に対応し、変曲点PRは基準水平ラインLと境界線BRの交点に対応する。図9(a)に示すように、道路面ではZが一定値となるのに対し、壁面では外側に行くほどZが小さくなっていく。すなわち、数5からわかるように、道路面では基準水平ラインLが水平面にあるため、uとXが比例し、Zは一定値となる。一方、左右の壁面では基準水平ラインLが垂直面にあるため、Xが固定値となって、Zはuに反比例して変化する。
FIG. 9A is a diagram illustrating a change in the depth Z as viewed from the imaging position with respect to u on the horizontal axis of the image. In FIG. 9A, the inflection point PL corresponds to the intersection of the reference horizontal line L and the boundary line BL, and the inflection point PR corresponds to the intersection of the reference horizontal line L and the boundary line BR. As shown in FIG. 9 (a), Z becomes a constant value on the road surface, whereas Z becomes smaller toward the outside on the wall surface. That is, as can be seen from
次に、図8の基準水平ラインLにおける高さYは、数2及び数5に基づき次式で表される。
[数6]
Y = Z・v・h/(f・Nh)
Next, the height Y in the reference horizontal line L in FIG. 8 is expressed by the following equation based on
[Equation 6]
Y = Z · v · h / (f · Nh)
図9(b)は、画像横軸のuに対する高さYの変化を示す図である。図9(b)においては、図9(a)と同様、変曲点PL及び変曲点PRの間の道路面では、Yが一定値となる。一方、壁面では外側に行くほどYが大きくなっていく。数6においてuが負の値となるので、図9(a)の場合と逆の変化になっている。 FIG. 9B is a diagram illustrating a change in the height Y with respect to u on the horizontal axis of the image. In FIG. 9 (b), Y is a constant value on the road surface between the inflection point PL and the inflection point PR, as in FIG. 9 (a). On the other hand, on the wall surface, Y increases as it goes outward. In Equation 6, since u is a negative value, the change is opposite to that in the case of FIG.
次に、図8の状態から車両がΔZ(m)進んだ場合を考える。このとき、図8の基準水平ラインLの垂直位置がΔv(ピクセル)動くとすると、ΔvとΔZの関係は、数6に基づき次式で表される。
[数7]
Δv = Y・f・Nh/((Z−ΔZ)・h)−Y・f・Nh/(Z・h)
Next, consider a case where the vehicle has advanced by ΔZ (m) from the state of FIG. At this time, if the vertical position of the reference horizontal line L in FIG. 8 moves by Δv (pixels), the relationship between Δv and ΔZ is expressed by the following equation based on Equation 6.
[Equation 7]
Δv = Y · f · Nh / ((Z−ΔZ) · h) −Y · f · Nh / (Z · h)
図9(c)は、画像横軸のuに対し、車両がΔZ(m)進んだ時のΔvの変化を示す図である。図9(c)においては、図9(a)、(b)と同様、変曲点PL及び変曲点PRの間の道路面では、Δvが一定値となる。一方、壁面では外側に行くほどΔvが小さくなっていく。従って、数7に示されるΔvの値に基づいて、後述の演算が行われる。 FIG. 9C is a diagram illustrating a change in Δv when the vehicle travels ΔZ (m) with respect to u on the horizontal axis of the image. In FIG. 9C, as in FIGS. 9A and 9B, Δv has a constant value on the road surface between the inflection point PL and the inflection point PR. On the other hand, on the wall surface, Δv becomes smaller toward the outside. Therefore, the calculation described later is performed based on the value of Δv shown in Equation 7.
なお、上述の例では道路端全体に壁面が存在する場合を説明したが、例えばガードレールのように部分的な壁面となる場であっても、移動ベクトルVが道路面とそれ以外の部分で変化する場合には、距離DL、DR、道幅RWを算出することができる。 In the above example, the case where the wall surface is present on the entire road edge has been described. However, even in the case of a partial wall surface such as a guard rail, the movement vector V changes between the road surface and other portions. In this case, the distances DL and DR and the road width RW can be calculated.
図10は、移動ベクトルVを数7に基づき評価して、車両から左右の道路端の壁面までの距離DL、DR等を算出する方法を示すフローチャートである。なお、以下の処理を行うに際しては、予めCCDカメラ19の撮像方向と取付け高さHを校正しておくものとする。
FIG. 10 is a flowchart showing a method for calculating the distances DL, DR and the like from the vehicle to the wall surfaces of the left and right road edges by evaluating the movement vector V based on Equation 7. In performing the following processing, it is assumed that the imaging direction and the mounting height H of the
図10の処理において、ステップS1では、上述のように、基準水平ラインLにおける移動ベクトルVを算出する。すなわち、連続する2つのフレーム画像データの画像を比較して、フレーム周期Tの間の基準水平ラインLにおける移動ベクトルVを算出する。 In the process of FIG. 10, in step S1, the movement vector V in the reference horizontal line L is calculated as described above. That is, the movement vector V in the reference horizontal line L during the frame period T is calculated by comparing two consecutive frame image data images.
ステップS2では、移動ベクトルVのv成分を評価して、数7に基づき基準水平ラインL上の左側の変曲点PLと右側の変曲点PRを抽出する。このとき、変曲点PLのu方向位置ulと変曲点PRのu方向位置urが得られるとする。 In step S2, the v component of the movement vector V is evaluated, and the left inflection point PL and the right inflection point PR on the reference horizontal line L are extracted based on Equation 7. At this time, it is assumed that the u-direction position ul of the inflection point PL and the u-direction position ur of the inflection point PR are obtained.
ステップS3では、抽出された変曲点PL、PRのそれぞれのu方向位置ul、urを空間座標のX方向位置に変換する。具体的には、数2に基づく次式を計算すればよい。
[数8]
X = u・Z・w/(Nw・f)
ただし、数8のZは、Z=−H・f・Nh/(v・h)である。数8に示されるXを、左右の変曲点PL、PRについて計算する。
In step S3, the u-direction positions ul and ur of the extracted inflection points PL and PR are converted into the X-direction positions of the spatial coordinates. Specifically, the following equation based on
[Equation 8]
X = u · Z · w / (Nw · f)
However, Z in Equation 8 is Z = −H · f · Nh / (v · h). X shown in Equation 8 is calculated for the left and right inflection points PL and PR.
ステップS4では、左側壁面までの距離DL、右側壁面までの距離DR、道幅RWを求める。すなわち、ステップS4にて計算結果に基づいて、左側の変曲点PLのX方向位置が距離DLに対応し、右側の変曲点PRのX方向位置が距離DRに対応する。これらを加えることにより道幅RWを、
[数9]
RW = DL+DR
と求めることができる。なお、距離DL、DRの相対的関係に基づいて車両位置を知ることができる。
In step S4, the distance DL to the left wall surface, the distance DR to the right wall surface, and the road width RW are obtained. That is, based on the calculation result in step S4, the X direction position of the left inflection point PL corresponds to the distance DL, and the X direction position of the right inflection point PR corresponds to the distance DR. By adding these, the road width RW is
[Equation 9]
RW = DL + DR
It can be asked. The vehicle position can be known based on the relative relationship between the distances DL and DR.
ステップS5では、カメラが車両の水平方向の中心に設置されていると考えて、左側壁面に対する余裕度MLと右側壁面に対する余裕度MRを次式により求める。
[数10]
ML = DL−W/2
MR = DR−W/2
ただし、Wは車両の横幅を表している。数10に示す左右の余裕度ML、MRは、後述のようにドライバーに警告を与える際の判断基準となる。
In step S5, assuming that the camera is installed at the center in the horizontal direction of the vehicle, a margin ML for the left wall surface and a margin MR for the right wall surface are obtained by the following equations.
[Equation 10]
ML = DL-W / 2
MR = DR-W / 2
However, W represents the width of the vehicle. The left and right margins ML and MR shown in Equation 10 serve as criteria for giving a warning to the driver as will be described later.
以上のステップS1〜ステップS5の処理は、移動ベクトルVのv成分を評価することにより行うものであるが、移動ベクトルVのu成分も、同様に変曲点PL、PRで特性が変わるので、これを評価して上述の処理を行うようにしてもよい。 The processes in steps S1 to S5 described above are performed by evaluating the v component of the movement vector V. However, the characteristics of the u component of the movement vector V change similarly at the inflection points PL and PR. You may make it evaluate the above and perform the above-mentioned processing.
なお、算出された道幅RWに対応する道幅データを地図データと関連づけて道幅データ記憶部13に更新可能に記憶すれば、後述の各種の処理に利用することができる。
In addition, if the road width data corresponding to the calculated road width RW is associated with the map data and stored in the road width
更に、上述の画像処理における各数値の具体例としては、焦点距離f=4(mm)、水平方向の画素数Nw=320(ピクセル)、受光領域の横幅w=4(mm)、フレーム周期T=1/30(秒)程度になる。 Further, as specific examples of each numerical value in the above image processing, the focal length f = 4 (mm), the number of pixels in the horizontal direction Nw = 320 (pixels), the lateral width w of the light receiving region = 4 (mm), the frame period T = 1/30 (second).
次に、本実施形態に係るナビゲーション装置における具体的な画像処理に関し、図11及び図12を参照して説明する。図11は、走行中の車両が道路端に近接するのを防止するための処理を示すフローチャートであり、図12は、複数車線の道路を走行中の車両が設定経路に対し適正な車線を走行させるための処理を示すフローチャートである。なお、図11及び図12は、主に制御部11の制御に従って行われる処理である。
Next, specific image processing in the navigation device according to the present embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart illustrating a process for preventing a traveling vehicle from approaching the road edge. FIG. 12 illustrates a vehicle traveling on a multi-lane road traveling in an appropriate lane with respect to the set route. It is a flowchart which shows the process for making it do. 11 and 12 are processes mainly performed according to the control of the
図11に示す処理が開始されると、上述のような画像処理部18の処理により、両側の壁面までの距離DL、DRが求められ、これに基づき数9に従って道幅RWが算出され、更に数10に従って左右の壁面に対する余裕度ML、MRが算出される(ステップS11)。そして、ステップS11にて算出された道幅RWに対応する道幅データは、地図データと関連づけられて道幅データ記憶部13に書き込まれる(ステップS12)。このとき、予め設定された道路上の所定のポイントにおいて、道幅データの書き込みを行うようにしてもよい。
When the process shown in FIG. 11 is started, the distances DL and DR to the wall surfaces on both sides are obtained by the process of the
次いで、ステップS11において得られた余裕度ML、MRに基づいて、走行中の車両が道路端に寄り過ぎているか否かが判断される(ステップS13)。すなわち、基準となる所定の値を設定しておき、余裕度ML又はMRがこの所定の値より小さくなるとき、車両が道路端に寄り過ぎであると判断すればよい。 Next, based on the margins ML and MR obtained in step S11, it is determined whether or not the traveling vehicle is too close to the road edge (step S13). That is, a predetermined value serving as a reference is set, and when the margin ML or MR is smaller than the predetermined value, it may be determined that the vehicle is too close to the road edge.
ステップS13の判断結果が「YES」である場合、車両が道路端に寄り過ぎであることをドライバーに警告する(ステップS14)。例えば、道路端に寄り過ぎである旨を示す所定のメッセージを、スピーカ17から音声として出力すればよい。あるいは、同様のメッセージ又は表示記号等をディスプレイ16に表示してもよい。
If the determination result in step S13 is “YES”, the driver is warned that the vehicle is too close to the road edge (step S14). For example, a predetermined message indicating that the vehicle is too close to the road edge may be output as sound from the
ステップS13の判断結果が「NO」である場合、あるいはステップS14を終えると、車両が走行中であるか否かを判断する(ステップS15)。車両が走行中でない場合(ステップS15;NO)、画像処理を行う必要がないので処理を終える。一方、車両がまだ走行中である場合(ステップS15;YES)、ステップS11〜ステップS15の処理を繰り返す。 When the determination result of step S13 is “NO”, or when step S14 is finished, it is determined whether or not the vehicle is traveling (step S15). If the vehicle is not running (step S15; NO), the processing is terminated because there is no need to perform image processing. On the other hand, when the vehicle is still running (step S15; YES), the processes of steps S11 to S15 are repeated.
ナビゲーション装置において、以上のステップS11〜ステップS15の処理を行うことにより、常に正確な道幅RWをリアルタイムに求めることができる。そして、道路左右の壁面までの距離DL、DRを監視し、走行中の車両が道路端に寄り過ぎた時に、つまり、車両が道路端に近接し過ぎて余裕がない状態を検知したときに、ドライバーに警告を行うようにしたので、ドライバーの運転を補助して走行中の安全を確保することができる。また、道幅データを道幅データ記憶部13に適宜に書き込むようにしたので、後に同じ道路を走行する場合、有効に道幅データを活用することが可能となる。
In the navigation device, the accurate road width RW can always be obtained in real time by performing the processes in steps S11 to S15. And when the distances DL and DR to the left and right wall surfaces of the road are monitored, when the running vehicle is too close to the road edge, that is, when the vehicle is too close to the road edge and has no room, Since the driver is warned, the driver's driving can be assisted to ensure safety during traveling. In addition, since the road width data is appropriately written in the road width
次に、図12に示す処理は、ナビゲーション装置に所望の目的地が設定され、経路が判断される状況下にて行われる。まず、ステップS11と同様にして、両側の壁面までの距離DL、DRが求められ、更に道幅RWが算出される(ステップS21)。 Next, the process shown in FIG. 12 is performed in a situation where a desired destination is set in the navigation device and a route is determined. First, as in step S11, distances DL and DR to the wall surfaces on both sides are obtained, and a road width RW is calculated (step S21).
そして、地図データ記憶部12の地図データに含まれる走行中の車線に対する車線情報を読み出す(ステップS22)。この車線情報は、走行中の道路が何車線であるを示す情報であるため、車線情報に基づき走行中の道路が複数車線であるか否かを判断する(ステップS23)。
And the lane information with respect to the running lane contained in the map data of the map
ステップS23の判断結果が「YES」である場合、ステップS21の判断結果に基づいて、複数車線のうち現在どの車線を走行中であるかを判定する(ステップS24)。この判定は、ステップS11にて求めた車両の両側の壁面までの距離DLとDRとの比に基づいて行うことができる。 When the determination result of step S23 is “YES”, it is determined which lane is currently traveling among the plurality of lanes based on the determination result of step S21 (step S24). This determination can be made based on the ratio between the distance DL to the wall surfaces on both sides of the vehicle obtained in step S11 and DR.
続いて、ステップS24で判定された車線が、目的地に達する経路に対応して適正な車線であるか否かを判断する(ステップS25)。すなわち、例えば3車線の道路を走行している場合を例にとると、一般的には前方で右折するときは右側の車線が適正となり、前方で左折するときは左側の車線が適正となり、そのまま直進するときは何れの車線であってもよいことになる。あるいは予め左折、右折時の適正車線の情報を設定しておいてもよい。 Subsequently, it is determined whether or not the lane determined in step S24 is an appropriate lane corresponding to the route reaching the destination (step S25). In other words, for example, when driving on a three-lane road, the right lane is generally appropriate when making a right turn ahead, and the left lane is appropriate when making a left turn ahead. When going straight, it may be any lane. Or you may set the information of the appropriate lane at the time of the left turn and the right turn beforehand.
ステップS25の判定の結果、車両が適正な車線を走行している場合は(ステップS25;YES)処理を終える。一方、車両が適正ではない車線を走行している場合は(ステップS25;NO)、ドライバーに車線変更の案内を指示する(ステップS26)。例えば、右折ポイントの手前で左側の車線を走行している場合、もう2車線右に移動することをドライバーに促す旨のメッセージを、スピーカ17から音声として出力し、あるいはディスプレイ16に表示すればよい。
If the result of determination in step S25 is that the vehicle is traveling in an appropriate lane (step S25; YES), processing is terminated. On the other hand, if the vehicle is traveling in an inappropriate lane (step S25; NO), the driver is instructed to change lanes (step S26). For example, when driving in the left lane in front of the right turn point, a message prompting the driver to move to the right of the second lane may be output as a voice from the
ナビゲーション装置において、以上のステップS21〜ステップS26の処理を行うことにより、複数車線の道路において車両が位置する車線をリアルタイムに判定することができる。そして、右折や左折等を行うために適正な車線に位置しない場合のみ、ドライバーに車線変更の案内を行うようにしたので、必要な場合のみ案内が行われ、既に適正な車線を走行している場合は、不要な案内が行われずに済む。そのため、利便性が高く、ドライバーにとって一層快適なナビゲーションが実現可能となる。 In the navigation device, by performing the processes in steps S21 to S26 described above, it is possible to determine in real time the lane in which the vehicle is located on a road with a plurality of lanes. And only when it is not in the proper lane to make a right turn or left turn, etc., the driver is instructed to change lanes, so the guidance is given only when necessary and the vehicle is already driving in the proper lane In this case, unnecessary guidance can be avoided. Therefore, it is possible to realize navigation that is highly convenient and more comfortable for the driver.
なお、図12の例では、車両が適正ではない車線を走行しているときにのみ車線変更の案内を指示する場合、すなわち、適正な車線を走行しているときに車線変更の案内を指示しない場合を説明したが、これに限られず、車両が適正な走行しているとき、何らかの案内を行うようにしてもよい。例えば、適正な車線を走行中に、「このままの車線を維持して下さい」などの案内を音声等により出力してもよい。これにより、運転中のドライバーに適正な車線を走行していることを把握させて安心感を与えることができる。 In the example of FIG. 12, guidance for lane change is instructed only when the vehicle is traveling in an inappropriate lane, that is, guidance for lane change is not instructed when traveling in an appropriate lane. Although the case has been described, the present invention is not limited to this, and some guidance may be performed when the vehicle is traveling appropriately. For example, while traveling in an appropriate lane, guidance such as “Please keep the lane as it is” may be output by voice or the like. As a result, it is possible to give a driver a sense of security by grasping that the driver is driving in an appropriate lane.
ここで、本実施形態におけるCCDカメラ19の校正方法について説明する。上述したように、良好な精度で画像処理を行うためにCCDカメラ19の校正が必要となる。特にCCDカメラ19の撮像方向がずれると、道幅RW等を正確に求められなくなる。従って、CCDカメラ19の取付け時に撮像方向や取付け高さHを計測し、これらの値を設定しておくことにより校正を行う。あるいは、カメラ取付け時だけではなく、CCDカメラ19を撮像に用いつつ、その画像に基づき随時校正を行ってもよい。この場合、校正すべき各パラメータを統計的に求める必要がある。
Here, a calibration method of the
また、CCDカメラ19により撮像された画像中の移動ベクトルVを、撮像方向の校正に利用することができる。すなわち、移動ベクトルVを画像の広い範囲にわたって求めると、その方向は消失点に向かう。移動ベクトルVの誤差等を考慮して平均化することにより、消失点を特定して、対応する画素位置を決定すれば、撮像方向を校正することができる。
Further, the movement vector V in the image captured by the
以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。 As described above, the present invention has been described based on the embodiments, but the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. It can be guessed.
以上説明したように、上記実施形態に係るナビゲーション装置によれば、車両前方を撮像して、撮像された画像中の物体の時間tからt+Δtの動きを示す移動ベクトルを車両の走行中にCCDカメラ19にて得られる画像を比較することによって求め、当該検出された移動ベクトルに基づいて、走行中の道路の道路端までの余裕度を判定し、この判定結果に基づいて、ドライバーに告知させる(例えば、判定された余裕度が所定の基準値より小さい場合、車両が道路端に近接したことを告知手段に告知させる)ようにしたので、ドライバーに対し安全走行を確保するための警告や案内を行うことができる。更に、上記移動ベクトルの検出結果に基づいてCCDカメラ19の撮像方向を校正(例えば、消失点を定めることにより撮像方向を校正)するようにしたので、CCDカメラ19の取付け状態のばらつきを考慮した画像処理が行われると共に、当該構成に移動ベクトルを利用すればよいため、簡易な校正方法を提供することができる。
As described above, according to the navigation device according to the above-described embodiment, the front of the vehicle is imaged, and the movement vector indicating the movement from the time t to t + Δt of the object in the captured image is displayed while the vehicle is traveling. 19 is determined by comparing the images obtained, and based on the detected movement vector, the margin to the road edge of the running road is determined, and the driver is notified based on the determination result ( For example, if the determined margin is smaller than a predetermined reference value, the notification means is notified that the vehicle has approached the road edge), so the driver is given warnings and guidance to ensure safe driving. It can be carried out. Furthermore, since the imaging direction of the
なお、走行中の道路の道路端は、CCDカメラ19より得られる画像中に設けた基準水平ライン上の移動ベクトルの空間的な分布を検出し、当該分布を構成する各移動ベクトルの変化量より基準水平ライン上の左右の道路端に対応する変曲点を特定し、この変曲点に基づいて求められる。つまり、画像中に設定された基準水平ラインにおける移動ベクトルは、道路面及び道路端の構造物にそれぞれ対応する画素部分では特性が異なるため、移動ベクトルの変曲点を求めることにより道路端を判別でき、道路端までの距離が算出できる。
The road edge of the running road detects the spatial distribution of the movement vector on the reference horizontal line provided in the image obtained from the
また、上記ナビゲーション装置によれば、上記検出された移動ベクトルに基づいて、走行中の道路の道幅を算出し、当該算出された道幅に対応する道幅データを地図データと関連付けて記憶するようにしたので、車両が走行した道路の道幅データを保持し、その後、再び同じ道路を通ったときに活用できるので、ナビゲーション装置の機能を支援することができる。 Further, according to the navigation device, the road width of the running road is calculated based on the detected movement vector, and the road width data corresponding to the calculated road width is stored in association with the map data. Therefore, since the road width data of the road on which the vehicle has traveled is stored and can be used when the vehicle again passes through the same road, the function of the navigation device can be supported.
また、上記ナビゲーション装置によれば、上記検出された移動ベクトルと、上記地図データに含まれる車線数の情報と、算出された道路端までの道幅と、目的地までの経路とに基づいて、走行すべき適切(適正)な車線を告知するようにしたので、最適経路に対応する車線を走行させるためドライバーの注意を喚起することができ、快適なナビゲーション機能を実現できる。 Further, according to the navigation device, the vehicle travels based on the detected movement vector, information on the number of lanes included in the map data, the calculated road width to the road edge, and the route to the destination. Since an appropriate (appropriate) lane to be announced is announced, the driver can be alerted to drive the lane corresponding to the optimal route, and a comfortable navigation function can be realized.
以上のように、簡単な構成で、走行車両の安全確保や道幅データの取得など、車両の安全性と利便性を高めることが可能となり、本願をナビゲーション装置に適用すれば、車両の道路端近接時のドライバーへの告知、車線判定に基づく車線変更の告知、道幅データの記憶などにより、ナビゲーション装置を支援して機能向上を図ることが可能となる。 As described above, with a simple configuration, it becomes possible to improve the safety and convenience of the vehicle, such as ensuring the safety of the traveling vehicle and acquiring the road width data. It is possible to support the navigation device and improve the function by notifying the driver at the time, notifying the lane change based on the lane determination, storing the road width data, and the like.
11…制御部
12…地図データ記憶部
13…道幅データ記憶部
14…センサ部
15…現在位置検出部
16…ディスプレイ
17…スピーカ
18…画像処理部
19…CCDカメラ
21…A/Dコンバータ
22…第1画像メモリ
23…第2画像メモリ
24…移動ベクトル検出部
25…移動ベクトル処理部
V…移動ベクトル
L…基準水平ライン
PL、PR…変曲点
DESCRIPTION OF
Claims (5)
前記画像中の物体の時間tからt+Δtの動きを示す移動ベクトルを前記車両の走行中に前記撮像手段にて得られる画像を比較することによって求める移動ベクトル検出手段と、
前記検出された移動ベクトルに基づいて、前記走行中の道路の道路端までの余裕度を判定する余裕度判定手段と、
前記余裕度判定手段の判定結果に基づいて、告知手段を制御する制御手段と、
を備え、
前記移動ベクトル検出手段の検出結果に基づいて前記撮像手段の撮像方向を校正する校正手段を有することを特徴とするナビゲーション装置。 Imaging means for imaging the front of the vehicle and outputting an image;
A movement vector detecting means for obtaining a movement vector indicating the movement of the object in the image from time t to t + Δt by comparing images obtained by the imaging means during traveling of the vehicle;
Based on the detected movement vector, margin determining means for determining a margin to the road edge of the traveling road,
Control means for controlling the notification means based on the determination result of the margin determination means;
With
A navigation apparatus comprising calibration means for calibrating an imaging direction of the imaging means based on a detection result of the movement vector detection means.
前記余裕度判定手段は、前記分布を構成する各移動ベクトルの変化量より前記基準水平ライン上の左右の道路端に対応する変曲点を特定し、この変曲点に基づいて前記走行中の道路の道路端までの余裕度を判定することを特徴とする請求項1に記載のナビゲーション装置。 The movement vector detection means detects a spatial distribution of the movement vector on a reference horizontal line provided in an image obtained from the imaging means,
The margin determination means identifies an inflection point corresponding to the left and right road edges on the reference horizontal line from the amount of change of each movement vector constituting the distribution, and based on the inflection point, The navigation device according to claim 1, wherein a margin to a road edge of the road is determined.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006105852A JP2006268865A (en) | 2006-04-07 | 2006-04-07 | Navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006105852A JP2006268865A (en) | 2006-04-07 | 2006-04-07 | Navigation device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21127399A Division JP3808242B2 (en) | 1999-07-26 | 1999-07-26 | Image processing apparatus, image processing method, and navigation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006268865A true JP2006268865A (en) | 2006-10-05 |
Family
ID=37204676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006105852A Pending JP2006268865A (en) | 2006-04-07 | 2006-04-07 | Navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006268865A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009115679A (en) * | 2007-11-08 | 2009-05-28 | Alpine Electronics Inc | In-vehicle navigation device |
JP2010215146A (en) * | 2009-03-18 | 2010-09-30 | Denso It Laboratory Inc | Directional horn control device |
KR101251929B1 (en) * | 2011-09-20 | 2013-04-08 | 주식회사 미동전자통신 | A method for saving of moving picture in car blackbox |
WO2019159230A1 (en) * | 2018-02-13 | 2019-08-22 | 三菱電機株式会社 | Position/attitude estimation device and position/attitude estimation method |
WO2019215979A1 (en) * | 2018-05-10 | 2019-11-14 | ソニー株式会社 | Image processing device, vehicle-mounted device, image processing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01217210A (en) * | 1988-02-26 | 1989-08-30 | Mazda Motor Corp | Navigator for vehicle |
JPH06162398A (en) * | 1992-11-27 | 1994-06-10 | Matsushita Electric Ind Co Ltd | Traffic lane detecting device, traffic lane deviation warning device and collision warning device |
JPH0750769A (en) * | 1993-08-06 | 1995-02-21 | Yazaki Corp | Backward side supervising method for vehicle |
JPH07129889A (en) * | 1993-10-29 | 1995-05-19 | Aqueous Res:Kk | Navigation device |
JPH09152348A (en) * | 1995-12-01 | 1997-06-10 | Pioneer Electron Corp | Car navigation device |
JPH09189517A (en) * | 1996-01-09 | 1997-07-22 | Toyota Motor Corp | Imaging device |
JPH09270098A (en) * | 1996-04-02 | 1997-10-14 | Mitsubishi Motors Corp | Lane deviation warning device |
-
2006
- 2006-04-07 JP JP2006105852A patent/JP2006268865A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01217210A (en) * | 1988-02-26 | 1989-08-30 | Mazda Motor Corp | Navigator for vehicle |
JPH06162398A (en) * | 1992-11-27 | 1994-06-10 | Matsushita Electric Ind Co Ltd | Traffic lane detecting device, traffic lane deviation warning device and collision warning device |
JPH0750769A (en) * | 1993-08-06 | 1995-02-21 | Yazaki Corp | Backward side supervising method for vehicle |
JPH07129889A (en) * | 1993-10-29 | 1995-05-19 | Aqueous Res:Kk | Navigation device |
JPH09152348A (en) * | 1995-12-01 | 1997-06-10 | Pioneer Electron Corp | Car navigation device |
JPH09189517A (en) * | 1996-01-09 | 1997-07-22 | Toyota Motor Corp | Imaging device |
JPH09270098A (en) * | 1996-04-02 | 1997-10-14 | Mitsubishi Motors Corp | Lane deviation warning device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009115679A (en) * | 2007-11-08 | 2009-05-28 | Alpine Electronics Inc | In-vehicle navigation device |
JP2010215146A (en) * | 2009-03-18 | 2010-09-30 | Denso It Laboratory Inc | Directional horn control device |
KR101251929B1 (en) * | 2011-09-20 | 2013-04-08 | 주식회사 미동전자통신 | A method for saving of moving picture in car blackbox |
WO2019159230A1 (en) * | 2018-02-13 | 2019-08-22 | 三菱電機株式会社 | Position/attitude estimation device and position/attitude estimation method |
JPWO2019159230A1 (en) * | 2018-02-13 | 2020-02-27 | 三菱電機株式会社 | Position and orientation estimation apparatus and position and orientation estimation method |
WO2019215979A1 (en) * | 2018-05-10 | 2019-11-14 | ソニー株式会社 | Image processing device, vehicle-mounted device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3808242B2 (en) | Image processing apparatus, image processing method, and navigation apparatus | |
US6249214B1 (en) | Image processing apparatus, image processing method, navigation apparatus, program storage device and computer data signal embodied in carrier wave | |
JP4370869B2 (en) | Map data updating method and map data updating apparatus | |
US7392155B2 (en) | Distance calculation device and calculation program | |
CN103718224B (en) | Three-dimensional body pick-up unit and three-dimensional body detection method | |
JP4724043B2 (en) | Object recognition device | |
EP2348279B1 (en) | Road measurement device and method for measuring road | |
WO2018179616A1 (en) | Vehicle position deduction apparatus | |
US20220012509A1 (en) | Overhead-view image generation device, overhead-view image generation system, and automatic parking device | |
JP6881369B2 (en) | Vehicle position estimation device | |
WO2018020589A1 (en) | Self-position estimation method and self-position estimation apparatus | |
JP2010072807A (en) | Device for detecting and determining road boundary | |
JP2019108116A (en) | Device and method for controlling speed of vehicle in longitudinal direction | |
JP2007309670A (en) | Vehicle position detector | |
JP2010287015A (en) | Obstacle detection device | |
JP2006268865A (en) | Navigation device | |
JP4664427B2 (en) | Distance calculation device | |
KR20210037791A (en) | Autonomous driving apparatus and method | |
JP6943127B2 (en) | Position correction method, vehicle control method and position correction device | |
CN114670840A (en) | Dead angle estimation device, vehicle travel system, and dead angle estimation method | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
CN113306559A (en) | Compensation for vertical road camber in road shape estimation | |
JP2005170290A (en) | Obstacle detecting device | |
JP6844307B2 (en) | Angle of view adjustment method | |
JP2018185156A (en) | Target position estimation method and target position estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080325 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090331 |