JP2006268865A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2006268865A
JP2006268865A JP2006105852A JP2006105852A JP2006268865A JP 2006268865 A JP2006268865 A JP 2006268865A JP 2006105852 A JP2006105852 A JP 2006105852A JP 2006105852 A JP2006105852 A JP 2006105852A JP 2006268865 A JP2006268865 A JP 2006268865A
Authority
JP
Japan
Prior art keywords
road
movement vector
vehicle
image
road width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006105852A
Other languages
Japanese (ja)
Inventor
Takashi Kashiwazaki
隆 柏崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2006105852A priority Critical patent/JP2006268865A/en
Publication of JP2006268865A publication Critical patent/JP2006268865A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device capable of keeping safety of a travelling vehicle by imaging the forward side from the travelling vehicle and performing image processing. <P>SOLUTION: The navigation device images the forward side of the vehicle, determines a movement vector for showing the motion of an object in the picked up image from time t to time t+Δt by comparing it with an image obtained with a CCD camera 19 during the travel of the vehicle, determines an allowance degree to an end of the road under travel based on the detected movement vector, and informs a driver based on the determination result. The navigation device calibrates the imaging direction of the CCD camera 19 based on the detection result of the movement vector. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、走行中の車両において、撮像手段からの画像に基づいて道路端を求めるナビゲーション装置等の技術分野に属する。   The present invention belongs to a technical field such as a navigation device for obtaining a road edge based on an image from an imaging unit in a traveling vehicle.

従来から、移動体としての車両の現在位置を検出し、周辺の道路地図と共に検出された現在位置を表示画面に表示して経路案内を行うナビゲーション装置が広く用いられている。この種のナビゲーション装置においては、地図データが記憶された大容量の記録媒体を備えており、表示画面上の表示データを生成するために用いられる。記録媒体上の地図データには、道路形状に関するデータや表示用の各種データなどに加え、これに付随する道幅情報が含まれる。よって、走行中の道路に対応する道幅情報を読み出して、現在走行している道路の道幅を把握することができる。   2. Description of the Related Art Conventionally, navigation apparatuses that detect a current position of a vehicle as a moving body, display the detected current position together with a surrounding road map on a display screen, and perform route guidance have been widely used. This type of navigation device includes a large-capacity recording medium in which map data is stored, and is used to generate display data on a display screen. The map data on the recording medium includes road width information associated with the road shape data and various display data. Therefore, the road width information corresponding to the road on which the vehicle is traveling can be read and the road width of the currently traveling road can be grasped.

しかしながら、上記従来のナビゲーション装置では、地図データに含まれる道幅情報は正確な道幅を示すものではなく、例えば5.5m〜8mのように、その道路の概略の道幅を示すに過ぎなかった。よって、道路のポイントに対応したきめ細かく正確な道幅情報は取得することができなかった。   However, in the conventional navigation device described above, the road width information included in the map data does not indicate an accurate road width, but merely indicates an approximate road width of the road, for example, 5.5 m to 8 m. Therefore, detailed and accurate road width information corresponding to road points could not be acquired.

また、単に道路の道幅を知るだけではなく、道路端までの距離をリアルタイムに求め、これを車両の安全走行に役立てることへのニーズも強くなっている。一方、複数台のカメラを設置して三角測量の原理を応用すれば、立体的に距離を計測可能であり、道路端までの距離を求めることができるが、装置の構成が複雑となってコストアップの要因となる。   In addition to simply knowing the width of a road, there is an increasing need for obtaining a distance to a road edge in real time and using it for safe driving of a vehicle. On the other hand, if you install multiple cameras and apply the principle of triangulation, you can measure the distance three-dimensionally, and you can find the distance to the road edge. It becomes a factor of up.

そこで、本発明はこのような問題に鑑みなされたものであり、簡単な構成で、走行中の車両から撮像した画像に基づき壁面等の道路端までの距離及び道幅を求めることができる画像処理装置、及び、画像処理の結果に応じて、ドライバーに対し安全走行を確保するための警告や案内を行うことが可能なナビゲーション装置を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and an image processing apparatus capable of obtaining a distance to a road edge such as a wall surface and a road width based on an image taken from a traveling vehicle with a simple configuration. Another object of the present invention is to provide a navigation device capable of giving a warning and guidance for ensuring safe driving to a driver according to the result of image processing.

上記課題を解決するために、請求項1に記載のナビゲーション装置は、車両前方を撮像して画像を出力する撮像手段と、前記画像中の物体の時間tからt+Δtの動きを示す移動ベクトルを前記車両の走行中に前記撮像手段にて得られる画像を比較することによって求める移動ベクトル検出手段と、前記検出された移動ベクトルに基づいて、前記走行中の道路の道路端までの余裕度を判定する余裕度判定手段と、前記余裕度判定手段の判定結果に基づいて、告知手段を制御する制御手段と、を備え、前記移動ベクトル検出手段の検出結果に基づいて前記撮像手段の撮像方向を校正する校正手段を有することを特徴とする。   In order to solve the above-mentioned problem, the navigation device according to claim 1, an imaging unit that images the front of the vehicle and outputs an image, and a movement vector indicating a movement of the object in the image from time t to t + Δt A movement vector detection means obtained by comparing images obtained by the imaging means during traveling of the vehicle, and a margin to the road edge of the traveling road is determined based on the detected movement vector. A margin determination unit; and a control unit that controls the notification unit based on the determination result of the margin determination unit, and calibrates the imaging direction of the imaging unit based on the detection result of the movement vector detection unit. It has a calibration means.

以下、本発明の好適な実施の形態を図面に基づいて説明する。以下の実施の形態においては、本発明を車両に搭載されるナビゲーション装置に適用した場合について説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the following embodiments, a case where the present invention is applied to a navigation device mounted on a vehicle will be described.

図1は、本実施形態に係るナビゲーション装置の概略構成を示す図である。図1に示すナビゲーション装置は、制御部11と、地図データ記憶部12と、道幅データ記憶部13と、センサ部14と、現在位置検出部15と、ディスプレイ16と、スピーカ17と、画像処理部18と、CCDカメラ19とを含んで構成されている。   FIG. 1 is a diagram illustrating a schematic configuration of a navigation device according to the present embodiment. 1 includes a control unit 11, a map data storage unit 12, a road width data storage unit 13, a sensor unit 14, a current position detection unit 15, a display 16, a speaker 17, and an image processing unit. 18 and a CCD camera 19.

以上の構成において、制御部11は、ナビゲーション装置全体の動作を制御する。制御部11はCPU等からなり、図示しないROMに格納される制御プログラムを読み出して実行し、ナビゲーション装置の各構成要素に制御信号を送出すると共に、データを入出力する。   In the above configuration, the control unit 11 controls the operation of the entire navigation device. The control unit 11 includes a CPU and the like, reads out and executes a control program stored in a ROM (not shown), sends control signals to each component of the navigation apparatus, and inputs / outputs data.

地図データ記憶部12は、地図データを格納する記憶容量の大きなメモリであり、例えばCD−ROMやDVD−ROMが用いられる。地図データ記憶部12に格納される地図データは、道路形状データ、名称データ、背景データなどを含んで構成される。   The map data storage unit 12 is a memory having a large storage capacity for storing map data. For example, a CD-ROM or a DVD-ROM is used. The map data stored in the map data storage unit 12 includes road shape data, name data, background data, and the like.

道幅データ記憶部13は、本発明に係る画像処理に伴って得られた車両走行中の道幅データを更新可能に記録するメモリである。上述の地図データ記憶部12の地図データにも簡易な道幅情報が含まれるが、道幅データ記憶部13に記憶される道幅データは更に詳細なデータであり、道路の位置に応じて変化する道幅を正確に求めたデータである。なお、道幅データの生成方法については後述する。   The road width data storage unit 13 is a memory that records the road width data during traveling of the vehicle obtained along with the image processing according to the present invention in an updatable manner. The map data in the map data storage unit 12 includes simple road width information, but the road width data stored in the road width data storage unit 13 is more detailed data, and the road width that changes according to the position of the road is displayed. It is the data obtained accurately. A method for generating road width data will be described later.

センサ部14は、車両の現在位置を検出するために必要な各種センサを含んでいる。具体的には、車両の速度を検出する車速センサや、車両の方位変化量を検出する方位センサや、GPS(Global Positioning System)衛星からの電波を受信するGPS受信部などを含んで構成される。   The sensor unit 14 includes various sensors necessary for detecting the current position of the vehicle. Specifically, it includes a vehicle speed sensor that detects the speed of the vehicle, a direction sensor that detects the amount of change in the direction of the vehicle, a GPS receiver that receives radio waves from a GPS (Global Positioning System) satellite, and the like. .

現在位置検出部15は、センサ部14からの出力信号に基づいて、車両の現在位置を算出し、現在位置データを出力する。なお、現在位置データは、制御部11によって前述の地図データと照合されて、マップマッチング処理等により補正される。   The current position detection unit 15 calculates the current position of the vehicle based on the output signal from the sensor unit 14 and outputs current position data. The current position data is collated with the above-described map data by the control unit 11 and corrected by a map matching process or the like.

ディスプレイ16には、制御部11の指示の下、地図データが種々の態様で表示されると共に、これに重畳して車両の現在位置がカーマークとして表示される。このディスプレイ16は、例えばCRT、液晶表示素子などから構成される。また、スピーカ17からは、車両の経路に沿った誘導情報が音声により出力されると共に、本発明に係る画像処理に関連して後述の案内音声が出力される。   On the display 16, map data is displayed in various modes under the instruction of the control unit 11, and the current position of the vehicle is displayed as a car mark superimposed on the map data. The display 16 is composed of, for example, a CRT, a liquid crystal display element, or the like. In addition, guidance information along the route of the vehicle is output from the speaker 17 by voice, and guidance voice to be described later is output in relation to the image processing according to the present invention.

画像処理部18は、車両に設置されるCCDカメラ19からの画像信号を解析して、本実施形態に係る画像処理を行う手段である。ここで、図2を用いて、画像処理部18の構成及び動作について説明する。   The image processing unit 18 is a unit that analyzes an image signal from the CCD camera 19 installed in the vehicle and performs image processing according to the present embodiment. Here, the configuration and operation of the image processing unit 18 will be described with reference to FIG.

図2に示すように、画像処理部18は、A/Dコンバータ21と、第1画像メモリ22と、第2画像メモリ23と、移動ベクトル検出部24と、移動ベクトル処理部25を含んで構成されている。また、画像制御部18は、制御部11からの制御信号に従って動作する。   As shown in FIG. 2, the image processing unit 18 includes an A / D converter 21, a first image memory 22, a second image memory 23, a movement vector detection unit 24, and a movement vector processing unit 25. Has been. The image control unit 18 operates in accordance with a control signal from the control unit 11.

図2において、A/Dコンバータ21は、CCDカメラ19によって撮像された画像に基づくアナログ画像信号をディジタル画像信号に変換する。通常、A/Dコンバータ21から出力されるディジタル画像信号は、所定のフレーム周期ごとに1つのフレーム画像データを構成し、連続する複数のフレーム画像データからなる。   In FIG. 2, an A / D converter 21 converts an analog image signal based on an image captured by the CCD camera 19 into a digital image signal. Usually, the digital image signal output from the A / D converter 21 constitutes one frame image data for every predetermined frame period, and consists of a plurality of continuous frame image data.

第1画像メモリ22及び第2画像メモリ23は、それぞれA/Dコンバータ21から出力されるフレーム画像データを格納する。第1画像メモリ22は最新のフレーム画像データを格納し、第2画像メモリ23は1つ前のフレーム画像データを格納する。よって、画像処理部18では、常に最新の2フレーム分の画像データが保持されており、これらを用いて後述の処理が行われる。   The first image memory 22 and the second image memory 23 each store frame image data output from the A / D converter 21. The first image memory 22 stores the latest frame image data, and the second image memory 23 stores the previous frame image data. Therefore, the image processing unit 18 always holds the latest two frames of image data, and the processing described later is performed using these data.

移動ベクトル検出部24は、第1画像メモリ22及び第2画像メモリ23に格納されるフレーム画像データに基づいて、画像中の各領域ごとの移動ベクトルを検出する。この際、センサ部14から出力された車速データを用いる。   The movement vector detection unit 24 detects a movement vector for each area in the image based on the frame image data stored in the first image memory 22 and the second image memory 23. At this time, vehicle speed data output from the sensor unit 14 is used.

また、移動ベクトル処理部25は、移動ベクトル検出部24により検出された移動ベクトルに基づいて、走行道路の前方側における壁面等の道路端までの水平方向の距離及びこれに基づく道幅を求め、道幅データ等として出力する。   The movement vector processing unit 25 obtains a horizontal distance to a road edge such as a wall surface on the front side of the traveling road based on the movement vector detected by the movement vector detection unit 24 and a road width based on the distance. Output as data.

なお、移動ベクトル検出部24と移動ベクトル処理部25における処理の詳細については後述する。   Details of the processes in the movement vector detection unit 24 and the movement vector processing unit 25 will be described later.

図1に戻って、本発明の撮像手段としてのCCDカメラ19は、車両の所定位置に設置され、車両の前方方向を撮像し、画像信号を出力する。ここで図3に、CCDカメラ19の車両への設置状態を示す。   Returning to FIG. 1, a CCD camera 19 as an imaging means of the present invention is installed at a predetermined position of the vehicle, images the front direction of the vehicle, and outputs an image signal. Here, FIG. 3 shows an installation state of the CCD camera 19 in the vehicle.

図3(a)は、車両上方から見たCCDカメラ19の設置状態を示す図である。図3(a)に示すように、CCDカメラ19は車両室内上部の中央付近に取付けられている。CCDカメラ19は、車両前方を真っ直ぐ向いて撮像可能な位置に固定される。   FIG. 3A is a diagram illustrating the installation state of the CCD camera 19 as viewed from above the vehicle. As shown in FIG. 3A, the CCD camera 19 is attached near the center of the upper part of the vehicle interior. The CCD camera 19 is fixed at a position where the front of the vehicle can be imaged straight.

また、図3(b)は、CCDカメラ19に関し、車両側方からから見た設置状態を撮像範囲と共に示す図である。図3(b)に示すように、CCDカメラ19は車両前方に向かって画角θの範囲を撮像する。通常、撮像された画像の中心を道路面に対し水平方向に一致させる。また、CCDカメラ19は、道路面からの高さHの位置に取付けられる。例えば、H=1.5(m)程度になる。   FIG. 3B is a diagram showing the installation state of the CCD camera 19 viewed from the side of the vehicle together with the imaging range. As shown in FIG. 3B, the CCD camera 19 images the range of the angle of view θ toward the front of the vehicle. Usually, the center of the captured image is made to coincide with the road surface in the horizontal direction. The CCD camera 19 is attached at a position of height H from the road surface. For example, H = about 1.5 (m).

次に、本実施形態に係る画像処理の原理について、図4〜図9を参照して説明する。   Next, the principle of image processing according to this embodiment will be described with reference to FIGS.

図4は、前述のCCDカメラ19により撮像された画像をピンホールカメラのモデルで表した図である。図4においては、CCDカメラ19の受光素子部に対応する画像平面P0と、レンズ部に対応する焦点面Fとが焦点距離fを隔てて平行に配置されている。焦点面Fのレンズ中心Cがピンホールに対応し、このレンズ中心Cを中心に空間座標系(X,Y,Z)を考える。一方、画像平面P0では、空間座標(0,0,−f)を画像中心cとして、カメラ座標系(x,y)を考える。   FIG. 4 is a diagram showing an image captured by the CCD camera 19 described above using a pinhole camera model. In FIG. 4, an image plane P0 corresponding to the light receiving element portion of the CCD camera 19 and a focal plane F corresponding to the lens portion are arranged in parallel with a focal length f therebetween. A lens center C of the focal plane F corresponds to a pinhole, and a spatial coordinate system (X, Y, Z) is considered around this lens center C. On the other hand, on the image plane P0, the camera coordinate system (x, y) is considered with the spatial coordinate (0, 0, −f) as the image center c.

ここで、空間座標系の点M(Xm,Ym,Zm)を考える。この点Mは、例えば図3(b)の視野内にある道路面や壁面上の所定の位置に対応させることができる。この点Mに対する中心射影を考えると、点Mから焦点面Fのレンズ中心Cを通って画像平面P0までが直線で結ばれ、カメラ座標系の点m(xm,ym)に射影される。このとき、点M(Xm,Ym,Zm)と射影された点m(xm,ym)の関係は次式で表される。
[数1]
xm = f・Xm/Zm
ym = f・Ym/Zm
Here, a point M (Xm, Ym, Zm) in the spatial coordinate system is considered. This point M can be made to correspond to a predetermined position on the road surface or wall surface within the field of view of FIG. Considering the central projection for this point M, the point M, the lens center C of the focal plane F, and the image plane P0 are connected by a straight line and projected onto the point m (xm, ym) of the camera coordinate system. At this time, the relationship between the point M (Xm, Ym, Zm) and the projected point m (xm, ym) is expressed by the following equation.
[Equation 1]
xm = f · Xm / Zm
ym = f · Ym / Zm

次に図5は、図4に対応して、空間座標系(X,Y,Z)と画像データのピクセル座標系(u,v)の関係を表した図である。図5においては簡単のため、図4の画像平面P0を焦点面Fの前方側に配置させると共に、カメラ座標系(x,y)のx軸、y軸をそれぞれ反転させてu軸、v軸とすることにより、ピクセル画像系(u,v)としたものである。図4の配置を図5の配置に置き換えても、互いに等価であるため、同様の関係が成り立つ。   Next, FIG. 5 is a diagram showing the relationship between the spatial coordinate system (X, Y, Z) and the pixel coordinate system (u, v) of the image data, corresponding to FIG. In FIG. 5, for simplicity, the image plane P0 in FIG. 4 is arranged in front of the focal plane F, and the x-axis and y-axis of the camera coordinate system (x, y) are inverted to obtain the u-axis and v-axis, respectively. Thus, the pixel image system (u, v) is obtained. Even if the arrangement in FIG. 4 is replaced with the arrangement in FIG. 5, the same relationship holds because they are equivalent to each other.

図5において、ピクセル画像系の画像平P1面は、水平方向の画素数Nwと垂直方向の画素数Nhの表示画像に対応しており、画像平面P1には全部でNw×Nhの画素が含まれる。一方、この画像平面P1は、サイズが横幅w、高さhとなるCCDカメラ19の受光領域に一致する。そして、図4と同様に空間座標系の点M(X,Y,Z)を考えると、図5に示すように、画像平面P1の点m(u,v)を通って焦点面Fのレンズ中心Cまで直線で結ばれる。   In FIG. 5, the image plane P1 surface of the pixel image system corresponds to a display image having the number of pixels Nw in the horizontal direction and the number of pixels Nh in the vertical direction, and the image plane P1 includes a total of Nw × Nh pixels. It is. On the other hand, the image plane P1 coincides with the light receiving area of the CCD camera 19 having the size of the horizontal width w and the height h. Then, considering the point M (X, Y, Z) in the spatial coordinate system as in FIG. 4, as shown in FIG. 5, the lens on the focal plane F passes through the point m (u, v) on the image plane P1. A straight line is connected to the center C.

ここで、図4と同様に、点mに対する中心射影を考えると、数1に対応して、点M(X,Y,Z)と射影された点m(u,v)の関係は次式で表される。
[数2]
u = (f・X/Z)・Nw/w
v = (f・Y/Z)・Nh/h
Here, in the same way as in FIG. 4, considering the central projection with respect to the point m, the relationship between the point M (X, Y, Z) and the projected point m (u, v) corresponding to Equation 1 is It is represented by
[Equation 2]
u = (f · X / Z) · Nw / w
v = (f · Y / Z) · Nh / h

すなわち、数2は、点m(u,v)の画像平面P1における画素位置を表している。数2において、uが水平方向の画素位置に対応し、vが垂直方向の画素位置に対応している。   That is, Equation 2 represents the pixel position of the point m (u, v) on the image plane P1. In Equation 2, u corresponds to the horizontal pixel position, and v corresponds to the vertical pixel position.

本実施形態では、走行中の車両から撮像された画像を処理するので、画像平面P1内の物体の動きを想定する必要がある。そのため、画像平面P1におけるオプティカルフロー、すなわち移動ベクトルV(u,v)を求める必要がある。3次元空間の同一点の明るさIが一定に保たれる場合、次の時空間微分方程式が成り立つ。
[数3]
dI/dt = Ix・u+Iy・v+It = 0
ただし、それぞれ画像平面P1内において、Ixが水平方向の偏微分、Iyが垂直方向の偏微分、Itが時間軸方向の偏微分、u、vは上述の移動ベクトルVの水平方向、垂直方向の成分である。
In this embodiment, since an image captured from a running vehicle is processed, it is necessary to assume the movement of an object in the image plane P1. Therefore, it is necessary to obtain the optical flow in the image plane P1, that is, the movement vector V (u, v). When the brightness I of the same point in the three-dimensional space is kept constant, the following spatiotemporal differential equation holds.
[Equation 3]
dI / dt = Ix · u + Iy · v + It = 0
However, in the image plane P1, Ix is the partial differential in the horizontal direction, Iy is the partial differential in the vertical direction, It is the partial differential in the time axis direction, and u and v are the horizontal and vertical directions of the movement vector V described above. It is an ingredient.

次に、図6及び図7を用いて移動ベクトルVを求める方法について説明する。図6に示すように、時刻tにおける画像平面P1内に参照ブロックRを定義する。この参照ブロックRは、左上の画素prを起点として、u軸にm画素、v軸にn画素の範囲の矩形領域であり、全部でm×n個の画素を含んでいる。そして、画像平面P1を複数の参照ブロックRに分割し、各々の参照ブロックRごとに移動ベクトルVを求める。図6の例では、m=8、n=8となる参照ブロックRを示している。   Next, a method for obtaining the movement vector V will be described with reference to FIGS. As shown in FIG. 6, a reference block R is defined in the image plane P1 at time t. This reference block R is a rectangular area starting from the upper left pixel pr and having a range of m pixels on the u axis and n pixels on the v axis, and includes a total of m × n pixels. Then, the image plane P1 is divided into a plurality of reference blocks R, and a movement vector V is obtained for each reference block R. In the example of FIG. 6, a reference block R in which m = 8 and n = 8 is shown.

図7は、画像平面P1内の所定の参照ブロックRに対する移動ベクトルVの求め方を説明する図である。図7は、図6の時刻tからΔtが経過した時刻t+Δtにおける画像平面P1に対応する。そして、センサ部14からの車速データ等に基づいて、画像平面P1内の所定の領域を予めサーチ範囲Sとして定めておく。サーチ範囲Sは、u軸にM画素、v軸にN画素となる矩形領域であって、通常は、M、Nがm、nに比べると十分大きくなる。   FIG. 7 is a diagram for explaining how to obtain the movement vector V for a predetermined reference block R in the image plane P1. FIG. 7 corresponds to the image plane P1 at time t + Δt when Δt has elapsed from time t in FIG. A predetermined area in the image plane P1 is determined in advance as the search range S based on vehicle speed data from the sensor unit 14 or the like. The search range S is a rectangular area having M pixels on the u axis and N pixels on the v axis, and normally M and N are sufficiently larger than m and n.

そして、サーチ範囲Sに対し、参照ブロックRと同サイズの比較ブロックCを所定の位置に定義する。サーチ範囲Sは参照ブロックRに比べサイズが十分大きいため、比較ブロックCの位置をサーチ範囲S内で少しづつ動かす必要がある。図7では、比較ブロックCは参照ブロックRと同様にm×nのサイズであり、参照ブロックの左上の画素prに対応する比較ブロックCの左上の画素pcを示している。最初はサーチ範囲Sの左上の画素を比較ブロックCの画素pcに設定し、その後はサーチ範囲Sの中で、u軸方向又はv軸方向に画素pcの位置を1画素づつ動かして、サーチ範囲S内に定義可能な全ての比較ブロックCについて後述の演算を行う。   Then, a comparison block C having the same size as the reference block R is defined in a predetermined position with respect to the search range S. Since the search range S is sufficiently larger than the reference block R, it is necessary to move the position of the comparison block C little by little within the search range S. In FIG. 7, the comparison block C has a size of m × n like the reference block R, and shows the upper left pixel pc of the comparison block C corresponding to the upper left pixel pr of the reference block. First, the upper left pixel of the search range S is set as the pixel pc of the comparison block C, and after that, within the search range S, the position of the pixel pc is moved by one pixel in the u-axis direction or the v-axis direction. The calculation described later is performed for all comparison blocks C that can be defined in S.

次いで、図6の時刻tにおける参照ブロックRと、図7の時刻t+Δtにおける比較ブロックCの間で相関値を求める。ここで、画素の集合である画像データでは、m×n個の全ての画素に濃度値を対応させているので、参照ブロックRと比較ブロックCの対応する画素ごとの濃度値の差分を求める。この濃度値の各画素ごとの差分に対し、m×n個の画素についての和をとれば、相関値を計算することができる。   Next, a correlation value is obtained between the reference block R at time t in FIG. 6 and the comparison block C at time t + Δt in FIG. Here, in the image data which is a set of pixels, the density value is made to correspond to all m × n pixels, and therefore the difference between the density values of the corresponding pixels of the reference block R and the comparison block C is obtained. The correlation value can be calculated by taking the sum of m × n pixels with respect to the difference in density value for each pixel.

そして、参照ブロックRに対し、サーチ範囲Sの中の全ての比較ブロックCとの間の相関値を求め、最小の相関値を与える比較ブロックCを探索する。例えば、図7に示す比較ブロックCが最小の相関値を与えるとする。   Then, the correlation value between all the comparison blocks C in the search range S is obtained for the reference block R, and the comparison block C that gives the minimum correlation value is searched. For example, assume that the comparison block C shown in FIG. 7 gives the minimum correlation value.

この場合は、図7に示すように、画像平面P1において、点線で示した時刻tにおける参照ブロックRから時刻t+Δtにおける比較ブロックCに向かうベクトルを移動ベクトルVとして決定することができる。   In this case, as shown in FIG. 7, a vector from the reference block R at time t indicated by the dotted line toward the comparison block C at time t + Δt on the image plane P1 can be determined as the movement vector V.

図7では1つの移動ベクトルVのみ示したが、実際には移動ベクトルVを、画像平面P1に定義可能な全ての参照ブロックRについて求める。これにより移動ベクトルVの空間的な分布を求める。そして、この移動ベクトルVの空間的な分布に基づいて後述の処理が行われる。   Although only one movement vector V is shown in FIG. 7, the movement vector V is actually obtained for all reference blocks R that can be defined on the image plane P1. Thereby, the spatial distribution of the movement vector V is obtained. Then, based on the spatial distribution of the movement vector V, processing described later is performed.

次に、図8〜図9を用いて、走行中の車両から撮像された画像における移動ベクトルの求め方、及び、車両から道路端までの距離、走行道路の道幅を算出する方法について説明する。   Next, using FIG. 8 to FIG. 9, a method for calculating a movement vector in an image captured from a running vehicle, a method for calculating the distance from the vehicle to the road edge, and the road width of the running road will be described.

図8は、CCDカメラ19から撮像した画像の一例を示す図である。図8では簡単のため、一定幅で直進する道路において両側の道路端に一定の高さの壁面があり、車両はセンターラインから所定距離だけ左側を走行している場合の画像を示している。また、道路面は、左側壁面と境界線BLで接し、右側壁面と境界線BRで接している。   FIG. 8 is a diagram illustrating an example of an image captured from the CCD camera 19. For the sake of simplicity, FIG. 8 shows an image in the case where a road that goes straight with a certain width has walls with a certain height at both road ends, and the vehicle is traveling a predetermined distance from the center line on the left side. The road surface is in contact with the left wall surface at the boundary line BL, and is in contact with the right wall surface at the boundary line BR.

図8に示すように、画像の中心をピクセル画像座標系(u,v)における原点(0,0)に対応させる。すなわち、画像の撮像方向が道路面及び壁面に対し平行になり、境界線BL、BRなどが交わる消失点が、原点(0,0)に合致する。また、画像の全体は、左上の点(−Nw/2,Nh/2)と、右上の点(Nw/2,Nh/2)と、左下の点(−Nw/2,−Nh/2)と、右下の点(Nw/2,−Nh/2)の4画素を頂点とする矩形領域である。後述の画像処理を行うに際して、CCDカメラ19の撮像方向や取り付け高さHを予め正確に校正しておく必要がある。ただし、原点(0,0)と消失点が一致しない場合でも、校正により消失点の位置を正確に特定できれば、本発明に係る画像処理を行うことができる。   As shown in FIG. 8, the center of the image is made to correspond to the origin (0, 0) in the pixel image coordinate system (u, v). That is, the vanishing point at which the image capturing direction is parallel to the road surface and the wall surface and the boundary lines BL, BR, etc. meet is the origin (0, 0). In addition, the entire image includes an upper left point (-Nw / 2, Nh / 2), an upper right point (Nw / 2, Nh / 2), and a lower left point (-Nw / 2, -Nh / 2). And a rectangular area having four pixels at the lower right point (Nw / 2, -Nh / 2) as vertices. When performing image processing to be described later, it is necessary to accurately calibrate the imaging direction and the mounting height H of the CCD camera 19 in advance. However, even when the origin (0, 0) and the vanishing point do not match, the image processing according to the present invention can be performed if the position of the vanishing point can be accurately identified by calibration.

図8において、画像中にv=VRで表される基準水平ラインLを設定する。基準水平ラインLは、道路面と左右両側の壁面を横切る位置、すなわち道路端と交差する位置に設定する必要があり、VRは負の値となる。例えば車両から10m前方の道路面上の相対位置に対応する画像位置に基準水平ラインLを設定すればよい。そして、図8において、時刻tから時刻t+Δtとなる間の基準水平ラインL上の移動ベクトルVを求める。Δtが経過するまで車両が一定距離だけ前方に進むと、基準水平ラインL上の撮像対象物はその分だけ車両に近づくので、基準水平ラインL上の移動ベクトルVのv成分は負の値となる。   In FIG. 8, a reference horizontal line L represented by v = VR is set in the image. The reference horizontal line L needs to be set at a position crossing the road surface and the left and right wall surfaces, that is, a position intersecting the road edge, and VR has a negative value. For example, the reference horizontal line L may be set at the image position corresponding to the relative position on the road surface 10 m ahead of the vehicle. Then, in FIG. 8, a movement vector V on the reference horizontal line L from time t to time t + Δt is obtained. When the vehicle advances forward by a certain distance until Δt elapses, the imaging object on the reference horizontal line L approaches the vehicle by that amount, so that the v component of the movement vector V on the reference horizontal line L is a negative value. Become.

基準水平ラインLを設定すべき車両との相対位置は、10mに限られず適切な距離に設定できる。ただし、車両に近づき過ぎると、左右の壁面を横切らない配置となって不適切となる。また、車両から離れ過ぎると、道路面と壁面を横切るとしても距離が大きくなり過ぎて、道路のカーブ等の形状変化による誤差が生じやすくなる。そのため、道路面と壁面に十分重なる範囲で車両にできるだけ近距離の相対位置に設定することが望ましい。   The relative position with respect to the vehicle on which the reference horizontal line L is to be set is not limited to 10 m and can be set to an appropriate distance. However, if it gets too close to the vehicle, it will become inappropriate because it does not cross the left and right wall surfaces. If the vehicle is too far away from the vehicle, the distance becomes too large even if the vehicle crosses the road surface and the wall surface, and errors due to changes in the shape of the road curve or the like are likely to occur. Therefore, it is desirable to set the relative position as close as possible to the vehicle within a range that sufficiently overlaps the road surface and the wall surface.

ここで、速度v0(m/秒)で走行している車両において、フレーム周期T(秒)でCCDカメラ19による撮像を行うとする。この場合、1フレーム間の車両の移動距離dは、
[数4]
d=v0・T(m)
と表すことができる。一方、車両の移動に伴い基準水平ラインLの移動ベクトルVは、消失点である原点(0,0)から放射状に向かうベクトルとなる。そして、移動ベクトルVの大きさは、基準水平ラインL上の撮像対象物と車両との距離が近いほど大きくなるように変化する。
Here, it is assumed that imaging is performed by the CCD camera 19 at a frame period T (seconds) in a vehicle traveling at a speed v0 (m / second). In this case, the moving distance d of the vehicle between one frame is
[Equation 4]
d = v0 · T (m)
It can be expressed as. On the other hand, as the vehicle moves, the movement vector V of the reference horizontal line L becomes a vector that goes radially from the origin (0, 0) that is the vanishing point. And the magnitude | size of the movement vector V changes so that it may become large, so that the distance of the imaging target object on the reference | standard horizontal line L and a vehicle is near.

このとき、基準水平ラインLにおける移動ベクトルVの分布をとると、道路面と左右の壁面とでは異なるパターンに従って変化する。よって、移動ベクトルVのパターン変化を分析して、基準水平ラインLと境界線BL、BRとの交点の位置をそれぞれ求め、これに基づき車両の位置から左右の道路端までの距離DL、DRを算出し、更に走行道路の道幅RWを算出する。   At this time, when the distribution of the movement vector V in the reference horizontal line L is taken, the road surface and the left and right wall surfaces change according to different patterns. Therefore, by analyzing the pattern change of the movement vector V, the positions of the intersections of the reference horizontal line L and the boundary lines BL and BR are obtained, and based on this, the distances DL and DR from the vehicle position to the left and right road edges are calculated. Further, the road width RW of the traveling road is calculated.

ここで、図8の基準水平ラインLにおけるピクセル画像座標系(u,v)と実際の空間座標系(X,Y,Z)の関係について、図9を参照して説明する。図8の撮像対象物の奥行きを表すZは、数2に基づき次式で表される。
[数5]
Z = X・f・Nw/(u・w)
Here, the relationship between the pixel image coordinate system (u, v) and the actual spatial coordinate system (X, Y, Z) in the reference horizontal line L in FIG. 8 will be described with reference to FIG. Z representing the depth of the object to be imaged in FIG.
[Equation 5]
Z = X · f · Nw / (u · w)

図9(a)は、画像横軸のuに対する撮像位置から見た奥行きZの変化を示す図である。図9(a)において、変曲点PLは基準水平ラインLと境界線BLの交点に対応し、変曲点PRは基準水平ラインLと境界線BRの交点に対応する。図9(a)に示すように、道路面ではZが一定値となるのに対し、壁面では外側に行くほどZが小さくなっていく。すなわち、数5からわかるように、道路面では基準水平ラインLが水平面にあるため、uとXが比例し、Zは一定値となる。一方、左右の壁面では基準水平ラインLが垂直面にあるため、Xが固定値となって、Zはuに反比例して変化する。   FIG. 9A is a diagram illustrating a change in the depth Z as viewed from the imaging position with respect to u on the horizontal axis of the image. In FIG. 9A, the inflection point PL corresponds to the intersection of the reference horizontal line L and the boundary line BL, and the inflection point PR corresponds to the intersection of the reference horizontal line L and the boundary line BR. As shown in FIG. 9 (a), Z becomes a constant value on the road surface, whereas Z becomes smaller toward the outside on the wall surface. That is, as can be seen from Equation 5, since the reference horizontal line L is on the horizontal plane on the road surface, u and X are proportional and Z is a constant value. On the other hand, since the reference horizontal line L is on the vertical surface on the left and right wall surfaces, X becomes a fixed value, and Z changes in inverse proportion to u.

次に、図8の基準水平ラインLにおける高さYは、数2及び数5に基づき次式で表される。
[数6]
Y = Z・v・h/(f・Nh)
Next, the height Y in the reference horizontal line L in FIG. 8 is expressed by the following equation based on Equations 2 and 5.
[Equation 6]
Y = Z · v · h / (f · Nh)

図9(b)は、画像横軸のuに対する高さYの変化を示す図である。図9(b)においては、図9(a)と同様、変曲点PL及び変曲点PRの間の道路面では、Yが一定値となる。一方、壁面では外側に行くほどYが大きくなっていく。数6においてuが負の値となるので、図9(a)の場合と逆の変化になっている。   FIG. 9B is a diagram illustrating a change in the height Y with respect to u on the horizontal axis of the image. In FIG. 9 (b), Y is a constant value on the road surface between the inflection point PL and the inflection point PR, as in FIG. 9 (a). On the other hand, on the wall surface, Y increases as it goes outward. In Equation 6, since u is a negative value, the change is opposite to that in the case of FIG.

次に、図8の状態から車両がΔZ(m)進んだ場合を考える。このとき、図8の基準水平ラインLの垂直位置がΔv(ピクセル)動くとすると、ΔvとΔZの関係は、数6に基づき次式で表される。
[数7]
Δv = Y・f・Nh/((Z−ΔZ)・h)−Y・f・Nh/(Z・h)
Next, consider a case where the vehicle has advanced by ΔZ (m) from the state of FIG. At this time, if the vertical position of the reference horizontal line L in FIG. 8 moves by Δv (pixels), the relationship between Δv and ΔZ is expressed by the following equation based on Equation 6.
[Equation 7]
Δv = Y · f · Nh / ((Z−ΔZ) · h) −Y · f · Nh / (Z · h)

図9(c)は、画像横軸のuに対し、車両がΔZ(m)進んだ時のΔvの変化を示す図である。図9(c)においては、図9(a)、(b)と同様、変曲点PL及び変曲点PRの間の道路面では、Δvが一定値となる。一方、壁面では外側に行くほどΔvが小さくなっていく。従って、数7に示されるΔvの値に基づいて、後述の演算が行われる。   FIG. 9C is a diagram illustrating a change in Δv when the vehicle travels ΔZ (m) with respect to u on the horizontal axis of the image. In FIG. 9C, as in FIGS. 9A and 9B, Δv has a constant value on the road surface between the inflection point PL and the inflection point PR. On the other hand, on the wall surface, Δv becomes smaller toward the outside. Therefore, the calculation described later is performed based on the value of Δv shown in Equation 7.

なお、上述の例では道路端全体に壁面が存在する場合を説明したが、例えばガードレールのように部分的な壁面となる場であっても、移動ベクトルVが道路面とそれ以外の部分で変化する場合には、距離DL、DR、道幅RWを算出することができる。   In the above example, the case where the wall surface is present on the entire road edge has been described. However, even in the case of a partial wall surface such as a guard rail, the movement vector V changes between the road surface and other portions. In this case, the distances DL and DR and the road width RW can be calculated.

図10は、移動ベクトルVを数7に基づき評価して、車両から左右の道路端の壁面までの距離DL、DR等を算出する方法を示すフローチャートである。なお、以下の処理を行うに際しては、予めCCDカメラ19の撮像方向と取付け高さHを校正しておくものとする。   FIG. 10 is a flowchart showing a method for calculating the distances DL, DR and the like from the vehicle to the wall surfaces of the left and right road edges by evaluating the movement vector V based on Equation 7. In performing the following processing, it is assumed that the imaging direction and the mounting height H of the CCD camera 19 are calibrated in advance.

図10の処理において、ステップS1では、上述のように、基準水平ラインLにおける移動ベクトルVを算出する。すなわち、連続する2つのフレーム画像データの画像を比較して、フレーム周期Tの間の基準水平ラインLにおける移動ベクトルVを算出する。   In the process of FIG. 10, in step S1, the movement vector V in the reference horizontal line L is calculated as described above. That is, the movement vector V in the reference horizontal line L during the frame period T is calculated by comparing two consecutive frame image data images.

ステップS2では、移動ベクトルVのv成分を評価して、数7に基づき基準水平ラインL上の左側の変曲点PLと右側の変曲点PRを抽出する。このとき、変曲点PLのu方向位置ulと変曲点PRのu方向位置urが得られるとする。   In step S2, the v component of the movement vector V is evaluated, and the left inflection point PL and the right inflection point PR on the reference horizontal line L are extracted based on Equation 7. At this time, it is assumed that the u-direction position ul of the inflection point PL and the u-direction position ur of the inflection point PR are obtained.

ステップS3では、抽出された変曲点PL、PRのそれぞれのu方向位置ul、urを空間座標のX方向位置に変換する。具体的には、数2に基づく次式を計算すればよい。
[数8]
X = u・Z・w/(Nw・f)
ただし、数8のZは、Z=−H・f・Nh/(v・h)である。数8に示されるXを、左右の変曲点PL、PRについて計算する。
In step S3, the u-direction positions ul and ur of the extracted inflection points PL and PR are converted into the X-direction positions of the spatial coordinates. Specifically, the following equation based on Equation 2 may be calculated.
[Equation 8]
X = u · Z · w / (Nw · f)
However, Z in Equation 8 is Z = −H · f · Nh / (v · h). X shown in Equation 8 is calculated for the left and right inflection points PL and PR.

ステップS4では、左側壁面までの距離DL、右側壁面までの距離DR、道幅RWを求める。すなわち、ステップS4にて計算結果に基づいて、左側の変曲点PLのX方向位置が距離DLに対応し、右側の変曲点PRのX方向位置が距離DRに対応する。これらを加えることにより道幅RWを、
[数9]
RW = DL+DR
と求めることができる。なお、距離DL、DRの相対的関係に基づいて車両位置を知ることができる。
In step S4, the distance DL to the left wall surface, the distance DR to the right wall surface, and the road width RW are obtained. That is, based on the calculation result in step S4, the X direction position of the left inflection point PL corresponds to the distance DL, and the X direction position of the right inflection point PR corresponds to the distance DR. By adding these, the road width RW is
[Equation 9]
RW = DL + DR
It can be asked. The vehicle position can be known based on the relative relationship between the distances DL and DR.

ステップS5では、カメラが車両の水平方向の中心に設置されていると考えて、左側壁面に対する余裕度MLと右側壁面に対する余裕度MRを次式により求める。
[数10]
ML = DL−W/2
MR = DR−W/2
ただし、Wは車両の横幅を表している。数10に示す左右の余裕度ML、MRは、後述のようにドライバーに警告を与える際の判断基準となる。
In step S5, assuming that the camera is installed at the center in the horizontal direction of the vehicle, a margin ML for the left wall surface and a margin MR for the right wall surface are obtained by the following equations.
[Equation 10]
ML = DL-W / 2
MR = DR-W / 2
However, W represents the width of the vehicle. The left and right margins ML and MR shown in Equation 10 serve as criteria for giving a warning to the driver as will be described later.

以上のステップS1〜ステップS5の処理は、移動ベクトルVのv成分を評価することにより行うものであるが、移動ベクトルVのu成分も、同様に変曲点PL、PRで特性が変わるので、これを評価して上述の処理を行うようにしてもよい。   The processes in steps S1 to S5 described above are performed by evaluating the v component of the movement vector V. However, the characteristics of the u component of the movement vector V change similarly at the inflection points PL and PR. You may make it evaluate the above and perform the above-mentioned processing.

なお、算出された道幅RWに対応する道幅データを地図データと関連づけて道幅データ記憶部13に更新可能に記憶すれば、後述の各種の処理に利用することができる。   In addition, if the road width data corresponding to the calculated road width RW is associated with the map data and stored in the road width data storage unit 13 in an updatable manner, it can be used for various processes described later.

更に、上述の画像処理における各数値の具体例としては、焦点距離f=4(mm)、水平方向の画素数Nw=320(ピクセル)、受光領域の横幅w=4(mm)、フレーム周期T=1/30(秒)程度になる。   Further, as specific examples of each numerical value in the above image processing, the focal length f = 4 (mm), the number of pixels in the horizontal direction Nw = 320 (pixels), the lateral width w of the light receiving region = 4 (mm), the frame period T = 1/30 (second).

次に、本実施形態に係るナビゲーション装置における具体的な画像処理に関し、図11及び図12を参照して説明する。図11は、走行中の車両が道路端に近接するのを防止するための処理を示すフローチャートであり、図12は、複数車線の道路を走行中の車両が設定経路に対し適正な車線を走行させるための処理を示すフローチャートである。なお、図11及び図12は、主に制御部11の制御に従って行われる処理である。   Next, specific image processing in the navigation device according to the present embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart illustrating a process for preventing a traveling vehicle from approaching the road edge. FIG. 12 illustrates a vehicle traveling on a multi-lane road traveling in an appropriate lane with respect to the set route. It is a flowchart which shows the process for making it do. 11 and 12 are processes mainly performed according to the control of the control unit 11.

図11に示す処理が開始されると、上述のような画像処理部18の処理により、両側の壁面までの距離DL、DRが求められ、これに基づき数9に従って道幅RWが算出され、更に数10に従って左右の壁面に対する余裕度ML、MRが算出される(ステップS11)。そして、ステップS11にて算出された道幅RWに対応する道幅データは、地図データと関連づけられて道幅データ記憶部13に書き込まれる(ステップS12)。このとき、予め設定された道路上の所定のポイントにおいて、道幅データの書き込みを行うようにしてもよい。   When the process shown in FIG. 11 is started, the distances DL and DR to the wall surfaces on both sides are obtained by the process of the image processing unit 18 as described above, and based on this, the road width RW is calculated according to the equation (9). 10, margins ML and MR for the left and right wall surfaces are calculated (step S11). The road width data corresponding to the road width RW calculated in step S11 is written in the road width data storage unit 13 in association with the map data (step S12). At this time, road width data may be written at a predetermined point on the road set in advance.

次いで、ステップS11において得られた余裕度ML、MRに基づいて、走行中の車両が道路端に寄り過ぎているか否かが判断される(ステップS13)。すなわち、基準となる所定の値を設定しておき、余裕度ML又はMRがこの所定の値より小さくなるとき、車両が道路端に寄り過ぎであると判断すればよい。   Next, based on the margins ML and MR obtained in step S11, it is determined whether or not the traveling vehicle is too close to the road edge (step S13). That is, a predetermined value serving as a reference is set, and when the margin ML or MR is smaller than the predetermined value, it may be determined that the vehicle is too close to the road edge.

ステップS13の判断結果が「YES」である場合、車両が道路端に寄り過ぎであることをドライバーに警告する(ステップS14)。例えば、道路端に寄り過ぎである旨を示す所定のメッセージを、スピーカ17から音声として出力すればよい。あるいは、同様のメッセージ又は表示記号等をディスプレイ16に表示してもよい。   If the determination result in step S13 is “YES”, the driver is warned that the vehicle is too close to the road edge (step S14). For example, a predetermined message indicating that the vehicle is too close to the road edge may be output as sound from the speaker 17. Alternatively, a similar message or display symbol may be displayed on the display 16.

ステップS13の判断結果が「NO」である場合、あるいはステップS14を終えると、車両が走行中であるか否かを判断する(ステップS15)。車両が走行中でない場合(ステップS15;NO)、画像処理を行う必要がないので処理を終える。一方、車両がまだ走行中である場合(ステップS15;YES)、ステップS11〜ステップS15の処理を繰り返す。   When the determination result of step S13 is “NO”, or when step S14 is finished, it is determined whether or not the vehicle is traveling (step S15). If the vehicle is not running (step S15; NO), the processing is terminated because there is no need to perform image processing. On the other hand, when the vehicle is still running (step S15; YES), the processes of steps S11 to S15 are repeated.

ナビゲーション装置において、以上のステップS11〜ステップS15の処理を行うことにより、常に正確な道幅RWをリアルタイムに求めることができる。そして、道路左右の壁面までの距離DL、DRを監視し、走行中の車両が道路端に寄り過ぎた時に、つまり、車両が道路端に近接し過ぎて余裕がない状態を検知したときに、ドライバーに警告を行うようにしたので、ドライバーの運転を補助して走行中の安全を確保することができる。また、道幅データを道幅データ記憶部13に適宜に書き込むようにしたので、後に同じ道路を走行する場合、有効に道幅データを活用することが可能となる。   In the navigation device, the accurate road width RW can always be obtained in real time by performing the processes in steps S11 to S15. And when the distances DL and DR to the left and right wall surfaces of the road are monitored, when the running vehicle is too close to the road edge, that is, when the vehicle is too close to the road edge and has no room, Since the driver is warned, the driver's driving can be assisted to ensure safety during traveling. In addition, since the road width data is appropriately written in the road width data storage unit 13, the road width data can be effectively used when traveling on the same road later.

次に、図12に示す処理は、ナビゲーション装置に所望の目的地が設定され、経路が判断される状況下にて行われる。まず、ステップS11と同様にして、両側の壁面までの距離DL、DRが求められ、更に道幅RWが算出される(ステップS21)。   Next, the process shown in FIG. 12 is performed in a situation where a desired destination is set in the navigation device and a route is determined. First, as in step S11, distances DL and DR to the wall surfaces on both sides are obtained, and a road width RW is calculated (step S21).

そして、地図データ記憶部12の地図データに含まれる走行中の車線に対する車線情報を読み出す(ステップS22)。この車線情報は、走行中の道路が何車線であるを示す情報であるため、車線情報に基づき走行中の道路が複数車線であるか否かを判断する(ステップS23)。   And the lane information with respect to the running lane contained in the map data of the map data storage part 12 is read (step S22). Since the lane information is information indicating how many lanes the road is traveling on, it is determined based on the lane information whether or not the road being traveled is a plurality of lanes (step S23).

ステップS23の判断結果が「YES」である場合、ステップS21の判断結果に基づいて、複数車線のうち現在どの車線を走行中であるかを判定する(ステップS24)。この判定は、ステップS11にて求めた車両の両側の壁面までの距離DLとDRとの比に基づいて行うことができる。   When the determination result of step S23 is “YES”, it is determined which lane is currently traveling among the plurality of lanes based on the determination result of step S21 (step S24). This determination can be made based on the ratio between the distance DL to the wall surfaces on both sides of the vehicle obtained in step S11 and DR.

続いて、ステップS24で判定された車線が、目的地に達する経路に対応して適正な車線であるか否かを判断する(ステップS25)。すなわち、例えば3車線の道路を走行している場合を例にとると、一般的には前方で右折するときは右側の車線が適正となり、前方で左折するときは左側の車線が適正となり、そのまま直進するときは何れの車線であってもよいことになる。あるいは予め左折、右折時の適正車線の情報を設定しておいてもよい。   Subsequently, it is determined whether or not the lane determined in step S24 is an appropriate lane corresponding to the route reaching the destination (step S25). In other words, for example, when driving on a three-lane road, the right lane is generally appropriate when making a right turn ahead, and the left lane is appropriate when making a left turn ahead. When going straight, it may be any lane. Or you may set the information of the appropriate lane at the time of the left turn and the right turn beforehand.

ステップS25の判定の結果、車両が適正な車線を走行している場合は(ステップS25;YES)処理を終える。一方、車両が適正ではない車線を走行している場合は(ステップS25;NO)、ドライバーに車線変更の案内を指示する(ステップS26)。例えば、右折ポイントの手前で左側の車線を走行している場合、もう2車線右に移動することをドライバーに促す旨のメッセージを、スピーカ17から音声として出力し、あるいはディスプレイ16に表示すればよい。   If the result of determination in step S25 is that the vehicle is traveling in an appropriate lane (step S25; YES), processing is terminated. On the other hand, if the vehicle is traveling in an inappropriate lane (step S25; NO), the driver is instructed to change lanes (step S26). For example, when driving in the left lane in front of the right turn point, a message prompting the driver to move to the right of the second lane may be output as a voice from the speaker 17 or displayed on the display 16. .

ナビゲーション装置において、以上のステップS21〜ステップS26の処理を行うことにより、複数車線の道路において車両が位置する車線をリアルタイムに判定することができる。そして、右折や左折等を行うために適正な車線に位置しない場合のみ、ドライバーに車線変更の案内を行うようにしたので、必要な場合のみ案内が行われ、既に適正な車線を走行している場合は、不要な案内が行われずに済む。そのため、利便性が高く、ドライバーにとって一層快適なナビゲーションが実現可能となる。   In the navigation device, by performing the processes in steps S21 to S26 described above, it is possible to determine in real time the lane in which the vehicle is located on a road with a plurality of lanes. And only when it is not in the proper lane to make a right turn or left turn, etc., the driver is instructed to change lanes, so the guidance is given only when necessary and the vehicle is already driving in the proper lane In this case, unnecessary guidance can be avoided. Therefore, it is possible to realize navigation that is highly convenient and more comfortable for the driver.

なお、図12の例では、車両が適正ではない車線を走行しているときにのみ車線変更の案内を指示する場合、すなわち、適正な車線を走行しているときに車線変更の案内を指示しない場合を説明したが、これに限られず、車両が適正な走行しているとき、何らかの案内を行うようにしてもよい。例えば、適正な車線を走行中に、「このままの車線を維持して下さい」などの案内を音声等により出力してもよい。これにより、運転中のドライバーに適正な車線を走行していることを把握させて安心感を与えることができる。   In the example of FIG. 12, guidance for lane change is instructed only when the vehicle is traveling in an inappropriate lane, that is, guidance for lane change is not instructed when traveling in an appropriate lane. Although the case has been described, the present invention is not limited to this, and some guidance may be performed when the vehicle is traveling appropriately. For example, while traveling in an appropriate lane, guidance such as “Please keep the lane as it is” may be output by voice or the like. As a result, it is possible to give a driver a sense of security by grasping that the driver is driving in an appropriate lane.

ここで、本実施形態におけるCCDカメラ19の校正方法について説明する。上述したように、良好な精度で画像処理を行うためにCCDカメラ19の校正が必要となる。特にCCDカメラ19の撮像方向がずれると、道幅RW等を正確に求められなくなる。従って、CCDカメラ19の取付け時に撮像方向や取付け高さHを計測し、これらの値を設定しておくことにより校正を行う。あるいは、カメラ取付け時だけではなく、CCDカメラ19を撮像に用いつつ、その画像に基づき随時校正を行ってもよい。この場合、校正すべき各パラメータを統計的に求める必要がある。   Here, a calibration method of the CCD camera 19 in the present embodiment will be described. As described above, the CCD camera 19 needs to be calibrated in order to perform image processing with good accuracy. In particular, if the imaging direction of the CCD camera 19 is shifted, the road width RW or the like cannot be obtained accurately. Therefore, when the CCD camera 19 is mounted, the imaging direction and the mounting height H are measured, and calibration is performed by setting these values. Alternatively, not only when the camera is mounted, but also using the CCD camera 19 for imaging, calibration may be performed as needed based on the image. In this case, it is necessary to statistically obtain each parameter to be calibrated.

また、CCDカメラ19により撮像された画像中の移動ベクトルVを、撮像方向の校正に利用することができる。すなわち、移動ベクトルVを画像の広い範囲にわたって求めると、その方向は消失点に向かう。移動ベクトルVの誤差等を考慮して平均化することにより、消失点を特定して、対応する画素位置を決定すれば、撮像方向を校正することができる。   Further, the movement vector V in the image captured by the CCD camera 19 can be used for calibration of the imaging direction. That is, when the movement vector V is obtained over a wide range of the image, the direction is toward the vanishing point. The imaging direction can be calibrated by specifying the vanishing point and determining the corresponding pixel position by averaging in consideration of the error of the movement vector V and the like.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。   As described above, the present invention has been described based on the embodiments, but the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. It can be guessed.

以上説明したように、上記実施形態に係るナビゲーション装置によれば、車両前方を撮像して、撮像された画像中の物体の時間tからt+Δtの動きを示す移動ベクトルを車両の走行中にCCDカメラ19にて得られる画像を比較することによって求め、当該検出された移動ベクトルに基づいて、走行中の道路の道路端までの余裕度を判定し、この判定結果に基づいて、ドライバーに告知させる(例えば、判定された余裕度が所定の基準値より小さい場合、車両が道路端に近接したことを告知手段に告知させる)ようにしたので、ドライバーに対し安全走行を確保するための警告や案内を行うことができる。更に、上記移動ベクトルの検出結果に基づいてCCDカメラ19の撮像方向を校正(例えば、消失点を定めることにより撮像方向を校正)するようにしたので、CCDカメラ19の取付け状態のばらつきを考慮した画像処理が行われると共に、当該構成に移動ベクトルを利用すればよいため、簡易な校正方法を提供することができる。   As described above, according to the navigation device according to the above-described embodiment, the front of the vehicle is imaged, and the movement vector indicating the movement from the time t to t + Δt of the object in the captured image is displayed while the vehicle is traveling. 19 is determined by comparing the images obtained, and based on the detected movement vector, the margin to the road edge of the running road is determined, and the driver is notified based on the determination result ( For example, if the determined margin is smaller than a predetermined reference value, the notification means is notified that the vehicle has approached the road edge), so the driver is given warnings and guidance to ensure safe driving. It can be carried out. Furthermore, since the imaging direction of the CCD camera 19 is calibrated (for example, the imaging direction is calibrated by determining a vanishing point) based on the detection result of the movement vector, the variation in the mounting state of the CCD camera 19 is taken into consideration. Since image processing is performed and a movement vector may be used for the configuration, a simple calibration method can be provided.

なお、走行中の道路の道路端は、CCDカメラ19より得られる画像中に設けた基準水平ライン上の移動ベクトルの空間的な分布を検出し、当該分布を構成する各移動ベクトルの変化量より基準水平ライン上の左右の道路端に対応する変曲点を特定し、この変曲点に基づいて求められる。つまり、画像中に設定された基準水平ラインにおける移動ベクトルは、道路面及び道路端の構造物にそれぞれ対応する画素部分では特性が異なるため、移動ベクトルの変曲点を求めることにより道路端を判別でき、道路端までの距離が算出できる。   The road edge of the running road detects the spatial distribution of the movement vector on the reference horizontal line provided in the image obtained from the CCD camera 19, and from the amount of change of each movement vector constituting the distribution. An inflection point corresponding to the left and right road edges on the reference horizontal line is specified, and obtained based on the inflection point. In other words, the movement vector on the reference horizontal line set in the image has different characteristics in the pixel parts corresponding to the road surface and the road edge structure, respectively, so that the road edge is determined by obtaining the inflection point of the movement vector. And the distance to the road edge can be calculated.

また、上記ナビゲーション装置によれば、上記検出された移動ベクトルに基づいて、走行中の道路の道幅を算出し、当該算出された道幅に対応する道幅データを地図データと関連付けて記憶するようにしたので、車両が走行した道路の道幅データを保持し、その後、再び同じ道路を通ったときに活用できるので、ナビゲーション装置の機能を支援することができる。   Further, according to the navigation device, the road width of the running road is calculated based on the detected movement vector, and the road width data corresponding to the calculated road width is stored in association with the map data. Therefore, since the road width data of the road on which the vehicle has traveled is stored and can be used when the vehicle again passes through the same road, the function of the navigation device can be supported.

また、上記ナビゲーション装置によれば、上記検出された移動ベクトルと、上記地図データに含まれる車線数の情報と、算出された道路端までの道幅と、目的地までの経路とに基づいて、走行すべき適切(適正)な車線を告知するようにしたので、最適経路に対応する車線を走行させるためドライバーの注意を喚起することができ、快適なナビゲーション機能を実現できる。   Further, according to the navigation device, the vehicle travels based on the detected movement vector, information on the number of lanes included in the map data, the calculated road width to the road edge, and the route to the destination. Since an appropriate (appropriate) lane to be announced is announced, the driver can be alerted to drive the lane corresponding to the optimal route, and a comfortable navigation function can be realized.

以上のように、簡単な構成で、走行車両の安全確保や道幅データの取得など、車両の安全性と利便性を高めることが可能となり、本願をナビゲーション装置に適用すれば、車両の道路端近接時のドライバーへの告知、車線判定に基づく車線変更の告知、道幅データの記憶などにより、ナビゲーション装置を支援して機能向上を図ることが可能となる。   As described above, with a simple configuration, it becomes possible to improve the safety and convenience of the vehicle, such as ensuring the safety of the traveling vehicle and acquiring the road width data. It is possible to support the navigation device and improve the function by notifying the driver at the time, notifying the lane change based on the lane determination, storing the road width data, and the like.

本実施形態に係るナビゲーション装置の概略構成を示す図である。It is a figure which shows schematic structure of the navigation apparatus which concerns on this embodiment. ナビゲーション装置の画像処理部の構成を示す図である。It is a figure which shows the structure of the image process part of a navigation apparatus. CCDカメラの車両への設置状態を示す図であり、(a)は車両上方から見た設置状態、(b)は車両側方の設置状態をそれぞれ示す図である。It is a figure which shows the installation state to the vehicle of a CCD camera, (a) is the installation state seen from the vehicle upper direction, (b) is a figure which shows the installation state of a vehicle side. CCDカメラにより撮像された画像をピンホールカメラのモデルで表した図である。It is the figure which represented the image imaged with the CCD camera with the model of the pinhole camera. 空間座標系と画像データのピクセル座標系の関係を表した図である。It is a figure showing the relationship between a spatial coordinate system and the pixel coordinate system of image data. 移動ベクトルを求める際に画像平面内に定義する参照ブロックについて説明する図である。It is a figure explaining the reference block defined in an image plane when calculating | requiring a movement vector. 画像平面内の所定の参照ブロックに対し、サーチ範囲内に比較ブロックを定義して、移動ベクトルを求める方法を説明する図である。It is a figure explaining the method of calculating | requiring a movement vector by defining a comparison block in a search range with respect to the predetermined | prescribed reference block in an image plane. 本実施形態に係る画像処理において、本発明のCCDカメラから撮像した画像の一例を示す図である。It is a figure which shows an example of the image imaged from the CCD camera of this invention in the image processing which concerns on this embodiment. 画像内の基準水平ラインにおけるピクセル画像座標系と空間座標系の関係を説明する図である。It is a figure explaining the relationship between the pixel image coordinate system and the space coordinate system in the reference | standard horizontal line in an image. 移動ベクトルに基づき車両から左右道路端の壁面までの距離等を算出する方法を示すフローチャートである。It is a flowchart which shows the method of calculating the distance etc. from a vehicle to the wall surface of a right-and-left road edge based on a movement vector. 本実施形態に係るナビゲーション装置において、道幅検出に対応して、走行中の車両が道路端に近接するのを防止するための処理を示すフローチャートである。5 is a flowchart showing a process for preventing a traveling vehicle from approaching a road edge in response to road width detection in the navigation device according to the present embodiment. 本実施形態に係るナビゲーション装置において、道幅検出に対応して、複数車線の道路を走行中の車両が設定経路に対し適正な車線を走行させるための処理を示すフローチャートである。In the navigation device according to the present embodiment, it is a flowchart showing a process for a vehicle traveling on a road having a plurality of lanes to travel a proper lane with respect to a set route in response to road width detection.

符号の説明Explanation of symbols

11…制御部
12…地図データ記憶部
13…道幅データ記憶部
14…センサ部
15…現在位置検出部
16…ディスプレイ
17…スピーカ
18…画像処理部
19…CCDカメラ
21…A/Dコンバータ
22…第1画像メモリ
23…第2画像メモリ
24…移動ベクトル検出部
25…移動ベクトル処理部
V…移動ベクトル
L…基準水平ライン
PL、PR…変曲点

DESCRIPTION OF SYMBOLS 11 ... Control part 12 ... Map data storage part 13 ... Road width data storage part 14 ... Sensor part 15 ... Current position detection part 16 ... Display 17 ... Speaker 18 ... Image processing part 19 ... CCD camera 21 ... A / D converter 22 ... 1st 1 image memory 23 ... second image memory 24 ... movement vector detection unit 25 ... movement vector processing unit V ... movement vector L ... reference horizontal line PL, PR ... inflection point

Claims (5)

車両前方を撮像して画像を出力する撮像手段と、
前記画像中の物体の時間tからt+Δtの動きを示す移動ベクトルを前記車両の走行中に前記撮像手段にて得られる画像を比較することによって求める移動ベクトル検出手段と、
前記検出された移動ベクトルに基づいて、前記走行中の道路の道路端までの余裕度を判定する余裕度判定手段と、
前記余裕度判定手段の判定結果に基づいて、告知手段を制御する制御手段と、
を備え、
前記移動ベクトル検出手段の検出結果に基づいて前記撮像手段の撮像方向を校正する校正手段を有することを特徴とするナビゲーション装置。
Imaging means for imaging the front of the vehicle and outputting an image;
A movement vector detecting means for obtaining a movement vector indicating the movement of the object in the image from time t to t + Δt by comparing images obtained by the imaging means during traveling of the vehicle;
Based on the detected movement vector, margin determining means for determining a margin to the road edge of the traveling road,
Control means for controlling the notification means based on the determination result of the margin determination means;
With
A navigation apparatus comprising calibration means for calibrating an imaging direction of the imaging means based on a detection result of the movement vector detection means.
前記検出された移動ベクトルに基づいて、前記走行中の道路の道幅を算出する道幅算出手段と、前記算出された道幅に対応する道幅データを地図データと関連付けて記憶する道幅データ記憶手段とをさらに有することを特徴とする請求項1に記載のナビゲーション装置。   Road width calculating means for calculating a road width of the road that is running based on the detected movement vector; and road width data storage means for storing road width data corresponding to the calculated road width in association with map data. The navigation device according to claim 1, comprising: 前記検出された移動ベクトルと、前記地図データに含まれる車線数の情報と、前記算出された道幅と、目的地までの経路とに基づいて、走行すべき適切な車線を告知する車線告知手段をさらに備えたことを特徴とする請求項2に記載のナビゲーション装置。   Lane notification means for notifying an appropriate lane to travel based on the detected movement vector, information on the number of lanes included in the map data, the calculated road width, and a route to the destination The navigation device according to claim 2, further comprising: 前記移動ベクトル検出手段は、比較する前記t+Δtの画像のサーチ範囲を車速データに基づいて設定することを特徴とする請求項1に記載のナビゲーション装置。   The navigation apparatus according to claim 1, wherein the movement vector detection means sets a search range of the image of t + Δt to be compared based on vehicle speed data. 前記移動ベクトル検出手段は、前記撮像手段より得られる画像中に設けた基準水平ライン上の前記移動ベクトルの空間的な分布を検出し、
前記余裕度判定手段は、前記分布を構成する各移動ベクトルの変化量より前記基準水平ライン上の左右の道路端に対応する変曲点を特定し、この変曲点に基づいて前記走行中の道路の道路端までの余裕度を判定することを特徴とする請求項1に記載のナビゲーション装置。
The movement vector detection means detects a spatial distribution of the movement vector on a reference horizontal line provided in an image obtained from the imaging means,
The margin determination means identifies an inflection point corresponding to the left and right road edges on the reference horizontal line from the amount of change of each movement vector constituting the distribution, and based on the inflection point, The navigation device according to claim 1, wherein a margin to a road edge of the road is determined.
JP2006105852A 2006-04-07 2006-04-07 Navigation device Pending JP2006268865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006105852A JP2006268865A (en) 2006-04-07 2006-04-07 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006105852A JP2006268865A (en) 2006-04-07 2006-04-07 Navigation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP21127399A Division JP3808242B2 (en) 1999-07-26 1999-07-26 Image processing apparatus, image processing method, and navigation apparatus

Publications (1)

Publication Number Publication Date
JP2006268865A true JP2006268865A (en) 2006-10-05

Family

ID=37204676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006105852A Pending JP2006268865A (en) 2006-04-07 2006-04-07 Navigation device

Country Status (1)

Country Link
JP (1) JP2006268865A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115679A (en) * 2007-11-08 2009-05-28 Alpine Electronics Inc In-vehicle navigation device
JP2010215146A (en) * 2009-03-18 2010-09-30 Denso It Laboratory Inc Directional horn control device
KR101251929B1 (en) * 2011-09-20 2013-04-08 주식회사 미동전자통신 A method for saving of moving picture in car blackbox
WO2019159230A1 (en) * 2018-02-13 2019-08-22 三菱電機株式会社 Position/attitude estimation device and position/attitude estimation method
WO2019215979A1 (en) * 2018-05-10 2019-11-14 ソニー株式会社 Image processing device, vehicle-mounted device, image processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01217210A (en) * 1988-02-26 1989-08-30 Mazda Motor Corp Navigator for vehicle
JPH06162398A (en) * 1992-11-27 1994-06-10 Matsushita Electric Ind Co Ltd Traffic lane detecting device, traffic lane deviation warning device and collision warning device
JPH0750769A (en) * 1993-08-06 1995-02-21 Yazaki Corp Backward side supervising method for vehicle
JPH07129889A (en) * 1993-10-29 1995-05-19 Aqueous Res:Kk Navigation device
JPH09152348A (en) * 1995-12-01 1997-06-10 Pioneer Electron Corp Car navigation device
JPH09189517A (en) * 1996-01-09 1997-07-22 Toyota Motor Corp Imaging device
JPH09270098A (en) * 1996-04-02 1997-10-14 Mitsubishi Motors Corp Lane deviation warning device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01217210A (en) * 1988-02-26 1989-08-30 Mazda Motor Corp Navigator for vehicle
JPH06162398A (en) * 1992-11-27 1994-06-10 Matsushita Electric Ind Co Ltd Traffic lane detecting device, traffic lane deviation warning device and collision warning device
JPH0750769A (en) * 1993-08-06 1995-02-21 Yazaki Corp Backward side supervising method for vehicle
JPH07129889A (en) * 1993-10-29 1995-05-19 Aqueous Res:Kk Navigation device
JPH09152348A (en) * 1995-12-01 1997-06-10 Pioneer Electron Corp Car navigation device
JPH09189517A (en) * 1996-01-09 1997-07-22 Toyota Motor Corp Imaging device
JPH09270098A (en) * 1996-04-02 1997-10-14 Mitsubishi Motors Corp Lane deviation warning device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115679A (en) * 2007-11-08 2009-05-28 Alpine Electronics Inc In-vehicle navigation device
JP2010215146A (en) * 2009-03-18 2010-09-30 Denso It Laboratory Inc Directional horn control device
KR101251929B1 (en) * 2011-09-20 2013-04-08 주식회사 미동전자통신 A method for saving of moving picture in car blackbox
WO2019159230A1 (en) * 2018-02-13 2019-08-22 三菱電機株式会社 Position/attitude estimation device and position/attitude estimation method
JPWO2019159230A1 (en) * 2018-02-13 2020-02-27 三菱電機株式会社 Position and orientation estimation apparatus and position and orientation estimation method
WO2019215979A1 (en) * 2018-05-10 2019-11-14 ソニー株式会社 Image processing device, vehicle-mounted device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP3808242B2 (en) Image processing apparatus, image processing method, and navigation apparatus
US6249214B1 (en) Image processing apparatus, image processing method, navigation apparatus, program storage device and computer data signal embodied in carrier wave
JP4370869B2 (en) Map data updating method and map data updating apparatus
US7392155B2 (en) Distance calculation device and calculation program
CN103718224B (en) Three-dimensional body pick-up unit and three-dimensional body detection method
JP4724043B2 (en) Object recognition device
EP2348279B1 (en) Road measurement device and method for measuring road
WO2018179616A1 (en) Vehicle position deduction apparatus
US20220012509A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
JP6881369B2 (en) Vehicle position estimation device
WO2018020589A1 (en) Self-position estimation method and self-position estimation apparatus
JP2010072807A (en) Device for detecting and determining road boundary
JP2019108116A (en) Device and method for controlling speed of vehicle in longitudinal direction
JP2007309670A (en) Vehicle position detector
JP2010287015A (en) Obstacle detection device
JP2006268865A (en) Navigation device
JP4664427B2 (en) Distance calculation device
KR20210037791A (en) Autonomous driving apparatus and method
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
CN114670840A (en) Dead angle estimation device, vehicle travel system, and dead angle estimation method
JP6790951B2 (en) Map information learning method and map information learning device
CN113306559A (en) Compensation for vertical road camber in road shape estimation
JP2005170290A (en) Obstacle detecting device
JP6844307B2 (en) Angle of view adjustment method
JP2018185156A (en) Target position estimation method and target position estimation device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090331