JP6044158B2 - Vehicle travel support device and vehicle travel support method - Google Patents

Vehicle travel support device and vehicle travel support method Download PDF

Info

Publication number
JP6044158B2
JP6044158B2 JP2012169565A JP2012169565A JP6044158B2 JP 6044158 B2 JP6044158 B2 JP 6044158B2 JP 2012169565 A JP2012169565 A JP 2012169565A JP 2012169565 A JP2012169565 A JP 2012169565A JP 6044158 B2 JP6044158 B2 JP 6044158B2
Authority
JP
Japan
Prior art keywords
vehicle
shadow edge
shadow
travel
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012169565A
Other languages
Japanese (ja)
Other versions
JP2014028555A (en
Inventor
友太 吉畑
友太 吉畑
正康 島影
正康 島影
宏寿 植田
宏寿 植田
吉郎 高松
吉郎 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012169565A priority Critical patent/JP6044158B2/en
Publication of JP2014028555A publication Critical patent/JP2014028555A/en
Application granted granted Critical
Publication of JP6044158B2 publication Critical patent/JP6044158B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両走行支援装置及び車両走行支援方法に関する。   The present invention relates to a vehicle travel support device and a vehicle travel support method.

従来より、車両周囲を画像認識する技術において、周囲環境の明るさの変化に対しカメラの露出を制御することで対応することが知られている。ただし、立体物の陰により明るい部分と暗い部分を繰り返し通過する場合、カメラの露出制御が正しく行えずハンチングを起こすことがある。   2. Description of the Related Art Conventionally, in a technology for recognizing an image around a vehicle, it is known to cope with a change in brightness of the surrounding environment by controlling exposure of a camera. However, when the light and dark portions are repeatedly passed by the shadow of the three-dimensional object, the camera exposure control cannot be performed correctly and hunting may occur.

これに対し、例えば特許文献1には、路面輝度を目標画素値に近づけるように制御することが記載されている。この制御によれば、露出制御量を限界値に制限することで、日向と日陰が繰り返すような状況であっても、画像認識のハンチングの程度を抑制している。   On the other hand, for example, Patent Document 1 describes that the road surface brightness is controlled to approach the target pixel value. According to this control, by limiting the exposure control amount to the limit value, the degree of image recognition hunting is suppressed even in a situation where the sun and the shade repeat.

特開2005−148309号公報JP 2005-148309 A

しかし、特許文献1の技術のように露出制御により画像の明るさを調整する場合でも、日向と日陰との明るさが大きく異なる場合には一時的な不認識が起こってしまう。   However, even when the brightness of the image is adjusted by exposure control as in the technique of Patent Document 1, if the brightness of the sun and the shade is greatly different, temporary recognition may occur.

ところで、走行路における前方の中央付近に、車両の進行方向に伸びる長い影の境界が存在する状況において、影の境界付近の位置を目標走行位置として設定して車線維持制御を行う場合がある。この場合、車両の走行位置の微妙なずれによりカメラが日向に入ったり日陰に入ったりを繰り返してしまう。その際、適切なカメラの露出制御が行われずにハンチングを起こしたり、カメラの露出制御が適切に行われた場合でも一時的な不認識を起こしてしまう可能性がある。   By the way, in a situation where a long shadow boundary extending in the traveling direction of the vehicle exists in the vicinity of the center in front of the travel path, there is a case where the position near the shadow boundary is set as the target travel position and the lane keeping control is performed. In this case, the camera repeats entering the sun or entering the shade due to a subtle shift in the traveling position of the vehicle. At that time, there is a possibility that hunting is caused without appropriate camera exposure control, or that temporary unrecognition may occur even when the camera exposure control is appropriately performed.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、走行環境の不認識を抑制することができる車両走行支援装置及び車両走行支援方法を提供することを目的とする。   Then, this invention is proposed in view of the above-mentioned situation, and it aims at providing the vehicle travel support apparatus and vehicle travel support method which can suppress the unrecognition of a travel environment.

本発明は、上述の課題を解決するために、車両の前方を撮像した画像から、車両進行方向に伸びる影により生ずる影エッジを検出し、当該影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御する。また、影エッジは、建物の影のエッジである。 In order to solve the above-described problem, the present invention detects a shadow edge caused by a shadow extending in the vehicle traveling direction from an image captured in front of the vehicle, and the length of the shadow edge is longer than a predetermined value. The travel of the vehicle is controlled so as to travel in a region away from the shadow edge. The shadow edge is an edge of a building shadow.

本発明によれば、影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御するので、車両が走行しているときに影エッジの境界付近を避けることができ、走行環境の不認識を抑制することができる。   According to the present invention, when the length of the shadow edge is longer than the predetermined value, the travel of the vehicle is controlled so as to travel in a region away from the shadow edge. The vicinity of the boundary can be avoided, and unrecognition of the driving environment can be suppressed.

本発明の実施形態として示す車両走行支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle travel assistance apparatus shown as embodiment of this invention. (a)はカメラのヨー角の説明図、(b)は車両のピッチ角、高さの説明図である。(A) is explanatory drawing of the yaw angle of a camera, (b) is explanatory drawing of the pitch angle and height of a vehicle. 道路パラメータについての説明図である。It is explanatory drawing about a road parameter. 本発明の実施形態として示す車両走行支援装置における道路パラメータの演算処理を示すフローチャートである。It is a flowchart which shows the calculation process of the road parameter in the vehicle travel assistance apparatus shown as embodiment of this invention. 白線モデルの説明図である。It is explanatory drawing of a white line model. 白線候補点検出領域の初期設定を説明する図である。It is a figure explaining the initial setting of a white line candidate point detection area. 道路白線が検出されている場合における白線候補点検出領域の設定を説明する図である。It is a figure explaining the setting of the white line candidate point detection area | region in case the road white line is detected. 前方画像に対して白線候補点検出領域を設定する説明図である。It is explanatory drawing which sets a white line candidate point detection area with respect to a front image. 前回に求めた白線モデル上の点と今回に検出した道路白線の候補点とのずれ量を示す図である。It is a figure which shows the deviation | shift amount of the point on the white line model calculated | required last time, and the candidate point of the road white line detected this time. 本発明の実施形態として示す車両走行支援装置において、影エッジ検出部による影エッジの演算処理を示すフローチャートである。5 is a flowchart showing a shadow edge calculation process by a shadow edge detection unit in the vehicle travel support apparatus shown as the embodiment of the present invention. 本発明の実施形態として示す車両走行支援装置において、走行路を車両が走行している場面を示す上面図である。In the vehicle travel support device shown as an embodiment of the present invention, it is a top view showing a scene where a vehicle is traveling on a travel path. 本発明の実施形態として示す車両走行支援装置において、走行路を車両が走行している場面を示す斜視図である。In the vehicle travel support device shown as an embodiment of the present invention, it is a perspective view showing a scene where a vehicle is traveling on a travel path. 本発明の実施形態として示す車両走行支援装置において、走行位置設定部による走行位置の設定処理を示すフローチャートである。5 is a flowchart showing a travel position setting process by a travel position setting unit in the vehicle travel support apparatus shown as the embodiment of the present invention. 本発明の実施形態として示す車両走行支援装置において、操舵制御部による操舵制御処理を示すフローチャートである。4 is a flowchart showing a steering control process by a steering control unit in the vehicle travel support apparatus shown as the embodiment of the present invention. 本発明の実施形態として示す車両走行支援装置によって車両の目標走行位置を変更した結果を示す上面図である。It is a top view which shows the result of having changed the target travel position of the vehicle with the vehicle travel assistance apparatus shown as embodiment of this invention.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施形態として示す車両走行支援装置は、例えば図1に示すように構成される。この車両走行支援装置は、車両の前方を撮像した画像から、車両進行方向に伸びる影により生ずる影エッジを検出し、影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御するものである。この影エッジは、例えば、走行可能領域の前方の横方向中央付近に生じている影により現れる車両の進行方向成分を含み、長さが所定値以上の車両進行方向に伸びる影が挙げられる。車両走行支援装置は、例えば、カメラ1、画像認識部2、センサ部3、走行制御部4、及び、ステアリングアクチュエータ5を含む。   A vehicle travel support apparatus shown as an embodiment of the present invention is configured as shown in FIG. 1, for example. This vehicle travel support device detects a shadow edge caused by a shadow extending in the vehicle traveling direction from an image obtained by capturing the front of the vehicle, and moves away from the shadow edge when the length of the shadow edge is longer than a predetermined value. The vehicle is controlled to travel in the area. This shadow edge includes, for example, a shadow that includes a traveling direction component of a vehicle that appears due to a shadow that occurs in the vicinity of the center in the lateral direction ahead of the travelable region, and that extends in the traveling direction of the vehicle whose length is equal to or greater than a predetermined value. The vehicle travel support device includes, for example, a camera 1, an image recognition unit 2, a sensor unit 3, a travel control unit 4, and a steering actuator 5.

カメラ1は、例えば、車幅方向における中央位置の車室内のフロントウィンドウの上部に取り付けられる。カメラ1は、図2及び図3に示すように、車両10の前方数m〜数10m先の路面を撮影する。カメラ1は、撮影した画像データを画像認識部2に供給する。   The camera 1 is attached to the upper part of the front window in the vehicle interior at the center position in the vehicle width direction, for example. As shown in FIGS. 2 and 3, the camera 1 captures a road surface several meters to several tens meters ahead of the vehicle 10. The camera 1 supplies the captured image data to the image recognition unit 2.

画像認識部2は、白線認識部21、影エッジ検出部22を有する。白線認識部21は、カメラ1により撮影された画像データに基づいて、車両10と走行中の車線区分線(白線)との相対的な位置関係を検出する。影エッジ検出部22は、車両10に前方に影により現れる影エッジを検出する。影エッジ検出部22は、抽出した影エッジの位置を算出する。   The image recognition unit 2 includes a white line recognition unit 21 and a shadow edge detection unit 22. The white line recognition unit 21 detects the relative positional relationship between the vehicle 10 and the traveling lane line (white line) based on the image data captured by the camera 1. The shadow edge detection unit 22 detects a shadow edge that appears in front of the vehicle 10 as a shadow. The shadow edge detection unit 22 calculates the position of the extracted shadow edge.

白線認識部21は、カメラ1により撮影された画像データを処理することにより道路上の白線を検出する。次いで、白線認識部21は、道路形状と車両挙動を表す複数のパラメータ(以後、道路パラメータと呼ぶ。)を用いて道路白線の形状を数学的に表現した白線モデルと、道路白線の検出結果とが一致するように道路パラメータを時間と共に更新する。これによって、白線認識部21は、走行路上の白線を検出して道路形状及び車両挙動を推定する。   The white line recognition unit 21 detects white lines on the road by processing image data captured by the camera 1. Next, the white line recognition unit 21 uses a plurality of parameters (hereinafter referred to as road parameters) representing the road shape and vehicle behavior to express a white line model mathematically representing the shape of the road white line, and a road white line detection result. The road parameters are updated with time so as to match. As a result, the white line recognition unit 21 detects a white line on the road and estimates the road shape and vehicle behavior.

道路パラメータは、走行路に描かれた車線中心線に対する車両10の重心点横変位yr、車線中心線に対する自車のヨー角φr(図2(a)、図3参照)、車両10のピッチ角η、カメラの路面からの高さh(図2(b)参照)、道路曲率(曲率半径の逆数)ρ、走行車線幅w等である。白線認識部21により推定されたこれらの道路パラメータは、走行制御部4に供給される。   The road parameters include the lateral displacement yr of the center of gravity of the vehicle 10 with respect to the lane centerline drawn on the road, the yaw angle φr of the vehicle relative to the lane centerline (see FIGS. 2A and 3), and the pitch angle of the vehicle 10. η, the height h from the road surface of the camera (see FIG. 2B), road curvature (reciprocal of curvature radius) ρ, traveling lane width w, and the like. These road parameters estimated by the white line recognition unit 21 are supplied to the travel control unit 4.

影エッジ検出部22は、白線認識部21により検出した道路パラメータに基づいて走行可能領域を特定する。影エッジ検出部22は、少なくとも走行可能領域における車両進行方向に伸びる影による影エッジを抽出する。影エッジ検出部22は、影エッジの位置を、影エッジ情報として走行制御部4に供給する。影エッジは、カメラ画像に基づいて取得する。なお、影エッジ検出部22はナビゲーション情報に基づいて道路に近い防音壁等の道路に沿って伸びる建物情報に基づいて影エッジを判定してもよい。   The shadow edge detection unit 22 specifies a travelable area based on the road parameter detected by the white line recognition unit 21. The shadow edge detection unit 22 extracts a shadow edge due to a shadow extending in the vehicle traveling direction in at least the travelable region. The shadow edge detection unit 22 supplies the position of the shadow edge to the travel control unit 4 as shadow edge information. The shadow edge is acquired based on the camera image. The shadow edge detection unit 22 may determine a shadow edge based on building information extending along a road such as a sound barrier near the road based on the navigation information.

センサ部3は、車両10の状態を検出する。センサ部3は、例えば、車速センサ、操舵角センサ、ステアリングアクチュエータ5の電流センサにより構成される。また、センサ部3は、付加的にヨーレートセンサを用いてもよい。車速センサは、例えば、変速機の出力側の回転数や車輪の回転数を計測することにより車速を検出する。操舵角センサは、ステアリングシャフトの回転変位を直接又はギヤ機構等により増幅した後、ロータリエンコーダやポテンショメータ等の角度検出機構によって操舵角検出信号として操舵角を検出する。これらのセンサ信号は、走行制御部4に供給される。   The sensor unit 3 detects the state of the vehicle 10. The sensor unit 3 includes, for example, a vehicle speed sensor, a steering angle sensor, and a current sensor for the steering actuator 5. The sensor unit 3 may additionally use a yaw rate sensor. For example, the vehicle speed sensor detects the vehicle speed by measuring the number of rotations on the output side of the transmission and the number of rotations of the wheels. The steering angle sensor amplifies the rotational displacement of the steering shaft directly or by a gear mechanism or the like, and then detects the steering angle as a steering angle detection signal by an angle detection mechanism such as a rotary encoder or a potentiometer. These sensor signals are supplied to the traveling control unit 4.

走行制御部4は、車両走行支援装置における全体の制御を行う。走行制御部4は、所定値以上の長さの影エッジから離れた横位置を選択して走行するように車両を制御をする。走行制御部4は、走行位置設定部41、操舵制御部42を含む。   The travel control unit 4 performs overall control in the vehicle travel support device. The traveling control unit 4 controls the vehicle so as to travel by selecting a lateral position away from a shadow edge having a length equal to or longer than a predetermined value. The travel control unit 4 includes a travel position setting unit 41 and a steering control unit 42.

走行位置設定部41は、画像認識部2から入力される道路パラメータ及び影エッジ情報に基づいて、車両10の目標走行位置を設定する。この目標走行位置は、走行路における横方向の走行可能領域内の横位置である。次いで、走行位置設定部41は、センサ部3より入力される車速、操舵角、及びステアリングアクチュエータ5の電流を含むセンサ信号に基づいて、操舵制御量を算出する。   The travel position setting unit 41 sets a target travel position of the vehicle 10 based on road parameters and shadow edge information input from the image recognition unit 2. This target travel position is a lateral position in the lateral travelable area on the travel path. Next, the travel position setting unit 41 calculates the steering control amount based on the sensor signal including the vehicle speed, the steering angle, and the current of the steering actuator 5 input from the sensor unit 3.

操舵制御部42は、操舵制御量に応じてステアリングアクチュエータ5に電流指令を送る。これにより、走行制御部4は、車両10が目標走行位置を走行するように制御を行う。通常において、操舵制御部42は、例えば単眼カメラによる白線認識に基づいて、白線に沿って車両10が走行するように支援をする。影エッジが存在する場合、操舵制御部42は、後述するように車両10の走行位置を制御する。   The steering control unit 42 sends a current command to the steering actuator 5 according to the steering control amount. Thereby, the traveling control unit 4 performs control so that the vehicle 10 travels at the target traveling position. Normally, the steering control unit 42 assists the vehicle 10 to travel along the white line based on white line recognition by a monocular camera, for example. When there is a shadow edge, the steering control unit 42 controls the traveling position of the vehicle 10 as will be described later.

[道路パラメータの演算処理]
つぎに、上述した車両走行支援装置において、白線認識部21による道路パラメータの演算処理について図4を参照して説明する。
[Calculation of road parameters]
Next, road parameter calculation processing by the white line recognition unit 21 in the vehicle travel support device described above will be described with reference to FIG.

先ずステップS1において、白線認識部21は、道路形状や車両挙動を表す道路パラメータを初期設定する。例えば図5に示すような前方画像100の画面座標系上において、白線モデルを、道路パラメータを用いて次のように式1で表す。

Figure 0006044158
First, in step S1, the white line recognition unit 21 initially sets road parameters representing road shapes and vehicle behavior. For example, on the screen coordinate system of the forward image 100 as shown in FIG. 5, the white line model is expressed by the following equation 1 using road parameters.
Figure 0006044158

上記式1において、a〜eは道路パラメータである。路面からのカメラ1の高さhを一定とすると、それぞれの道路パラメータは、次のような道路及び白線の形状又は車両挙動を表す。すなわち、aは車線内の自車両の横変位量ycrに対応する。bは道路曲率ρに対応する。cは自車両(カメラ1の光軸)の道路に対するヨー角φに対応する。dは自車両(カメラ1の光軸)の道路に対するピッチ角ηに対応する。eは道路の車線幅Wに対応する。なお、初期状態では道路及び白線の形状や車両挙動が不明であるので、各道路パラメータは、例えば、中央値に相当する値を初期値として設定する。例えば、走行可能領域内の車両10の横変位量に対応する道路パラメータには車線中央を設定する。道路曲率に対応する道路パラメータには直線を設定する。車線にするヨー角に対応する道路パラメータには零度を設定する。車線に対するピッチ角度に対応する道路パラメータには停止状態の度分を設定する。車線幅に対応する道路パラメータには一般的な道路の車線幅を設定する。 In the above formula 1, a to e are road parameters. If the height h of the camera 1 from the road surface is constant, each road parameter represents the following road and white line shape or vehicle behavior. That is, a corresponds to the lateral displacement amount y cr of the host vehicle in the lane. b corresponds to the road curvature ρ. c corresponds to the yaw angle phi r with respect to the road of the vehicle (the optical axis of the camera 1). d corresponds to the pitch angle η with respect to the road of the host vehicle (the optical axis of the camera 1). e corresponds to the lane width W of the road. Since the shape of the road and the white line and the vehicle behavior are unknown in the initial state, for example, a value corresponding to the median is set as the initial value for each road parameter. For example, the lane center is set as the road parameter corresponding to the lateral displacement amount of the vehicle 10 in the travelable area. A straight line is set for the road parameter corresponding to the road curvature. Zero degree is set to the road parameter corresponding to the yaw angle to be in the lane. The degree of the stop state is set to the road parameter corresponding to the pitch angle with respect to the lane. A general road lane width is set as the road parameter corresponding to the lane width.

式1の詳細な説明については以下で与えられる。車両に固定された実座標系X(車両の左右方向)、Y(車両の上下方向)、Z(車両の前後方向)上の任意の点を画面座標系x、yに投影すると、下記の式2のように、

Figure 0006044158
A detailed description of Equation 1 is given below. When an arbitrary point on the real coordinate system X (vehicle left-right direction), Y (vehicle vertical direction), and Z (vehicle front-back direction) fixed to the vehicle is projected onto the screen coordinate system x, y, the following equation is obtained. Like 2,
Figure 0006044158

となる。ただし、fはレンズパラメータである。このレンズパラメータはレンズの焦点距離に対応した係数である。ここで、道路曲率ρがあまり大きくなく、かつ道路面は平面であるという仮定をおく。これにより、Z[m]前方における車両中心線(カメラ中心線)に対する道路白線の座標は、横方向において下記の式4となり、上下方向において下記の式5となる。ただし、この仮定はモデルの簡略化のために設定したものであり、モデルの次数を大きくすればより一般的な条件でも成立するようになる。

Figure 0006044158
It becomes. Here, f is a lens parameter. This lens parameter is a coefficient corresponding to the focal length of the lens. Here, it is assumed that the road curvature ρ is not so large and the road surface is a flat surface. Accordingly, the coordinates of the road white line with respect to the vehicle center line (camera center line) ahead of Z [m] are expressed by the following expression 4 in the horizontal direction and the following expression 5 in the vertical direction. However, this assumption is set for simplification of the model. If the order of the model is increased, a more general condition can be established.
Figure 0006044158

上記の式2,式3よりX、Y、Zを消去することにより、下記の式4が得られる。

Figure 0006044158
By eliminating X, Y, and Z from the above formulas 2 and 3, the following formula 4 is obtained.
Figure 0006044158

各変数の中で最も変動の小さいカメラ1の高さを一定として下記の式5を用いて道路パラメータを正規化することにより上記式1を得る。

Figure 0006044158
The above equation 1 is obtained by normalizing the road parameters using the following equation 5 while keeping the height of the camera 1 having the smallest fluctuation among the variables.
Figure 0006044158

次いで、ステップS2において、白線認識部21は、図6に示すように、道路白線101L,101Rの候補点を検出するための小領域としての白線候補点検出領域102L,102Rの初期設定を行う。初期状態においては、道路パラメータに初期値を設定した白線モデルと、実際の前方画像100上の道路白線101L,101Rとの間には大きな開きがあると予想される。したがって、白線候補点検出領域102L,102Rはできる限り大きな領域を設定することが望ましい。図6に示す例では、左右の道路白線101L,101Rに5個ずつ計10個の白線候補点検出領域102L,102Rを設定する。なお、前回の処理までに道路白線101L,101Rが既に検出されている場合には、実際の道路白線と白線モデルとの差は小さいと考えられる。この場合には、図7に示すように、なるべく小さい白線候補点検出領域102L,102Rを設定する方が、白線以外のものを誤検出する可能性が低く、しかも処理速度を向上させることができる。   Next, in step S2, the white line recognition unit 21 performs initial setting of the white line candidate point detection areas 102L and 102R as small areas for detecting candidate points of the road white lines 101L and 101R as shown in FIG. In the initial state, it is expected that there is a large gap between the white line model in which the initial value is set as the road parameter and the road white lines 101L and 101R on the actual front image 100. Accordingly, it is desirable to set the white line candidate point detection areas 102L and 102R as large as possible. In the example shown in FIG. 6, a total of ten white line candidate point detection areas 102L and 102R are set on each of the left and right road white lines 101L and 101R. If the road white lines 101L and 101R have already been detected by the previous process, the difference between the actual road white line and the white line model is considered to be small. In this case, as shown in FIG. 7, setting as small white line candidate point detection regions 102L and 102R as possible is less likely to erroneously detect other than white lines, and the processing speed can be improved. .

次いで、ステップS3において、白線認識部21は、カメラ1により撮像された画像データを入力する。
次いで、ステップS4において、白線認識部21は、ステップS3でカメラ1から入力した画像データの前方画像100上に、白線候補点検出領域102L,102Rを設定する。このとき、ステップS2で算出した白線候補点検出領域102L,102RとステップS1又は後述のステップS9で補正した道路パラメータによる白線モデルとに基づいて、図8に示すように、前回の処理で求めた白線モデルが領域の中心となるように新たな白線候補点検出領域102L,102Rを設定する。図8に示す例では、左右の白線に5個ずつ計10個の白線候補点検出領域102L,102Rを設定する。なお、過去の白線モデルの変化の様子から、白線モデルの変化方向にオフセットした位置に白線候補点検出領域102L,102Rを設定してもよい。
Next, in step S <b> 3, the white line recognition unit 21 inputs the image data captured by the camera 1.
Next, in step S4, the white line recognition unit 21 sets white line candidate point detection areas 102L and 102R on the front image 100 of the image data input from the camera 1 in step S3. At this time, based on the white line candidate point detection regions 102L and 102R calculated in step S2 and the white line model based on the road parameters corrected in step S1 or step S9 described later, as shown in FIG. New white line candidate point detection areas 102L and 102R are set so that the white line model is the center of the area. In the example shown in FIG. 8, a total of ten white line candidate point detection areas 102L and 102R are set on each of the left and right white lines. Note that the white line candidate point detection regions 102L and 102R may be set at positions offset in the change direction of the white line model based on the past changes in the white line model.

次いで、ステップS5において、白線認識部21は、白線候補点検出領域102L,102Rにおいて前方画像100のエッジから白線候補点の検出を行う。   Next, in step S5, the white line recognition unit 21 detects white line candidate points from the edge of the front image 100 in the white line candidate point detection regions 102L and 102R.

次いで、ステップS6において、白線認識部21は、全ての白線候補点検出領域102L,102Rから検出した白線候補点の点数が所定値以上か否かを判定する。白線候補点が所定値より少なければ、白線候補点検出領域102L,102R内に道路白線101L,101Rが含まれていなかったと判断し、ステップS2に処理を戻す。一方、白線候補点が所定値以上検出された場合にはステップS7に処理を進める。   Next, in step S6, the white line recognition unit 21 determines whether or not the number of white line candidate points detected from all the white line candidate point detection areas 102L and 102R is equal to or greater than a predetermined value. If the number of white line candidate points is less than the predetermined value, it is determined that the road white line 101L, 101R is not included in the white line candidate point detection areas 102L, 102R, and the process returns to step S2. On the other hand, if a white line candidate point is detected at a predetermined value or more, the process proceeds to step S7.

ステップS7において、白線認識部21は、図9に示すように、今回に検出した白線候補点103と前回の処理で求めた白線モデル上の点101とのずれ量を各点毎に算出する。   In step S7, as shown in FIG. 9, the white line recognition unit 21 calculates a deviation amount between the white line candidate point 103 detected this time and the point 101 on the white line model obtained in the previous process for each point.

次いで、ステップS8において、白線認識部21は、ステップS7にて求めたずれ量に基づいて道路パラメータの変動量△a〜△eを算出する。この変動量は、例えば、特開平8−5388号公報に示されるような公知の最小二乗法により算出される。   Next, in step S8, the white line recognizing unit 21 calculates road parameter fluctuation amounts Δa to Δe based on the deviation amount obtained in step S7. This fluctuation amount is calculated by, for example, a known least square method as disclosed in JP-A-8-5388.

次いでステップS9において、白線認識部21は、ステップS8にて算出した道路パラメータの変動量△a〜△eにより道路パラメータa〜eを補正する。例えば、上記の式1に示す白線モデルの場合には、式5により道路パラメータa〜eの補正を行う。   Next, in step S9, the white line recognition unit 21 corrects the road parameters a to e based on the road parameter fluctuation amounts Δa to Δe calculated in step S8. For example, in the case of the white line model shown in Equation 1 above, the road parameters a to e are corrected by Equation 5.

そして、補正した道路パラメータa〜eを、新たな白線モデルの道路パラメータとして所定の記憶領域に記憶すると共に、下記の式6を用いて道路パラメータa〜eを実際の物理量に変換した値も記憶する。そして、ステップS3へ戻り、上記処理を繰り返し行う。

Figure 0006044158
Then, the corrected road parameters a to e are stored in a predetermined storage area as road parameters of a new white line model, and values obtained by converting the road parameters a to e into actual physical quantities using the following formula 6 are also stored. To do. And it returns to step S3 and performs the said process repeatedly.
Figure 0006044158

以上のように、白線認識部21は、カメラ1で撮像した前方画像100から検出された白線モデルの道路パラメータa〜eに基づいて、車両10と道路白線101L,101Rとの相対的な位置関係を検出する。   As described above, the white line recognition unit 21 determines the relative positional relationship between the vehicle 10 and the white road lines 101L and 101R based on the white line model road parameters a to e detected from the front image 100 captured by the camera 1. Is detected.

[影エッジの演算処理]
つぎに、上述した車両走行支援装置において、影エッジ検出部22による影エッジの演算処理について、図10を参照して説明する。
[Shading edge calculation]
Next, shadow edge calculation processing by the shadow edge detection unit 22 in the vehicle travel support apparatus described above will be described with reference to FIG.

先ずステップS11において、影エッジ検出部22は、カメラ1により撮影された画像データを取り込む。   First, in step S <b> 11, the shadow edge detection unit 22 captures image data captured by the camera 1.

次のステップS12において、影エッジ検出部22は、白線認識部21により算出された道路パラメータを入力する。また、影エッジ検出部22は、走行制御部4により算出される前方注視点距離Ls(図11を参照)を入力する。なお、前方注視点距離Lsの算出方法については後述する。なお、前方注視点距離を使用しない場合には、ステップS12において道路パラメータのみを入力すればよい。   In the next step S <b> 12, the shadow edge detection unit 22 inputs the road parameter calculated by the white line recognition unit 21. Further, the shadow edge detection unit 22 inputs the forward gaze distance Ls (see FIG. 11) calculated by the travel control unit 4. A method for calculating the forward gazing point distance Ls will be described later. If the forward gaze distance is not used, only the road parameters need be input in step S12.

次のステップS13において、影エッジ検出部22は、道路パラメータに基づいて道路中央ライン201から所定の幅tの位置を表す下記の式7を算出し、影エッジ探索範囲202を設定する。図11及び図12に示すように、影エッジ探索範囲202は、2つの線の内側の車線と平行な領域となる。影エッジ探索範囲202は、目標横位置としての道路中央ライン201を中心として、設定されている。

Figure 0006044158
In the next step S <b> 13, the shadow edge detection unit 22 calculates the following expression 7 representing the position of the predetermined width t from the road center line 201 based on the road parameters, and sets the shadow edge search range 202. As shown in FIGS. 11 and 12, the shadow edge search range 202 is a region parallel to the lane inside the two lines. The shadow edge search range 202 is set around the road center line 201 as the target lateral position.
Figure 0006044158

次のステップS14において、影エッジ検出部22は、ステップS13にて設定した影エッジ探索範囲202内における影301により生じている縦方向の車両進行方向に伸びる画像エッジ(影エッジ302)を検出する。この縦方向は、前方画像100の縦方向であって、車両10の進行方向に相当する。影エッジ検出部22は、検出した影エッジ302に対して、クラスタリング処理を行う。これにより、影エッジ検出部22は、連結している進行方向の影エッジ302を特定する。また、影エッジ検出部22は、複数個の影が存在する場合には、それぞれの影エッジ302の区別をする。   In the next step S14, the shadow edge detection unit 22 detects an image edge (shadow edge 302) extending in the vertical vehicle traveling direction caused by the shadow 301 within the shadow edge search range 202 set in step S13. . This vertical direction is the vertical direction of the front image 100 and corresponds to the traveling direction of the vehicle 10. The shadow edge detection unit 22 performs clustering processing on the detected shadow edge 302. As a result, the shadow edge detection unit 22 identifies the shadow edge 302 in the traveling direction that is connected. Moreover, the shadow edge detection part 22 distinguishes each shadow edge 302, when a some shadow exists.

次のステップS25において、影エッジ検出部22は、ステップS14にて影エッジ302が検出された場合に、図11に示すように、各々の影エッジ302の横位置yss及び進行方向長さxssを算出する。ここで、影エッジ302の横位置yssは、前方注視点距離Lsにおける道路中央ライン201と影エッジ302との横方向距離を表す。影エッジ302の長さxssは、前方注視点距離Lsから先の影エッジ302の長さを表す。   In the next step S25, when the shadow edge 302 is detected in step S14, the shadow edge detector 22 determines the horizontal position yss and the traveling direction length xss of each shadow edge 302 as shown in FIG. calculate. Here, the horizontal position yss of the shadow edge 302 represents the horizontal distance between the road center line 201 and the shadow edge 302 at the forward gazing point distance Ls. The length xss of the shadow edge 302 represents the length of the shadow edge 302 ahead of the forward gazing point distance Ls.

このような影エッジの演算処理は、道路中央ライン201から幅方向に影エッジ探索範囲202を絞って影エッジ302を検出し、影エッジ302の長さを算出する。これにより、道路中央ライン201と影エッジ302との傾きの偏差を間接的に評価する。   In such shadow edge calculation processing, the shadow edge 302 is detected by narrowing the shadow edge search range 202 in the width direction from the road center line 201, and the length of the shadow edge 302 is calculated. Thereby, the deviation of the inclination between the road center line 201 and the shadow edge 302 is indirectly evaluated.

なお、影エッジ検出部22は、道路中央ライン201と影エッジ302との傾きの偏差を直接的に算出してもよい。   Note that the shadow edge detection unit 22 may directly calculate a deviation in inclination between the road center line 201 and the shadow edge 302.

[走行位置設定部41による走行位置の設定処理]
つぎに、上述した車両走行支援装置において、走行位置設定部41による走行位置の設定処理について図13を参照して説明する。
[Setting processing of travel position by travel position setting unit 41]
Next, in the vehicle travel support apparatus described above, the travel position setting process by the travel position setting unit 41 will be described with reference to FIG.

先ずステップS21において、走行位置設定部41は、画像認識部2により算出された道路パラメータと、影エッジ検出部22により算出された影エッジ302の長さxss、影エッジ302の横位置yssを入力する。   First, in step S21, the travel position setting unit 41 inputs the road parameter calculated by the image recognition unit 2, the length xss of the shadow edge 302 calculated by the shadow edge detection unit 22, and the horizontal position yss of the shadow edge 302. To do.

次のステップS22において、走行位置設定部41は、前回の影エッジの演算処理にて検出された影エッジ302に基づいて、車両10の目標横位置を道路中央ライン201から修正していないか否かを判定する。車両10の目標横位置を修正していない場合にはステップS23に処理を進め、車両10の目標横位置を修正した場合にはステップS25に処理を進める。   In the next step S22, the traveling position setting unit 41 has not corrected the target lateral position of the vehicle 10 from the road center line 201 based on the shadow edge 302 detected in the previous shadow edge calculation process. Determine whether. If the target lateral position of the vehicle 10 has not been corrected, the process proceeds to step S23. If the target lateral position of the vehicle 10 has been corrected, the process proceeds to step S25.

ステップS23において、走行位置設定部41は、車両10の進行方向において所定値(距離)以上の長さを有する車両進行方向に伸びる影エッジ302が検出されたか否かを判定する。所定値以上の長さの影エッジ302が存在する場合にはステップS24に処理を進め、存在しない場合にはステップS29に処理を進める。この所定値の長さ(距離)は、車両10が影エッジ302の付近を走行すると、車両10の横方向のブレによってカメラ画像に日向と日陰が繰り返して現れうる長さが設定される。すなわち、ほぼ影エッジ302に沿って車両10が走行することにより、画像認識部2による画像認識(例えば白線認識)にハンチングが起こるような影エッジ302の長さが設定されている。   In step S <b> 23, the traveling position setting unit 41 determines whether or not a shadow edge 302 extending in the vehicle traveling direction having a length equal to or longer than a predetermined value (distance) in the traveling direction of the vehicle 10 has been detected. If there is a shadow edge 302 having a length equal to or longer than the predetermined value, the process proceeds to step S24, and if not, the process proceeds to step S29. The length (distance) of the predetermined value is set such that when the vehicle 10 travels in the vicinity of the shadow edge 302, the sun and the shade can appear repeatedly in the camera image due to the lateral blur of the vehicle 10. That is, the length of the shadow edge 302 is set such that hunting occurs in image recognition (for example, white line recognition) by the image recognition unit 2 when the vehicle 10 travels substantially along the shadow edge 302.

ステップS24において、走行位置設定部41は、所定値以上の長さの影エッジ302から道路中央ライン201により近い方に所定距離だけ離間した横位置を、目標横位置に設定する。具体的には、図11及び図12に示す場面において、走行位置設定部41は、影エッジ302が道路中央ライン201よりも車両進行方向の右側に存在するので、影エッジ302から道路中央ライン201側の左方向に所定距離だけ離間した位置を、目標横位置に設定する。このように、走行位置設定部41は、所定値以上の長さの影エッジ302が存在する場合には、当該影エッジ302から離れた領域を走行するよう目標横位置を修正する。   In step S24, the traveling position setting unit 41 sets a lateral position that is a predetermined distance away from the shadow edge 302 having a length equal to or greater than a predetermined value and closer to the road center line 201 as a target lateral position. Specifically, in the scenes shown in FIGS. 11 and 12, the traveling position setting unit 41 has the shadow edge 302 on the right side of the road traveling direction with respect to the road center line 201. A position separated by a predetermined distance in the left direction on the side is set as the target lateral position. As described above, when there is a shadow edge 302 having a length equal to or longer than a predetermined value, the travel position setting unit 41 corrects the target lateral position so as to travel in a region away from the shadow edge 302.

なお、所定値以上の長さの影エッジ302が横方向に並んで複数検出された場合、走行位置設定部41は、両方の影エッジ302から所定距離だけ横方向に離間した位置に目標横位置を設定する。目標横位置の設定可能な横位置の範囲は、走行路の幅及び車両10の幅に基づいて算出し、白線から一定のマージンを確保して走行可能な範囲に収めることが望ましい。また、車両10の急激な挙動を抑制するため、目標横位置を変更する所用時間又は車両10が進む距離に応じて徐々に目標横位置を移動させるよう、目標横位置を変更することが望ましい。   When a plurality of shadow edges 302 having a length equal to or greater than a predetermined value are detected in the horizontal direction, the traveling position setting unit 41 sets the target horizontal position at a position that is separated from both shadow edges 302 by a predetermined distance in the horizontal direction. Set. The range of the lateral position where the target lateral position can be set is preferably calculated on the basis of the width of the traveling path and the width of the vehicle 10, and it is desirable that a certain margin is secured from the white line to fall within a possible traveling range. Moreover, in order to suppress the rapid behavior of the vehicle 10, it is desirable to change the target lateral position so that the target lateral position is gradually moved according to the required time for changing the target lateral position or the distance traveled by the vehicle 10.

ステップS29において、走行位置設定部41は、所定値以上の長さの影エッジ302がないので、道路中央ライン201を目標横位置に設定する。   In step S29, the traveling position setting unit 41 sets the road center line 201 to the target lateral position because there is no shadow edge 302 having a length equal to or longer than the predetermined value.

ステップS22にて前回に目標横位置を修正した場合のステップS25において、走行位置設定部41は、車両10の前方に影エッジ302が存在し続けているために影エッジ302が継続して検出されているか否かを判定する。影エッジ302が存在し続けている場合にはステップS26に処理を進める。影エッジ302が存在し続けていない場合、ステップS29において、目標横位置を道路中央ライン201に設定する。   In step S25 when the target lateral position was corrected last time in step S22, the traveling position setting unit 41 continuously detects the shadow edge 302 because the shadow edge 302 continues to exist in front of the vehicle 10. It is determined whether or not. If the shadow edge 302 continues to exist, the process proceeds to step S26. If the shadow edge 302 does not continue to exist, the target lateral position is set to the road center line 201 in step S29.

ステップS26において、走行位置設定部41は、前回の目標横位置と影エッジ302の横位置yssとの離間距離を算出し、当該離間距離が所定値以上であるか否かを判定する。離間距離が所定値以上である場合には、ステップS27に処理を進める。一方、離間距離が所定値以上ではない場合には、ステップS28に処理を進める。   In step S <b> 26, the travel position setting unit 41 calculates a separation distance between the previous target lateral position and the lateral position yss of the shadow edge 302, and determines whether or not the separation distance is a predetermined value or more. If the separation distance is greater than or equal to the predetermined value, the process proceeds to step S27. On the other hand, if the separation distance is not greater than or equal to the predetermined value, the process proceeds to step S28.

ステップS27において、走行位置設定部41は、前回の目標横位置を保持する。これにより、影エッジ302があまり変化していない場合には頻繁に車両10の目標横位置が修正されることを抑制する。   In step S27, the travel position setting unit 41 holds the previous target lateral position. Thereby, when the shadow edge 302 has not changed much, it is possible to prevent the target lateral position of the vehicle 10 from being frequently corrected.

ステップS28において、走行位置設定部41は、目標横位置を、影エッジ302から所定値だけ離間した横位置に修正する。これにより、一度目標横位置を修正した場合には、細かく横位置を修正せずに、影エッジ302との距離を一定間隔以上保っている間は、設定した横位置を保持する。一方、影エッジ302と目標横位置との間隔が一定以上に狭まった時のみ、目標横位置の修正を加える。これにより、不要な細かな軌道修正の繰り返しを抑制する。   In step S <b> 28, the traveling position setting unit 41 corrects the target lateral position to a lateral position that is separated from the shadow edge 302 by a predetermined value. As a result, once the target lateral position is corrected, the set lateral position is maintained while the distance to the shadow edge 302 is maintained at a certain distance or more without finely correcting the lateral position. On the other hand, the target lateral position is corrected only when the distance between the shadow edge 302 and the target lateral position becomes narrower than a certain value. Thereby, the repetition of unnecessary fine orbit correction is suppressed.

なお、上述したステップS23においては、影エッジ302と目標横位置との傾きの差を算出してもよい。走行位置設定部41は、傾きの偏差が少ない場合にはステップS24に処理を進めて、影エッジ302から離れるよう目標横位置を設定する。一方、傾きの偏差が大きい場合には、ステップS29にて、道路中央ライン201を目標横位置に設定する。   In step S23 described above, a difference in inclination between the shadow edge 302 and the target lateral position may be calculated. The traveling position setting unit 41 proceeds to step S <b> 24 when the inclination deviation is small, and sets the target lateral position so as to be away from the shadow edge 302. On the other hand, when the deviation of the inclination is large, the road center line 201 is set to the target lateral position in step S29.

また、ステップS24において、走行位置設定部41は、進行方向が同じ他車線に車線変更するよう目標横位置を修正してもよい。車線変更を行うようにする場合、車両走行支援装置は、影エッジ探索範囲202を複数の車線に亘って設定する必要がある。   In step S24, the traveling position setting unit 41 may correct the target lateral position so that the lane is changed to another lane having the same traveling direction. When the lane change is performed, the vehicle travel support device needs to set the shadow edge search range 202 over a plurality of lanes.

[操舵制御部42による操舵制御処理]
つぎに、上述した車両走行支援装置において、操舵制御部42による操舵制御処理について、図14を参照して説明する。
[Steering control processing by the steering control unit 42]
Next, steering control processing by the steering control unit 42 in the vehicle travel support device described above will be described with reference to FIG.

先ずステップS31において、操舵制御部42は、センサ部3から各種のセンサ信号を取得する。具体的には、操舵制御部42は、車速センサ、操舵角センサ、ステアリングアクチュエータ5の電流センサの信号を取得する。   First, in step S <b> 31, the steering control unit 42 acquires various sensor signals from the sensor unit 3. Specifically, the steering control unit 42 acquires signals from a vehicle speed sensor, a steering angle sensor, and a current sensor of the steering actuator 5.

次のステップS32において、操舵制御部42は、ステップS31にて取得した車速に応じた前方注視点距離を算出する。操舵制御部42は、車速が高いほど、前方注視点距離が車両10よりも遠くなるよう算出を行う。なお、操舵制御部42は、画像認識部2で算出される道路曲率を用いて前方注視点距離を算出してもよい。   In the next step S32, the steering control unit 42 calculates a forward gazing distance according to the vehicle speed acquired in step S31. The steering control unit 42 performs calculation so that the forward gazing point distance becomes farther than the vehicle 10 as the vehicle speed increases. Note that the steering control unit 42 may calculate the forward gaze distance using the road curvature calculated by the image recognition unit 2.

次のステップS33において、操舵制御部42は、上述した処理により演算された目標走行位置を走行位置設定部41から入力する。   In the next step S <b> 33, the steering control unit 42 inputs the target travel position calculated by the above-described process from the travel position setting unit 41.

次のステップS34において、操舵制御部42は、前方注視点距離で道路中央ライン201から目標横位置だけ離れた目標走行位置と車両10の横位置とを一定曲率で結ぶ目標曲線を算出する。   In the next step S34, the steering control unit 42 calculates a target curve that connects the target travel position that is a target lateral position away from the road center line 201 at the forward gazing distance and the lateral position of the vehicle 10 with a constant curvature.

次のステップS35において、操舵制御部42は、ステップS34にて算出された目標曲線に応じた操舵制御量を算出する。   In the next step S35, the steering control unit 42 calculates a steering control amount corresponding to the target curve calculated in step S34.

次のステップS36において、操舵制御部42は、ステップS35にて算出された操舵制御量に基づいてステアリングアクチュエータ5を駆動する。   In the next step S36, the steering control unit 42 drives the steering actuator 5 based on the steering control amount calculated in step S35.

このように操舵制御部42によって操舵制御処理を行うことによって、車両走行支援装置は、車両10の横位置を目標走行位置となるよう制御できる。具体的には、図15に示すように、道路中央ライン201よりも左側を走行するような軌跡400に沿って車両10の横位置を目標走行位置となるよう制御できる。これにより、車両走行支援装置は、走行可能領域202のうち車両進行方向に伸びる影エッジ302から離れた領域を走行するよう車両10の走行を制御できる。   By performing the steering control process by the steering control unit 42 in this way, the vehicle travel support device can control the lateral position of the vehicle 10 to be the target travel position. Specifically, as shown in FIG. 15, the lateral position of the vehicle 10 can be controlled to become the target travel position along a trajectory 400 that travels to the left of the road center line 201. Thereby, the vehicle travel support device can control the travel of the vehicle 10 so as to travel in a region away from the shadow edge 302 extending in the vehicle traveling direction in the travelable region 202.

[実施形態の効果]
以上説明したように、車両進行方向に伸びる影により生ずる影エッジ302の長さが所定値よりも長い場合に、当該影エッジ302から離れた領域を走行するように車両10の走行を制御する。これにより、車両10が走行しているときに影エッジ302の境界付近を避けることができ、走行環境の不認識を抑制することができる。すなわち、影の境界付近を避けて走行することにより、走行位置がゆらいだり影の境界位置が微妙に変動したりする場合にも、光環境を一定に保つことができ、不認識状態を起こさずに高精度な認識状態を持続することができる。また、影エッジ302の長さが所定距離以上である場合のみ目標横位置を修正するので、細かな軌道修正を抑制できる。
[Effect of the embodiment]
As described above, when the length of the shadow edge 302 caused by the shadow extending in the vehicle traveling direction is longer than a predetermined value, the traveling of the vehicle 10 is controlled so as to travel in a region away from the shadow edge 302. Thereby, when the vehicle 10 is traveling, the vicinity of the boundary of the shadow edge 302 can be avoided, and unrecognition of the traveling environment can be suppressed. In other words, by avoiding the vicinity of the shadow boundary, even if the driving position fluctuates or the shadow boundary position fluctuates slightly, the light environment can be kept constant and no unrecognized state occurs. Highly accurate recognition state can be maintained. Further, since the target lateral position is corrected only when the length of the shadow edge 302 is equal to or longer than the predetermined distance, fine trajectory correction can be suppressed.

また、この車両走行支援装置は、影エッジ302と目標横位置との傾きの差を算出し、傾きの差に応じて目標横位置を修正するので、影エッジ302が目標経路に対して平行に伸びているか否かを判定し、平行の場合のみ目標横位置を変更することができる。すなわち、影エッジ302と走行経路とが接近するのが一時的で、影エッジ302付近を長い時間に亘り走行する恐れがない場合には、目標横位置を変更しないようにすることができる。これにより、車両10の挙動の発生を抑制し、滑らかな走行が可能となる。   In addition, since this vehicle travel support device calculates the difference in inclination between the shadow edge 302 and the target lateral position and corrects the target lateral position in accordance with the difference in inclination, the shadow edge 302 is parallel to the target route. It is determined whether or not it is extended, and the target lateral position can be changed only in the case of parallelism. That is, if the shadow edge 302 and the travel route are close to each other temporarily and there is no fear of traveling around the shadow edge 302 for a long time, the target lateral position can be prevented from being changed. Thereby, generation | occurrence | production of the behavior of the vehicle 10 is suppressed and smooth driving | running | working is attained.

更に、この車両走行支援装置によれば、影エッジ302から横方向に所定距離だけ離間し、道路中央ライン201に近い位置に目標横位置を修正するので、影エッジ302から横方向に所定距離だけ離間した位置を通る2つの経路のうち、道路中央ライン201に近い方を通る目標横位置を選択することができる。したがって、道路中央ライン201から車両10が離れることを抑制できる。   Furthermore, according to this vehicle travel support device, the target lateral position is corrected by a predetermined distance in the lateral direction from the shadow edge 302 and is corrected to a position close to the road center line 201. A target lateral position passing through the one closer to the road center line 201 out of two routes passing through the separated positions can be selected. Therefore, it can suppress that the vehicle 10 leaves | separates from the road center line 201. FIG.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

すなわち、上述した車両走行支援装置は、白線を検出して当該白線内を走行する車両10について説明したが、これに限られないことは勿論である。   That is, although the vehicle travel support apparatus described above has described the vehicle 10 that detects a white line and travels within the white line, the present invention is not limited to this.

1 カメラ
2 画像認識部
3 センサ部
4 走行制御部
5 ステアリングアクチュエータ
10 車両
21 白線認識部
22 影エッジ検出部
41 走行位置設定部
42 操舵制御部
DESCRIPTION OF SYMBOLS 1 Camera 2 Image recognition part 3 Sensor part 4 Travel control part 5 Steering actuator 10 Vehicle 21 White line recognition part 22 Shadow edge detection part 41 Travel position setting part 42 Steering control part

Claims (4)

車両の前方を撮像した画像から、車両進行方向に伸びる影により生ずる影エッジを検出するエッジ検出手段と、
前記エッジ検出手段により検出された影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御する走行制御手段と
を備え、
前記影エッジは、建物の影のエッジであることを特徴とする車両走行支援装置。
Edge detection means for detecting a shadow edge caused by a shadow extending in the vehicle traveling direction from an image obtained by imaging the front of the vehicle;
Wherein when the edge length of the shadow edges detected by the detecting means is longer than a predetermined value, e Bei and running control means for controlling the travel of the vehicle so that the vehicle travels a region away from the shadow edge,
The vehicle running support apparatus , wherein the shadow edge is a shadow edge of a building .
前記走行制御手段は、直線に伸びる前記影エッジと前記車両進行方向に伸びる直線との傾きの差を算出し、前記傾きの差に応じて目標横位置を修正することを特徴とする請求項1に記載の車両走行支援装置。 The travel control unit, according to claim 1 which calculates a difference of the slope of a straight line extending in the vehicle traveling direction and the shadow edge extending in a straight line, characterized by correcting the target lateral position according to the difference of the slope The vehicle travel support device according to claim 1. 前記走行制御手段は、前記影エッジから横方向に所定距離だけ離間し、走行路の中央に近い位置に目標横位置を変更することを特徴とする請求項1に記載の車両走行支援装置。   2. The vehicle travel support apparatus according to claim 1, wherein the travel control unit changes the target lateral position to a position that is spaced apart from the shadow edge by a predetermined distance in the lateral direction and is close to the center of the travel path. 車両の前方を撮像した画像から車両進行方向に伸びる影により生ずる影エッジを検出し、
前記影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御し、
前記影エッジは、建物の影のエッジであることを特徴とする車両走行支援方法。
Detecting a shadow edge caused by a shadow extending in the vehicle traveling direction from an image of the front of the vehicle,
When the length of the shadow edge is longer than a predetermined value, the vehicle is controlled to travel in a region away from the shadow edge ,
The vehicle running support method , wherein the shadow edge is a shadow edge of a building .
JP2012169565A 2012-07-31 2012-07-31 Vehicle travel support device and vehicle travel support method Active JP6044158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169565A JP6044158B2 (en) 2012-07-31 2012-07-31 Vehicle travel support device and vehicle travel support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169565A JP6044158B2 (en) 2012-07-31 2012-07-31 Vehicle travel support device and vehicle travel support method

Publications (2)

Publication Number Publication Date
JP2014028555A JP2014028555A (en) 2014-02-13
JP6044158B2 true JP6044158B2 (en) 2016-12-14

Family

ID=50201474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169565A Active JP6044158B2 (en) 2012-07-31 2012-07-31 Vehicle travel support device and vehicle travel support method

Country Status (1)

Country Link
JP (1) JP6044158B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7013727B2 (en) * 2017-08-25 2022-02-01 株式会社デンソー Vehicle control device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3424334B2 (en) * 1994-06-21 2003-07-07 日産自動車株式会社 Roadway detection device
JP3740902B2 (en) * 1999-08-10 2006-02-01 日産自動車株式会社 Lane tracking device
JP3574780B2 (en) * 2000-08-29 2004-10-06 株式会社日立製作所 Vehicle safe driving support system
JP2005148309A (en) * 2003-11-13 2005-06-09 Denso Corp Exposure controller for white line detection camera
JP2008269218A (en) * 2007-04-19 2008-11-06 Mitsubishi Electric Corp Image processor, image processing method, and image processing program
JP2011209896A (en) * 2010-03-29 2011-10-20 Nec Corp Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program

Also Published As

Publication number Publication date
JP2014028555A (en) 2014-02-13

Similar Documents

Publication Publication Date Title
JP5124874B2 (en) Vehicle travel support device, vehicle, vehicle travel support program
JP5966747B2 (en) Vehicle travel control apparatus and method
WO2018225446A1 (en) Map points-of-change detection device
KR101152720B1 (en) Apparaus and Method for Detecting Slip of a Mobile Robot
EP2863181B1 (en) Intersection navigation system, method, and program
JP6014440B2 (en) Moving object recognition device
US11024051B2 (en) Object detection device
JP2010191661A (en) Traveling path recognition device, automobile, and traveling path recognition method
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
WO2016117507A1 (en) Section-line recognition device
JP5281867B2 (en) Vehicle traveling speed control device and method
WO2019031137A1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP5141599B2 (en) Lane recognition apparatus and method
JP2019003606A (en) Map change point detection device
JP6189816B2 (en) Traveling line recognition device
JP6105524B2 (en) Traveling lane marking recognition device and traveling lane marking recognition program
CN108482369B (en) Lane central keeping control method and system
JP2005182407A (en) Traffic lane deviation prevention device
JP5974718B2 (en) Vehicle travel support device and vehicle travel support method
JP2014522589A (en) Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
JP6322024B2 (en) Outside monitoring device
JP6044158B2 (en) Vehicle travel support device and vehicle travel support method
JP2015067030A (en) Driving assist system
JP6606472B2 (en) Runway shape recognition device, runway shape recognition method
JP2014210456A (en) Steering control device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R151 Written notification of patent or utility model registration

Ref document number: 6044158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151