JP6044158B2 - Vehicle travel support device and vehicle travel support method - Google Patents
Vehicle travel support device and vehicle travel support method Download PDFInfo
- Publication number
- JP6044158B2 JP6044158B2 JP2012169565A JP2012169565A JP6044158B2 JP 6044158 B2 JP6044158 B2 JP 6044158B2 JP 2012169565 A JP2012169565 A JP 2012169565A JP 2012169565 A JP2012169565 A JP 2012169565A JP 6044158 B2 JP6044158 B2 JP 6044158B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- shadow edge
- shadow
- travel
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両走行支援装置及び車両走行支援方法に関する。 The present invention relates to a vehicle travel support device and a vehicle travel support method.
従来より、車両周囲を画像認識する技術において、周囲環境の明るさの変化に対しカメラの露出を制御することで対応することが知られている。ただし、立体物の陰により明るい部分と暗い部分を繰り返し通過する場合、カメラの露出制御が正しく行えずハンチングを起こすことがある。 2. Description of the Related Art Conventionally, in a technology for recognizing an image around a vehicle, it is known to cope with a change in brightness of the surrounding environment by controlling exposure of a camera. However, when the light and dark portions are repeatedly passed by the shadow of the three-dimensional object, the camera exposure control cannot be performed correctly and hunting may occur.
これに対し、例えば特許文献1には、路面輝度を目標画素値に近づけるように制御することが記載されている。この制御によれば、露出制御量を限界値に制限することで、日向と日陰が繰り返すような状況であっても、画像認識のハンチングの程度を抑制している。
On the other hand, for example,
しかし、特許文献1の技術のように露出制御により画像の明るさを調整する場合でも、日向と日陰との明るさが大きく異なる場合には一時的な不認識が起こってしまう。
However, even when the brightness of the image is adjusted by exposure control as in the technique of
ところで、走行路における前方の中央付近に、車両の進行方向に伸びる長い影の境界が存在する状況において、影の境界付近の位置を目標走行位置として設定して車線維持制御を行う場合がある。この場合、車両の走行位置の微妙なずれによりカメラが日向に入ったり日陰に入ったりを繰り返してしまう。その際、適切なカメラの露出制御が行われずにハンチングを起こしたり、カメラの露出制御が適切に行われた場合でも一時的な不認識を起こしてしまう可能性がある。 By the way, in a situation where a long shadow boundary extending in the traveling direction of the vehicle exists in the vicinity of the center in front of the travel path, there is a case where the position near the shadow boundary is set as the target travel position and the lane keeping control is performed. In this case, the camera repeats entering the sun or entering the shade due to a subtle shift in the traveling position of the vehicle. At that time, there is a possibility that hunting is caused without appropriate camera exposure control, or that temporary unrecognition may occur even when the camera exposure control is appropriately performed.
そこで、本発明は、上述した実情に鑑みて提案されたものであり、走行環境の不認識を抑制することができる車両走行支援装置及び車両走行支援方法を提供することを目的とする。 Then, this invention is proposed in view of the above-mentioned situation, and it aims at providing the vehicle travel support apparatus and vehicle travel support method which can suppress the unrecognition of a travel environment.
本発明は、上述の課題を解決するために、車両の前方を撮像した画像から、車両進行方向に伸びる影により生ずる影エッジを検出し、当該影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御する。また、影エッジは、建物の影のエッジである。 In order to solve the above-described problem, the present invention detects a shadow edge caused by a shadow extending in the vehicle traveling direction from an image captured in front of the vehicle, and the length of the shadow edge is longer than a predetermined value. The travel of the vehicle is controlled so as to travel in a region away from the shadow edge. The shadow edge is an edge of a building shadow.
本発明によれば、影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御するので、車両が走行しているときに影エッジの境界付近を避けることができ、走行環境の不認識を抑制することができる。 According to the present invention, when the length of the shadow edge is longer than the predetermined value, the travel of the vehicle is controlled so as to travel in a region away from the shadow edge. The vicinity of the boundary can be avoided, and unrecognition of the driving environment can be suppressed.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本発明の実施形態として示す車両走行支援装置は、例えば図1に示すように構成される。この車両走行支援装置は、車両の前方を撮像した画像から、車両進行方向に伸びる影により生ずる影エッジを検出し、影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御するものである。この影エッジは、例えば、走行可能領域の前方の横方向中央付近に生じている影により現れる車両の進行方向成分を含み、長さが所定値以上の車両進行方向に伸びる影が挙げられる。車両走行支援装置は、例えば、カメラ1、画像認識部2、センサ部3、走行制御部4、及び、ステアリングアクチュエータ5を含む。
A vehicle travel support apparatus shown as an embodiment of the present invention is configured as shown in FIG. 1, for example. This vehicle travel support device detects a shadow edge caused by a shadow extending in the vehicle traveling direction from an image obtained by capturing the front of the vehicle, and moves away from the shadow edge when the length of the shadow edge is longer than a predetermined value. The vehicle is controlled to travel in the area. This shadow edge includes, for example, a shadow that includes a traveling direction component of a vehicle that appears due to a shadow that occurs in the vicinity of the center in the lateral direction ahead of the travelable region, and that extends in the traveling direction of the vehicle whose length is equal to or greater than a predetermined value. The vehicle travel support device includes, for example, a
カメラ1は、例えば、車幅方向における中央位置の車室内のフロントウィンドウの上部に取り付けられる。カメラ1は、図2及び図3に示すように、車両10の前方数m〜数10m先の路面を撮影する。カメラ1は、撮影した画像データを画像認識部2に供給する。
The
画像認識部2は、白線認識部21、影エッジ検出部22を有する。白線認識部21は、カメラ1により撮影された画像データに基づいて、車両10と走行中の車線区分線(白線)との相対的な位置関係を検出する。影エッジ検出部22は、車両10に前方に影により現れる影エッジを検出する。影エッジ検出部22は、抽出した影エッジの位置を算出する。
The
白線認識部21は、カメラ1により撮影された画像データを処理することにより道路上の白線を検出する。次いで、白線認識部21は、道路形状と車両挙動を表す複数のパラメータ(以後、道路パラメータと呼ぶ。)を用いて道路白線の形状を数学的に表現した白線モデルと、道路白線の検出結果とが一致するように道路パラメータを時間と共に更新する。これによって、白線認識部21は、走行路上の白線を検出して道路形状及び車両挙動を推定する。
The white
道路パラメータは、走行路に描かれた車線中心線に対する車両10の重心点横変位yr、車線中心線に対する自車のヨー角φr(図2(a)、図3参照)、車両10のピッチ角η、カメラの路面からの高さh(図2(b)参照)、道路曲率(曲率半径の逆数)ρ、走行車線幅w等である。白線認識部21により推定されたこれらの道路パラメータは、走行制御部4に供給される。
The road parameters include the lateral displacement yr of the center of gravity of the
影エッジ検出部22は、白線認識部21により検出した道路パラメータに基づいて走行可能領域を特定する。影エッジ検出部22は、少なくとも走行可能領域における車両進行方向に伸びる影による影エッジを抽出する。影エッジ検出部22は、影エッジの位置を、影エッジ情報として走行制御部4に供給する。影エッジは、カメラ画像に基づいて取得する。なお、影エッジ検出部22はナビゲーション情報に基づいて道路に近い防音壁等の道路に沿って伸びる建物情報に基づいて影エッジを判定してもよい。
The shadow
センサ部3は、車両10の状態を検出する。センサ部3は、例えば、車速センサ、操舵角センサ、ステアリングアクチュエータ5の電流センサにより構成される。また、センサ部3は、付加的にヨーレートセンサを用いてもよい。車速センサは、例えば、変速機の出力側の回転数や車輪の回転数を計測することにより車速を検出する。操舵角センサは、ステアリングシャフトの回転変位を直接又はギヤ機構等により増幅した後、ロータリエンコーダやポテンショメータ等の角度検出機構によって操舵角検出信号として操舵角を検出する。これらのセンサ信号は、走行制御部4に供給される。
The sensor unit 3 detects the state of the
走行制御部4は、車両走行支援装置における全体の制御を行う。走行制御部4は、所定値以上の長さの影エッジから離れた横位置を選択して走行するように車両を制御をする。走行制御部4は、走行位置設定部41、操舵制御部42を含む。
The travel control unit 4 performs overall control in the vehicle travel support device. The traveling control unit 4 controls the vehicle so as to travel by selecting a lateral position away from a shadow edge having a length equal to or longer than a predetermined value. The travel control unit 4 includes a travel
走行位置設定部41は、画像認識部2から入力される道路パラメータ及び影エッジ情報に基づいて、車両10の目標走行位置を設定する。この目標走行位置は、走行路における横方向の走行可能領域内の横位置である。次いで、走行位置設定部41は、センサ部3より入力される車速、操舵角、及びステアリングアクチュエータ5の電流を含むセンサ信号に基づいて、操舵制御量を算出する。
The travel
操舵制御部42は、操舵制御量に応じてステアリングアクチュエータ5に電流指令を送る。これにより、走行制御部4は、車両10が目標走行位置を走行するように制御を行う。通常において、操舵制御部42は、例えば単眼カメラによる白線認識に基づいて、白線に沿って車両10が走行するように支援をする。影エッジが存在する場合、操舵制御部42は、後述するように車両10の走行位置を制御する。
The
[道路パラメータの演算処理]
つぎに、上述した車両走行支援装置において、白線認識部21による道路パラメータの演算処理について図4を参照して説明する。
[Calculation of road parameters]
Next, road parameter calculation processing by the white
先ずステップS1において、白線認識部21は、道路形状や車両挙動を表す道路パラメータを初期設定する。例えば図5に示すような前方画像100の画面座標系上において、白線モデルを、道路パラメータを用いて次のように式1で表す。
上記式1において、a〜eは道路パラメータである。路面からのカメラ1の高さhを一定とすると、それぞれの道路パラメータは、次のような道路及び白線の形状又は車両挙動を表す。すなわち、aは車線内の自車両の横変位量ycrに対応する。bは道路曲率ρに対応する。cは自車両(カメラ1の光軸)の道路に対するヨー角φrに対応する。dは自車両(カメラ1の光軸)の道路に対するピッチ角ηに対応する。eは道路の車線幅Wに対応する。なお、初期状態では道路及び白線の形状や車両挙動が不明であるので、各道路パラメータは、例えば、中央値に相当する値を初期値として設定する。例えば、走行可能領域内の車両10の横変位量に対応する道路パラメータには車線中央を設定する。道路曲率に対応する道路パラメータには直線を設定する。車線にするヨー角に対応する道路パラメータには零度を設定する。車線に対するピッチ角度に対応する道路パラメータには停止状態の度分を設定する。車線幅に対応する道路パラメータには一般的な道路の車線幅を設定する。
In the
式1の詳細な説明については以下で与えられる。車両に固定された実座標系X(車両の左右方向)、Y(車両の上下方向)、Z(車両の前後方向)上の任意の点を画面座標系x、yに投影すると、下記の式2のように、
となる。ただし、fはレンズパラメータである。このレンズパラメータはレンズの焦点距離に対応した係数である。ここで、道路曲率ρがあまり大きくなく、かつ道路面は平面であるという仮定をおく。これにより、Z[m]前方における車両中心線(カメラ中心線)に対する道路白線の座標は、横方向において下記の式4となり、上下方向において下記の式5となる。ただし、この仮定はモデルの簡略化のために設定したものであり、モデルの次数を大きくすればより一般的な条件でも成立するようになる。
上記の式2,式3よりX、Y、Zを消去することにより、下記の式4が得られる。
各変数の中で最も変動の小さいカメラ1の高さを一定として下記の式5を用いて道路パラメータを正規化することにより上記式1を得る。
次いで、ステップS2において、白線認識部21は、図6に示すように、道路白線101L,101Rの候補点を検出するための小領域としての白線候補点検出領域102L,102Rの初期設定を行う。初期状態においては、道路パラメータに初期値を設定した白線モデルと、実際の前方画像100上の道路白線101L,101Rとの間には大きな開きがあると予想される。したがって、白線候補点検出領域102L,102Rはできる限り大きな領域を設定することが望ましい。図6に示す例では、左右の道路白線101L,101Rに5個ずつ計10個の白線候補点検出領域102L,102Rを設定する。なお、前回の処理までに道路白線101L,101Rが既に検出されている場合には、実際の道路白線と白線モデルとの差は小さいと考えられる。この場合には、図7に示すように、なるべく小さい白線候補点検出領域102L,102Rを設定する方が、白線以外のものを誤検出する可能性が低く、しかも処理速度を向上させることができる。
Next, in step S2, the white
次いで、ステップS3において、白線認識部21は、カメラ1により撮像された画像データを入力する。
次いで、ステップS4において、白線認識部21は、ステップS3でカメラ1から入力した画像データの前方画像100上に、白線候補点検出領域102L,102Rを設定する。このとき、ステップS2で算出した白線候補点検出領域102L,102RとステップS1又は後述のステップS9で補正した道路パラメータによる白線モデルとに基づいて、図8に示すように、前回の処理で求めた白線モデルが領域の中心となるように新たな白線候補点検出領域102L,102Rを設定する。図8に示す例では、左右の白線に5個ずつ計10個の白線候補点検出領域102L,102Rを設定する。なお、過去の白線モデルの変化の様子から、白線モデルの変化方向にオフセットした位置に白線候補点検出領域102L,102Rを設定してもよい。
Next, in step S <b> 3, the white
Next, in step S4, the white
次いで、ステップS5において、白線認識部21は、白線候補点検出領域102L,102Rにおいて前方画像100のエッジから白線候補点の検出を行う。
Next, in step S5, the white
次いで、ステップS6において、白線認識部21は、全ての白線候補点検出領域102L,102Rから検出した白線候補点の点数が所定値以上か否かを判定する。白線候補点が所定値より少なければ、白線候補点検出領域102L,102R内に道路白線101L,101Rが含まれていなかったと判断し、ステップS2に処理を戻す。一方、白線候補点が所定値以上検出された場合にはステップS7に処理を進める。
Next, in step S6, the white
ステップS7において、白線認識部21は、図9に示すように、今回に検出した白線候補点103と前回の処理で求めた白線モデル上の点101とのずれ量を各点毎に算出する。
In step S7, as shown in FIG. 9, the white
次いで、ステップS8において、白線認識部21は、ステップS7にて求めたずれ量に基づいて道路パラメータの変動量△a〜△eを算出する。この変動量は、例えば、特開平8−5388号公報に示されるような公知の最小二乗法により算出される。
Next, in step S8, the white
次いでステップS9において、白線認識部21は、ステップS8にて算出した道路パラメータの変動量△a〜△eにより道路パラメータa〜eを補正する。例えば、上記の式1に示す白線モデルの場合には、式5により道路パラメータa〜eの補正を行う。
Next, in step S9, the white
そして、補正した道路パラメータa〜eを、新たな白線モデルの道路パラメータとして所定の記憶領域に記憶すると共に、下記の式6を用いて道路パラメータa〜eを実際の物理量に変換した値も記憶する。そして、ステップS3へ戻り、上記処理を繰り返し行う。
以上のように、白線認識部21は、カメラ1で撮像した前方画像100から検出された白線モデルの道路パラメータa〜eに基づいて、車両10と道路白線101L,101Rとの相対的な位置関係を検出する。
As described above, the white
[影エッジの演算処理]
つぎに、上述した車両走行支援装置において、影エッジ検出部22による影エッジの演算処理について、図10を参照して説明する。
[Shading edge calculation]
Next, shadow edge calculation processing by the shadow
先ずステップS11において、影エッジ検出部22は、カメラ1により撮影された画像データを取り込む。
First, in step S <b> 11, the shadow
次のステップS12において、影エッジ検出部22は、白線認識部21により算出された道路パラメータを入力する。また、影エッジ検出部22は、走行制御部4により算出される前方注視点距離Ls(図11を参照)を入力する。なお、前方注視点距離Lsの算出方法については後述する。なお、前方注視点距離を使用しない場合には、ステップS12において道路パラメータのみを入力すればよい。
In the next step S <b> 12, the shadow
次のステップS13において、影エッジ検出部22は、道路パラメータに基づいて道路中央ライン201から所定の幅tの位置を表す下記の式7を算出し、影エッジ探索範囲202を設定する。図11及び図12に示すように、影エッジ探索範囲202は、2つの線の内側の車線と平行な領域となる。影エッジ探索範囲202は、目標横位置としての道路中央ライン201を中心として、設定されている。
次のステップS14において、影エッジ検出部22は、ステップS13にて設定した影エッジ探索範囲202内における影301により生じている縦方向の車両進行方向に伸びる画像エッジ(影エッジ302)を検出する。この縦方向は、前方画像100の縦方向であって、車両10の進行方向に相当する。影エッジ検出部22は、検出した影エッジ302に対して、クラスタリング処理を行う。これにより、影エッジ検出部22は、連結している進行方向の影エッジ302を特定する。また、影エッジ検出部22は、複数個の影が存在する場合には、それぞれの影エッジ302の区別をする。
In the next step S14, the shadow
次のステップS25において、影エッジ検出部22は、ステップS14にて影エッジ302が検出された場合に、図11に示すように、各々の影エッジ302の横位置yss及び進行方向長さxssを算出する。ここで、影エッジ302の横位置yssは、前方注視点距離Lsにおける道路中央ライン201と影エッジ302との横方向距離を表す。影エッジ302の長さxssは、前方注視点距離Lsから先の影エッジ302の長さを表す。
In the next step S25, when the
このような影エッジの演算処理は、道路中央ライン201から幅方向に影エッジ探索範囲202を絞って影エッジ302を検出し、影エッジ302の長さを算出する。これにより、道路中央ライン201と影エッジ302との傾きの偏差を間接的に評価する。
In such shadow edge calculation processing, the
なお、影エッジ検出部22は、道路中央ライン201と影エッジ302との傾きの偏差を直接的に算出してもよい。
Note that the shadow
[走行位置設定部41による走行位置の設定処理]
つぎに、上述した車両走行支援装置において、走行位置設定部41による走行位置の設定処理について図13を参照して説明する。
[Setting processing of travel position by travel position setting unit 41]
Next, in the vehicle travel support apparatus described above, the travel position setting process by the travel
先ずステップS21において、走行位置設定部41は、画像認識部2により算出された道路パラメータと、影エッジ検出部22により算出された影エッジ302の長さxss、影エッジ302の横位置yssを入力する。
First, in step S21, the travel
次のステップS22において、走行位置設定部41は、前回の影エッジの演算処理にて検出された影エッジ302に基づいて、車両10の目標横位置を道路中央ライン201から修正していないか否かを判定する。車両10の目標横位置を修正していない場合にはステップS23に処理を進め、車両10の目標横位置を修正した場合にはステップS25に処理を進める。
In the next step S22, the traveling
ステップS23において、走行位置設定部41は、車両10の進行方向において所定値(距離)以上の長さを有する車両進行方向に伸びる影エッジ302が検出されたか否かを判定する。所定値以上の長さの影エッジ302が存在する場合にはステップS24に処理を進め、存在しない場合にはステップS29に処理を進める。この所定値の長さ(距離)は、車両10が影エッジ302の付近を走行すると、車両10の横方向のブレによってカメラ画像に日向と日陰が繰り返して現れうる長さが設定される。すなわち、ほぼ影エッジ302に沿って車両10が走行することにより、画像認識部2による画像認識(例えば白線認識)にハンチングが起こるような影エッジ302の長さが設定されている。
In step S <b> 23, the traveling
ステップS24において、走行位置設定部41は、所定値以上の長さの影エッジ302から道路中央ライン201により近い方に所定距離だけ離間した横位置を、目標横位置に設定する。具体的には、図11及び図12に示す場面において、走行位置設定部41は、影エッジ302が道路中央ライン201よりも車両進行方向の右側に存在するので、影エッジ302から道路中央ライン201側の左方向に所定距離だけ離間した位置を、目標横位置に設定する。このように、走行位置設定部41は、所定値以上の長さの影エッジ302が存在する場合には、当該影エッジ302から離れた領域を走行するよう目標横位置を修正する。
In step S24, the traveling
なお、所定値以上の長さの影エッジ302が横方向に並んで複数検出された場合、走行位置設定部41は、両方の影エッジ302から所定距離だけ横方向に離間した位置に目標横位置を設定する。目標横位置の設定可能な横位置の範囲は、走行路の幅及び車両10の幅に基づいて算出し、白線から一定のマージンを確保して走行可能な範囲に収めることが望ましい。また、車両10の急激な挙動を抑制するため、目標横位置を変更する所用時間又は車両10が進む距離に応じて徐々に目標横位置を移動させるよう、目標横位置を変更することが望ましい。
When a plurality of shadow edges 302 having a length equal to or greater than a predetermined value are detected in the horizontal direction, the traveling
ステップS29において、走行位置設定部41は、所定値以上の長さの影エッジ302がないので、道路中央ライン201を目標横位置に設定する。
In step S29, the traveling
ステップS22にて前回に目標横位置を修正した場合のステップS25において、走行位置設定部41は、車両10の前方に影エッジ302が存在し続けているために影エッジ302が継続して検出されているか否かを判定する。影エッジ302が存在し続けている場合にはステップS26に処理を進める。影エッジ302が存在し続けていない場合、ステップS29において、目標横位置を道路中央ライン201に設定する。
In step S25 when the target lateral position was corrected last time in step S22, the traveling
ステップS26において、走行位置設定部41は、前回の目標横位置と影エッジ302の横位置yssとの離間距離を算出し、当該離間距離が所定値以上であるか否かを判定する。離間距離が所定値以上である場合には、ステップS27に処理を進める。一方、離間距離が所定値以上ではない場合には、ステップS28に処理を進める。
In step S <b> 26, the travel
ステップS27において、走行位置設定部41は、前回の目標横位置を保持する。これにより、影エッジ302があまり変化していない場合には頻繁に車両10の目標横位置が修正されることを抑制する。
In step S27, the travel
ステップS28において、走行位置設定部41は、目標横位置を、影エッジ302から所定値だけ離間した横位置に修正する。これにより、一度目標横位置を修正した場合には、細かく横位置を修正せずに、影エッジ302との距離を一定間隔以上保っている間は、設定した横位置を保持する。一方、影エッジ302と目標横位置との間隔が一定以上に狭まった時のみ、目標横位置の修正を加える。これにより、不要な細かな軌道修正の繰り返しを抑制する。
In step S <b> 28, the traveling
なお、上述したステップS23においては、影エッジ302と目標横位置との傾きの差を算出してもよい。走行位置設定部41は、傾きの偏差が少ない場合にはステップS24に処理を進めて、影エッジ302から離れるよう目標横位置を設定する。一方、傾きの偏差が大きい場合には、ステップS29にて、道路中央ライン201を目標横位置に設定する。
In step S23 described above, a difference in inclination between the
また、ステップS24において、走行位置設定部41は、進行方向が同じ他車線に車線変更するよう目標横位置を修正してもよい。車線変更を行うようにする場合、車両走行支援装置は、影エッジ探索範囲202を複数の車線に亘って設定する必要がある。
In step S24, the traveling
[操舵制御部42による操舵制御処理]
つぎに、上述した車両走行支援装置において、操舵制御部42による操舵制御処理について、図14を参照して説明する。
[Steering control processing by the steering control unit 42]
Next, steering control processing by the
先ずステップS31において、操舵制御部42は、センサ部3から各種のセンサ信号を取得する。具体的には、操舵制御部42は、車速センサ、操舵角センサ、ステアリングアクチュエータ5の電流センサの信号を取得する。
First, in step S <b> 31, the
次のステップS32において、操舵制御部42は、ステップS31にて取得した車速に応じた前方注視点距離を算出する。操舵制御部42は、車速が高いほど、前方注視点距離が車両10よりも遠くなるよう算出を行う。なお、操舵制御部42は、画像認識部2で算出される道路曲率を用いて前方注視点距離を算出してもよい。
In the next step S32, the
次のステップS33において、操舵制御部42は、上述した処理により演算された目標走行位置を走行位置設定部41から入力する。
In the next step S <b> 33, the
次のステップS34において、操舵制御部42は、前方注視点距離で道路中央ライン201から目標横位置だけ離れた目標走行位置と車両10の横位置とを一定曲率で結ぶ目標曲線を算出する。
In the next step S34, the
次のステップS35において、操舵制御部42は、ステップS34にて算出された目標曲線に応じた操舵制御量を算出する。
In the next step S35, the
次のステップS36において、操舵制御部42は、ステップS35にて算出された操舵制御量に基づいてステアリングアクチュエータ5を駆動する。
In the next step S36, the
このように操舵制御部42によって操舵制御処理を行うことによって、車両走行支援装置は、車両10の横位置を目標走行位置となるよう制御できる。具体的には、図15に示すように、道路中央ライン201よりも左側を走行するような軌跡400に沿って車両10の横位置を目標走行位置となるよう制御できる。これにより、車両走行支援装置は、走行可能領域202のうち車両進行方向に伸びる影エッジ302から離れた領域を走行するよう車両10の走行を制御できる。
By performing the steering control process by the
[実施形態の効果]
以上説明したように、車両進行方向に伸びる影により生ずる影エッジ302の長さが所定値よりも長い場合に、当該影エッジ302から離れた領域を走行するように車両10の走行を制御する。これにより、車両10が走行しているときに影エッジ302の境界付近を避けることができ、走行環境の不認識を抑制することができる。すなわち、影の境界付近を避けて走行することにより、走行位置がゆらいだり影の境界位置が微妙に変動したりする場合にも、光環境を一定に保つことができ、不認識状態を起こさずに高精度な認識状態を持続することができる。また、影エッジ302の長さが所定距離以上である場合のみ目標横位置を修正するので、細かな軌道修正を抑制できる。
[Effect of the embodiment]
As described above, when the length of the
また、この車両走行支援装置は、影エッジ302と目標横位置との傾きの差を算出し、傾きの差に応じて目標横位置を修正するので、影エッジ302が目標経路に対して平行に伸びているか否かを判定し、平行の場合のみ目標横位置を変更することができる。すなわち、影エッジ302と走行経路とが接近するのが一時的で、影エッジ302付近を長い時間に亘り走行する恐れがない場合には、目標横位置を変更しないようにすることができる。これにより、車両10の挙動の発生を抑制し、滑らかな走行が可能となる。
In addition, since this vehicle travel support device calculates the difference in inclination between the
更に、この車両走行支援装置によれば、影エッジ302から横方向に所定距離だけ離間し、道路中央ライン201に近い位置に目標横位置を修正するので、影エッジ302から横方向に所定距離だけ離間した位置を通る2つの経路のうち、道路中央ライン201に近い方を通る目標横位置を選択することができる。したがって、道路中央ライン201から車両10が離れることを抑制できる。
Furthermore, according to this vehicle travel support device, the target lateral position is corrected by a predetermined distance in the lateral direction from the
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
すなわち、上述した車両走行支援装置は、白線を検出して当該白線内を走行する車両10について説明したが、これに限られないことは勿論である。
That is, although the vehicle travel support apparatus described above has described the
1 カメラ
2 画像認識部
3 センサ部
4 走行制御部
5 ステアリングアクチュエータ
10 車両
21 白線認識部
22 影エッジ検出部
41 走行位置設定部
42 操舵制御部
DESCRIPTION OF
Claims (4)
前記エッジ検出手段により検出された影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御する走行制御手段と
を備え、
前記影エッジは、建物の影のエッジであることを特徴とする車両走行支援装置。 Edge detection means for detecting a shadow edge caused by a shadow extending in the vehicle traveling direction from an image obtained by imaging the front of the vehicle;
Wherein when the edge length of the shadow edges detected by the detecting means is longer than a predetermined value, e Bei and running control means for controlling the travel of the vehicle so that the vehicle travels a region away from the shadow edge,
The vehicle running support apparatus , wherein the shadow edge is a shadow edge of a building .
前記影エッジの長さが所定値よりも長い場合に、当該影エッジから離れた領域を走行するように車両の走行を制御し、
前記影エッジは、建物の影のエッジであることを特徴とする車両走行支援方法。 Detecting a shadow edge caused by a shadow extending in the vehicle traveling direction from an image of the front of the vehicle,
When the length of the shadow edge is longer than a predetermined value, the vehicle is controlled to travel in a region away from the shadow edge ,
The vehicle running support method , wherein the shadow edge is a shadow edge of a building .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012169565A JP6044158B2 (en) | 2012-07-31 | 2012-07-31 | Vehicle travel support device and vehicle travel support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012169565A JP6044158B2 (en) | 2012-07-31 | 2012-07-31 | Vehicle travel support device and vehicle travel support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014028555A JP2014028555A (en) | 2014-02-13 |
JP6044158B2 true JP6044158B2 (en) | 2016-12-14 |
Family
ID=50201474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012169565A Active JP6044158B2 (en) | 2012-07-31 | 2012-07-31 | Vehicle travel support device and vehicle travel support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6044158B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7013727B2 (en) * | 2017-08-25 | 2022-02-01 | 株式会社デンソー | Vehicle control device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3424334B2 (en) * | 1994-06-21 | 2003-07-07 | 日産自動車株式会社 | Roadway detection device |
JP3740902B2 (en) * | 1999-08-10 | 2006-02-01 | 日産自動車株式会社 | Lane tracking device |
JP3574780B2 (en) * | 2000-08-29 | 2004-10-06 | 株式会社日立製作所 | Vehicle safe driving support system |
JP2005148309A (en) * | 2003-11-13 | 2005-06-09 | Denso Corp | Exposure controller for white line detection camera |
JP2008269218A (en) * | 2007-04-19 | 2008-11-06 | Mitsubishi Electric Corp | Image processor, image processing method, and image processing program |
JP2011209896A (en) * | 2010-03-29 | 2011-10-20 | Nec Corp | Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program |
-
2012
- 2012-07-31 JP JP2012169565A patent/JP6044158B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014028555A (en) | 2014-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5124874B2 (en) | Vehicle travel support device, vehicle, vehicle travel support program | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
WO2018225446A1 (en) | Map points-of-change detection device | |
KR101152720B1 (en) | Apparaus and Method for Detecting Slip of a Mobile Robot | |
EP2863181B1 (en) | Intersection navigation system, method, and program | |
JP6014440B2 (en) | Moving object recognition device | |
US11024051B2 (en) | Object detection device | |
JP2010191661A (en) | Traveling path recognition device, automobile, and traveling path recognition method | |
JP2007300181A (en) | Periphery monitoring apparatus and periphery monitoring method and program thereof | |
WO2016117507A1 (en) | Section-line recognition device | |
JP5281867B2 (en) | Vehicle traveling speed control device and method | |
WO2019031137A1 (en) | Roadside object detection device, roadside object detection method, and roadside object detection system | |
JP5141599B2 (en) | Lane recognition apparatus and method | |
JP2019003606A (en) | Map change point detection device | |
JP6189816B2 (en) | Traveling line recognition device | |
JP6105524B2 (en) | Traveling lane marking recognition device and traveling lane marking recognition program | |
CN108482369B (en) | Lane central keeping control method and system | |
JP2005182407A (en) | Traffic lane deviation prevention device | |
JP5974718B2 (en) | Vehicle travel support device and vehicle travel support method | |
JP2014522589A (en) | Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle | |
JP6322024B2 (en) | Outside monitoring device | |
JP6044158B2 (en) | Vehicle travel support device and vehicle travel support method | |
JP2015067030A (en) | Driving assist system | |
JP6606472B2 (en) | Runway shape recognition device, runway shape recognition method | |
JP2014210456A (en) | Steering control device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161031 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6044158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |