JP2005235017A - Device for recognizing vehicle traveling state - Google Patents

Device for recognizing vehicle traveling state Download PDF

Info

Publication number
JP2005235017A
JP2005235017A JP2004045406A JP2004045406A JP2005235017A JP 2005235017 A JP2005235017 A JP 2005235017A JP 2004045406 A JP2004045406 A JP 2004045406A JP 2004045406 A JP2004045406 A JP 2004045406A JP 2005235017 A JP2005235017 A JP 2005235017A
Authority
JP
Japan
Prior art keywords
vehicle
recognition
information
control
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004045406A
Other languages
Japanese (ja)
Inventor
Kazutsugu Fukita
和嗣 吹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004045406A priority Critical patent/JP2005235017A/en
Publication of JP2005235017A publication Critical patent/JP2005235017A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for recognizing vehicle traveling state, capable of generating accurate photographed image information which will not be influenced by the initial mounting state or the like of an imaging means. <P>SOLUTION: The vehicle traveling state recognizing device 10 comprises the imaging means 12 mounted on a vehicle body to image the periphery of the vehicle so that the predetermined portion of the vehicle body is included in a part of the imaging area; an image processing means 14 executing image recognition processing to the taken image obtained from the imaging means, to recognize the predetermined portion of the vehicle body and a predetermined recognition object; and a recognition information generating means 16 relatively derive information for the recognition object in the taken image, based on information for the predetermined portion of the vehicle body in the same taken image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像画像情報を利用して車両の走行状況を認識する車両走行状況認識装置に関する。   The present invention relates to a vehicle travel state recognition device that recognizes a travel state of a vehicle using captured image information.

従来から、左右2つの撮像手段(CCDカメラ)からの撮像画像情報を利用して道路上の車線を認識する技術が知られている(例えば、特許文献1参照)。この従来技術は、左右2つのCCDカメラが車両左右の所定領域をそれぞれ撮像するように車体に搭載され、それぞれの撮像画像情報(特徴点の座標値)を互いに関連付けて処理することで、車線検出精度を高めようとしている。
特開平10−11580号公報
2. Description of the Related Art Conventionally, a technique for recognizing a lane on a road using captured image information from two left and right imaging means (CCD cameras) is known (see, for example, Patent Document 1). In this prior art, two left and right CCD cameras are mounted on the vehicle body so as to capture a predetermined area on the left and right sides of the vehicle, and each captured image information (coordinate values of feature points) is processed in association with each other, thereby detecting lanes. Trying to improve accuracy.
Japanese Patent Laid-Open No. 10-11580

しかしながら、撮像手段が撮像する撮像エリアは、撮像手段の初期の取り付け状態やその後の経時的な取り付け状態の変化等に依存して変化するため、当該撮像手段により得られる撮像画像情報の座標的意味(即ち、撮像画像の画素位置に対応する実座標の位置)が必ずしも正確であるとは限らないという問題点がある。   However, since the imaging area captured by the imaging unit changes depending on the initial mounting state of the imaging unit and the subsequent change in the mounting state over time, the coordinate meaning of the captured image information obtained by the imaging unit In other words, there is a problem that the position of the actual coordinate corresponding to the pixel position of the captured image is not always accurate.

そこで、本発明は、撮像手段の初期の取り付け状態等に影響の受けることのない高い精度の撮像画像情報を生成することができる車両走行状況認識装置の提供を目的とする。   Therefore, an object of the present invention is to provide a vehicle traveling state recognition device that can generate highly accurate captured image information that is not affected by an initial mounting state or the like of an imaging unit.

上記課題を解決するため、本発明の一形態によれば、車両周辺を撮像するように車体に取り付けられ、撮像エリアの一部に車体の所定部を含む撮像手段と、
前記撮像手段から得られる撮像画像に対して画像認識処理を実行し、前記車体の所定部及び所定の認識対象物を認識する画像処理手段と、
前記画像処理手段による画像認識結果に基づいて、撮像画像中の前記認識対象物に関する情報を、同撮像画像中の前記車体の所定部位に関する情報を基準として相対的に導出する認識情報生成手段とを含むことを特徴とする、車両走行状況認識装置が提供される。
In order to solve the above-described problem, according to one aspect of the present invention, an imaging unit that is attached to a vehicle body so as to image the periphery of the vehicle and includes a predetermined part of the vehicle body in a part of the imaging area;
An image processing unit that performs an image recognition process on a captured image obtained from the imaging unit and recognizes a predetermined part of the vehicle body and a predetermined recognition target;
Recognition information generation means for relatively deriving information on the recognition object in the captured image on the basis of information on the predetermined part of the vehicle body in the captured image based on the image recognition result by the image processing means. A vehicle travel situation recognition device is provided.

本形態において、前記撮像手段は、車両前後軸を基準にして対称に左右2個設けられ、前記所定の認識対象物は、車両側方の道路上の車線であってよい。また、前記認識情報生成手段により生成される前記認識対象物に関する情報は、該認識対象物の前記車体の所定部位に対する相対的な位置及び/又は方向に関する情報であってよい。これらの認識対象物の情報は車両制御に有効に利用することができる。   In the present embodiment, the imaging means may be provided in two symmetrically with respect to the vehicle longitudinal axis, and the predetermined recognition object may be a lane on a road on the side of the vehicle. Further, the information related to the recognition target generated by the recognition information generating means may be information related to the relative position and / or direction of the recognition target with respect to a predetermined part of the vehicle body. Information on these recognition objects can be effectively used for vehicle control.

本発明によれば、撮像手段の初期の取り付け状態等に影響の受けることのない高い精度の撮像画像情報を得ることができる。   According to the present invention, it is possible to obtain high-accuracy captured image information that is not affected by the initial mounting state or the like of the imaging unit.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による車両走行状況認識装置10の一実施例を示す構成図である。本実施例の車両走行状況認識装置10は、CCD(ステレオ)カメラのような撮像手段12を備えている。撮像手段12は、図1に示すように、車両の左右にそれぞれ設けられる。例えば、撮像手段12は、車両前後軸に関して左右対称に車両のドアミラー付近に搭載されてよい。撮像手段12は、その撮像エリアが車体を部分的に含むように固定される。例えば、図1に示す撮像手段12は、車両の左右側方の領域を斜め前方下向きに撮像するように取り付けられると共に、その撮像エリアに車体のフェンダ部が含まれるように取り付けられている。   FIG. 1 is a block diagram showing an embodiment of a vehicle travel situation recognition device 10 according to the present invention. The vehicle travel state recognition device 10 of this embodiment includes an image pickup means 12 such as a CCD (stereo) camera. As shown in FIG. 1, the imaging means 12 is provided on each of the left and right sides of the vehicle. For example, the imaging means 12 may be mounted in the vicinity of a vehicle door mirror symmetrically with respect to the vehicle longitudinal axis. The imaging means 12 is fixed so that the imaging area partially includes the vehicle body. For example, the image pickup means 12 shown in FIG. 1 is attached so as to pick up an image of the left and right side regions of the vehicle obliquely forward and downward, and is attached so that the fender portion of the vehicle body is included in the image pickup area.

撮像手段12により得られる画像データは、FPGA(Field Programmable Gate Array)等で構成されてよい画像処理部14に供給される。画像処理部14では、適切な画像認識処理技術を用いて、所定の認識対象物と共に、撮像エリアに含まれる車体の所定部位が認識される。例えば、画像処理部14は、所定の認識対象物として車線(白線)と共に、車体のフェンダ部(フェンダライン)を認識対象とし、それぞれの所与の特徴点に基づいて画像認識処理を実行してよい。   The image data obtained by the imaging means 12 is supplied to an image processing unit 14 that may be configured with an FPGA (Field Programmable Gate Array) or the like. The image processing unit 14 recognizes a predetermined part of the vehicle body included in the imaging area together with a predetermined recognition object using an appropriate image recognition processing technique. For example, the image processing unit 14 sets the fender part (fender line) of the vehicle body as the recognition target together with the lane (white line) as the predetermined recognition target object, and executes image recognition processing based on each given feature point. Good.

画像処理部14による画像認識処理結果は、認識情報生成部16に供給される。本実施例の認識情報生成部16は、車体以外の所定の認識対象物と、車体の所定部位との間の撮像画像上での相対位置関係を用いて、当該所定の認識対象物と車両との間の相対的位置関係を認識し、当該相対的位置関係に基づいて、当該所定の認識対象物に関する各種情報を生成・記憶する。   The result of the image recognition process performed by the image processing unit 14 is supplied to the recognition information generation unit 16. The recognition information generation unit 16 according to the present embodiment uses the relative positional relationship on the captured image between a predetermined recognition object other than the vehicle body and a predetermined part of the vehicle body, and the predetermined recognition object and the vehicle. Is recognized, and based on the relative positional relationship, various types of information relating to the predetermined recognition object are generated and stored.

ところで、一般的に、撮像エリア(撮像画像)中の位置(画素位置)と、それに対応する実空間内の位置とは、撮像手段12の撮像特性(広角レンズのレンズ特性等)や撮像手段12の搭載位置や角度等に基づく所定の変換式を用いて、一対一に対応させられている。しかしながら、この座標変換式は、撮像手段12が設計値通りの搭載状態にあることを前提としているので、撮像手段12の初期の取り付け状態にずれがある場合や取り付け状態が経時的に変化した等には、撮像エリアが変化し、座標変換後の位置情報に誤差が生じて画像認識情報の精度が落ちる場合がある。   By the way, generally, the position (pixel position) in the imaging area (captured image) and the corresponding position in the real space are the imaging characteristics of the imaging means 12 (such as the lens characteristics of the wide-angle lens) and the imaging means 12. Using a predetermined conversion formula based on the mounting position, angle, and the like, one-to-one correspondence is made. However, this coordinate conversion formula is based on the premise that the imaging unit 12 is mounted as designed, so that there is a deviation in the initial mounting state of the imaging unit 12, the mounting state has changed over time, etc. In some cases, the imaging area changes, an error occurs in the position information after coordinate conversion, and the accuracy of the image recognition information decreases.

これに対して、本実施例では、上述の如く、撮像手段12の撮像エリアに車体の所定部位が含まれており、撮像画像中の認識対象物に関する位置情報は、同撮像画像中の車体の所定部位に関する位置情報を基準として相対的に導出される。これにより、本実施例では、撮像手段12の取り付け状態の変化(経時的変化を含む)に影響を受けることがなくなる(即ち、撮像エリアの変化に起因して発生しうる座標変換誤差が補償(相殺)される)ので、信頼性の高い画像認識情報を得ることができる。即ち、撮像画像中の車体の所定部位を基準点として同撮像画像中の認識対象物の位置を算出することで、撮像手段12の取り付け状態が変化した場合にも、基準点と認識対象物の位置との位置関係は実質的に変化しないので、撮像手段12の取り付け状態に影響を受けることのない精度の高い位置情報を得ることができる。   On the other hand, in the present embodiment, as described above, a predetermined part of the vehicle body is included in the imaging area of the imaging unit 12, and position information regarding the recognition target in the captured image is the position of the vehicle body in the captured image. It is relatively derived with reference to position information relating to the predetermined part. As a result, in this embodiment, it is not affected by a change in the mounting state of the imaging means 12 (including a change with time) (that is, a coordinate conversion error that may occur due to a change in the imaging area is compensated ( Therefore, highly reliable image recognition information can be obtained. In other words, by calculating the position of the recognition object in the captured image using the predetermined part of the vehicle body in the captured image as a reference point, the reference point and the recognition object Since the positional relationship with the position does not substantially change, it is possible to obtain highly accurate position information that is not affected by the mounting state of the imaging unit 12.

尚、本実施例において、撮像画像中の認識対象物に関する位置情報は、その情報を利用する車両制御装置に応じて種々の態様で認識されてよい。例えば、認識対象物の位置情報は、車体の所定部位の所定点を原点(基準点)とした水平面内の2次元座標系で認識されてよく、当該所定点の3次元位置が(例えば、GPS測位結果に基づいて)検出可能な場合、当該所定点の3次元位置に基づく3次元絶対座標系で認識されてもよい。   In the present embodiment, the position information related to the recognition target in the captured image may be recognized in various manners according to the vehicle control device that uses the information. For example, the position information of the recognition target may be recognized by a two-dimensional coordinate system in a horizontal plane with a predetermined point of a predetermined part of the vehicle body as the origin (reference point), and the three-dimensional position of the predetermined point (for example, GPS If it can be detected (based on the positioning result), it may be recognized in a three-dimensional absolute coordinate system based on the three-dimensional position of the predetermined point.

また、本実施例において、例えば白線のような方向性を持つ認識対象物に対しては、その方向に関する情報が、同様に、車体の一部を基準にして導出されてもよい。即ち、撮像画像中の認識対象物に関する方向情報は、同撮像画像中の車体の所定部位に関する方向情報を基準として相対的に導出されてよい。例えば、認識対象物としての白線の延在方向と車両の進行方向の方向関係は、撮像画像中の白線の延在方向と同撮像画像中の車体の所定部位(例えば、車両前後に対して所定の方向性を持つ部位(ライン等))の延在方向に基づいて導出することができる。この場合でも、同様に、撮像手段12の取り付け状態の変化(経時的変化を含む)に起因した座標変換誤差が補償(相殺)されるので、高い精度の画像認識情報(方向に関する情報)を得ることができる。   In the present embodiment, for a recognition object having a direction such as a white line, for example, information regarding the direction may be derived based on a part of the vehicle body. That is, the direction information regarding the recognition target object in the captured image may be relatively derived with reference to the direction information regarding the predetermined part of the vehicle body in the captured image. For example, the directional relationship between the extending direction of the white line as the recognition object and the traveling direction of the vehicle is a predetermined part of the vehicle body in the captured image (for example, predetermined with respect to the front and rear of the vehicle). Can be derived on the basis of the extending direction of a part having a directivity of (such as a line). Even in this case, similarly, the coordinate conversion error caused by the change in the mounting state of the imaging unit 12 (including the change with time) is compensated (cancelled), so that highly accurate image recognition information (information on the direction) is obtained. be able to.

上述のように撮像手段12の撮像結果から得られる認識対象物に関する情報は、車両との相対的な情報であるため、車両自体の走行状況を認識するための情報として利用できる。例えば、種々の車両制御装置において制御パラメータの修正及び適応制御に有効に利用することができる。以下、その利用例について説明する。   As described above, the information related to the recognition target obtained from the imaging result of the imaging unit 12 is information relative to the vehicle, and can be used as information for recognizing the traveling state of the vehicle itself. For example, it can be used effectively for control parameter correction and adaptive control in various vehicle control devices. Hereinafter, the usage example will be described.

図1には、車両走行状況認識装置10と協働する車両制御装置30の構成が示されている。車両制御装置30の状態量算出部32には、車両走行状況認識装置10の認識情報生成部16が接続され、上述のようにして得られた認識対象物に関する情報(図3の例では、白線と車体との間の左右それぞれの距離Xl,Xr)が入力される。また、状態量算出部32には、車速センサ40や舵角センサ42等の各種センサが接続され、車両の走行状態に関する情報が入力される。   FIG. 1 shows a configuration of a vehicle control device 30 that cooperates with the vehicle travel state recognition device 10. The state information calculation unit 32 of the vehicle control device 30 is connected to the recognition information generation unit 16 of the vehicle travel state recognition device 10, and information relating to the recognition object obtained as described above (in the example of FIG. Left and right distances Xl and Xr) between the vehicle and the vehicle body. Various sensors such as a vehicle speed sensor 40 and a rudder angle sensor 42 are connected to the state quantity calculation unit 32, and information regarding the running state of the vehicle is input.

車両制御装置30の制御パラメータ修正判定部34は、状態量算出部32による状態量の算出結果に基づいて、車両制御に用いた制御パラメータの妥当性を判断し(即ち、意図通りに車両が制御されているかを判断し)、必要な場合には制御パラメータの修正を要求する。車両制御装置30の制御部36は、制御パラメータ修正判定部34の要求に応じて制御パラメータを修正・更新し、当該更新された制御パラメータに基づいて所定の車両制御を実行する。   The control parameter correction determination unit 34 of the vehicle control device 30 determines the validity of the control parameter used for vehicle control based on the calculation result of the state quantity by the state quantity calculation unit 32 (that is, the vehicle is controlled as intended). If necessary, request correction of the control parameter. The control unit 36 of the vehicle control device 30 corrects / updates the control parameter in response to a request from the control parameter correction determination unit 34, and executes predetermined vehicle control based on the updated control parameter.

図2は、上述の車両制御装置30の一実施例により実現されるロール角及びピッチ角の計測及び補正制御処理のフローチャートである。図3は、この計測及び補正制御処理の説明図である。本実施例の車両制御装置30は、車両のサスペンションシステムを所定の制御パラメータに基づいてアクティブに制御する装置である。図2に示す処理は、車両制御装置30がサスペンションシステムをアクティブ制御している間、所定の周期毎(例えば、認識情報生成部16による情報生成周期毎)に実行されてよい。   FIG. 2 is a flowchart of roll angle and pitch angle measurement and correction control processing realized by one embodiment of the vehicle control device 30 described above. FIG. 3 is an explanatory diagram of this measurement and correction control process. The vehicle control device 30 according to the present embodiment is a device that actively controls a vehicle suspension system based on predetermined control parameters. The process shown in FIG. 2 may be executed every predetermined cycle (for example, every information generation cycle by the recognition information generation unit 16) while the vehicle control device 30 actively controls the suspension system.

先ず、ステップ110において、車両制御装置30の状態量算出部32に、認識情報生成部16からの情報(白線と車体の所定部位との間の左右それぞれの距離Xl,Xr、撮像エリアの最外縁と車体の所定部位との間の左右それぞれの距離Yl,Yr、及び、左右の白線の幅Wl,Wr)が取り込まれる(図3参照)。状態量算出部32は、例えば所定のマップを利用して、これらの情報に応じたロール角θ1及びピッチ角θ2(図3参照)を算出する(ステップ120,130)。尚、ピッチ角θ2は、ロール角θ1と同様の原理で、車両前後方向で離間した位置に取り付けられた撮像手段12それぞれの撮像画像から導出されてよい。   First, in step 110, the state quantity calculation unit 32 of the vehicle control device 30 receives information from the recognition information generation unit 16 (the distances X1 and Xr on the left and right between the white line and a predetermined part of the vehicle body, the outermost edge of the imaging area). Left and right distances Yl and Yr and widths Wl and Wr of the left and right white lines between the vehicle and a predetermined part of the vehicle body are taken in (see FIG. 3). The state quantity calculation unit 32 uses, for example, a predetermined map to calculate the roll angle θ1 and the pitch angle θ2 (see FIG. 3) corresponding to the information (steps 120 and 130). The pitch angle θ2 may be derived from the captured images of the imaging means 12 attached at positions separated in the vehicle front-rear direction on the same principle as the roll angle θ1.

ここで、上記ステップ120,130で用いられてよい所定のマップは、簡易的な手法として実験的に導出されてよい。例えば、車両を意図的に既知の量だけロールさせ、そのときに左右の撮像手段12の撮像画像に対する画像処理結果から得られるXr+Xl及び/又はYr+Ylの変化量、及びWl,Wrの変化量に基づいて、これらの変化量とロール角との関係を示すマッピングデータが作成されてよい。これは、Xr+Xlの値が、ロール角に応じて変化すること、及び、白線の幅Wl,Wrの値が、それぞれロール角に応じて(撮像手段12が地面に接近若しくは離反するため)変化することに基づく。尚、ピッチ角に関するマップについても同様に実験的に作成されてよい。   Here, the predetermined map that may be used in steps 120 and 130 may be experimentally derived as a simple method. For example, based on the amount of change in Xr + Xl and / or Yr + Yl and the amount of change in Wl and Wr obtained from the image processing result for the captured images of the left and right imaging means 12 when the vehicle is intentionally rolled by a known amount Thus, mapping data indicating the relationship between the amount of change and the roll angle may be created. This is because the value of Xr + Xl changes according to the roll angle, and the values of the white line widths Wl and Wr change according to the roll angle (because the imaging means 12 approaches or separates from the ground). Based on that. A map relating to the pitch angle may be created experimentally as well.

次いで、ステップ140では、制御パラメータ修正判定部34は、上記ステップ120,130で算出されたロール角θ1及びピッチ角θ2と、それぞれの目標値とをそれぞれ比較し、ステップ150では、この比較結果に基づいて、制御パラメータ(例えば、ゲイン)を修正すべきか否かを判断する。制御パラメータの修正が不要であると判断されると(例えば、目標値に対して所定の許容範囲内である場合)、正常に制御が実行されていると判断できるので、今回の処理ルーチンが終了される。   Next, in step 140, the control parameter correction determination unit 34 compares the roll angle θ1 and the pitch angle θ2 calculated in steps 120 and 130 with respective target values, and in step 150, the comparison result is obtained. Based on this, it is determined whether or not the control parameter (for example, gain) should be corrected. If it is determined that correction of the control parameter is not necessary (for example, when the target value is within a predetermined allowable range), it can be determined that the control is being executed normally, and thus the current processing routine ends. Is done.

一方、上記ステップ150において、制御パラメータを修正すべきである判断すると、制御パラメータ修正判定部34は、制御パラメータの必要な修正が適正範囲内であるか否かを判断し(ステップ160)、その結果、適正範囲内であると判断できる場合、制御パラメータの必要な修正を要求する。これに応じて、車両制御装置30の制御部36は、制御パラメータを修正・更新し(ステップ170)、以後、当該更新された制御パラメータに基づいて車両制御を実行する。一方、制御パラメータの必要な修正が適正範囲外であると判断した場合、制御システムに異常の可能性があるため、制御パラメータ修正判定部34は、制御部36に対して警告の出力若しくは制御停止を要求する。これに応じて、制御部36は、警告の出力若しくは制御停止を実行する(ステップ180)。   On the other hand, when it is determined in step 150 that the control parameter should be corrected, the control parameter correction determination unit 34 determines whether the required correction of the control parameter is within the appropriate range (step 160). As a result, if it can be determined that the value is within the appropriate range, the control parameter is required to be corrected. In response to this, the control unit 36 of the vehicle control device 30 corrects and updates the control parameter (step 170), and thereafter executes vehicle control based on the updated control parameter. On the other hand, if it is determined that the necessary correction of the control parameter is outside the proper range, the control system may determine that the control system is abnormal, and the control parameter correction determination unit 34 outputs a warning to the control unit 36 or stops the control. Request. In response to this, the control unit 36 outputs a warning or stops control (step 180).

図4は、上述の車両制御装置30の一実施例により実行されるレーン維持制御のフローチャートである。図5は、このレーン維持制御の説明図である。本実施例の車両制御装置30は、車両前方を撮像するカメラ等(撮像手段12とは別のカメラ)の検出結果に基づいて、車両が目標軌道に沿って走行するように、ステアリングシステムを所定の制御パラメータを用いてアクティブに制御する装置である。図4に示す処理は、車両制御装置30がステアリングシステムのアクティブ制御を開始した時点に起動されてよい。   FIG. 4 is a flowchart of the lane maintenance control executed by the embodiment of the vehicle control device 30 described above. FIG. 5 is an explanatory diagram of this lane maintenance control. The vehicle control apparatus 30 according to the present embodiment sets the steering system in a predetermined manner so that the vehicle travels along the target track based on the detection result of a camera or the like (a camera different from the imaging unit 12) that images the front of the vehicle. It is a device that actively controls using the control parameters. The process shown in FIG. 4 may be started when the vehicle control device 30 starts active control of the steering system.

先ず、ステップ210では、車両制御装置30による指令に対する車両の応答性を確認するため、制御開始時における認識情報生成部16からの情報(白線と車体の所定部位との間の左右それぞれの距離Xl0,Xr0)が取り込まれる。尚、車両制御装置30による制御開始時の指令は、例えば図5に示すように中央線(点線にて指示)を基準に一方の白線側に寄っている車両に対して、左右の白線からそれぞれ所定距離だけ離れて走行させる(即ち、中央線を維持して走行させる)ための指令であってよい。   First, in step 210, in order to confirm the responsiveness of the vehicle to the command from the vehicle control device 30, information from the recognition information generation unit 16 at the start of control (distances X10 on the left and right between the white line and a predetermined part of the vehicle body). , Xr0). The command at the start of control by the vehicle control device 30 is, for example, as shown in FIG. 5 from the left and right white lines with respect to a vehicle that is close to one white line side with respect to the center line (indicated by a dotted line). This may be a command for traveling a predetermined distance away (that is, traveling while maintaining the center line).

次に、所定の周期毎に取り込まれるXl,Xr(ステップ220)に対して、所定の判定条件を用いて収束判定が実行される(ステップ230)。例えば、Xl,Xrの双方が所定値以下となる状態が所定周期以上継続した場合、判定条件が成立することとしてよい。判定条件が成立すると、その時点の時刻に基づいて、収束までに要した収束時間T1(即ち、制御開始時刻から収束時刻までの時間)が算出され(ステップ240)、更に、収束時間T1中の車両の平均車速V1が算出される(ステップ250)。   Next, a convergence determination is executed using predetermined determination conditions for Xl and Xr (step 220) captured every predetermined period (step 230). For example, the determination condition may be satisfied when a state where both Xl and Xr are equal to or less than a predetermined value continues for a predetermined period or more. When the determination condition is satisfied, the convergence time T1 required for convergence (that is, the time from the control start time to the convergence time) is calculated based on the time at that time (step 240). An average vehicle speed V1 of the vehicle is calculated (step 250).

次いで、制御パラメータ修正判定部34は、上記ステップ210乃至230で取得・算出された初期値Xl0,Xr0、収束時間T1、及び、平均車速V1に対して所定の判定条件を適用して、収束安定性を判断し、制御パラメータ(例えば、ゲイン)を修正すべきか否かを判断する(ステップ260)。例えば、Xl0,Xr0及びV1に応じて予め設定された目標収束時間に対して収束時間T1を比較することで、収束安定性を判断してよい。制御パラメータの修正が不要であると判断された場合、収束安定性があり正常に制御が実行されていると判断でき、ステップ291に進む。   Next, the control parameter correction determination unit 34 applies predetermined determination conditions to the initial values X10, Xr0, the convergence time T1, and the average vehicle speed V1 acquired and calculated in the above-described steps 210 to 230, thereby stabilizing the convergence. Then, it is determined whether or not the control parameter (for example, gain) should be corrected (step 260). For example, the convergence stability may be determined by comparing the convergence time T1 with a target convergence time set in advance according to X10, Xr0, and V1. If it is determined that the control parameter need not be corrected, it can be determined that the control is normally performed with convergence stability, and the process proceeds to step 291.

一方、ステップ260において、制御パラメータを修正すべきである判断すると、制御パラメータ修正判定部34は、制御パラメータの必要な修正が適正範囲内であるか否かを判断し(ステップ270)、適正範囲内であると判断できる場合、制御パラメータの必要な修正を要求する。これに応じて、車両制御装置30の制御部36により制御パラメータが修正・更新され(ステップ280)、ステップ291に進む。一方、制御パラメータの必要な修正が適正範囲外であると判断した場合、制御システムに異常の可能性があるため、制御パラメータ修正判定部34は、制御部36に対して警告の出力若しくは制御停止を要求する。これに応じて、制御部36は、警告の出力若しくは制御停止を実行する(ステップ290)。   On the other hand, if it is determined in step 260 that the control parameter should be corrected, the control parameter correction determination unit 34 determines whether the required correction of the control parameter is within the appropriate range (step 270), and the appropriate range. If it can be determined that it is within the range, the control parameter is required to be corrected. In response to this, the control parameter is corrected and updated by the control unit 36 of the vehicle control device 30 (step 280), and the process proceeds to step 291. On the other hand, if it is determined that the necessary correction of the control parameter is outside the proper range, the control system may determine that the control system is abnormal, and the control parameter correction determination unit 34 outputs a warning to the control unit 36 or stops the control. Request. In response to this, the control unit 36 outputs a warning or stops control (step 290).

ステップ291では、収束安定後のレーン維持精度を評価するため、収束安定後の所定時間に亘るXl,Xrのデータの目標値に対するバラツキ度合い(偏差)δが算出される。次いで、ステップ292では、上記ステップ291で算出されたバラツキ度合いδが所定の範囲内に収まっているか否かが判定され、所定の範囲内である場合には、正常に制御が実行されていると判断でき、処理が終了される。一方、バラツキ度合いδが所定の範囲外であると判断された場合、上記ステップ270に戻り、制御パラメータが修正可能か否かが判断され、その結果に応じて、警告処理等(ステップ290)若しくは制御パラメータ修正処理(ステップ280)が実行される。   In step 291, the degree of deviation (deviation) δ with respect to the target values of the data of Xl and Xr over a predetermined time after convergence stabilization is calculated in order to evaluate the lane maintenance accuracy after convergence stabilization. Next, in step 292, it is determined whether or not the variation degree δ calculated in step 291 is within a predetermined range. If the degree of variation δ is within the predetermined range, the control is normally executed. The determination can be made and the process is terminated. On the other hand, if it is determined that the variation degree δ is outside the predetermined range, the process returns to step 270 to determine whether or not the control parameter can be corrected. Depending on the result, warning processing or the like (step 290) or A control parameter correction process (step 280) is executed.

図6は、上述の車両制御装置30の一実施例により実行されるレーン逸脱回避制御のフローチャートである。図7は、このレーン逸脱回避制御の説明図である。本実施例の車両制御装置30は、車両がレーンから逸脱しそうになった場合に当該逸脱を回避するように、車両のステアリングシステムを所定の制御パラメータを用いてアクティブに制御する装置である。   FIG. 6 is a flowchart of the lane departure avoidance control executed by the embodiment of the vehicle control device 30 described above. FIG. 7 is an explanatory diagram of this lane departure avoidance control. The vehicle control device 30 of the present embodiment is a device that actively controls the steering system of the vehicle using predetermined control parameters so as to avoid the departure when the vehicle is about to depart from the lane.

先ず、ステップ310では、車両制御装置30による制御性を確認するため、制御開始時における認識情報生成部16からの情報(白線と車体の所定部位との間の左右それぞれの距離Xl0,Xr0)が取り込まれる。次に、車両が一方の側の白線に最接近して逸脱回避制御が起動するまで、Xl,Xrが所定の周期毎に取り込まれる(ステップ320)。ステップ330で車両が一方の側の白線に最接近して逸脱回避制御が起動すると、最接近した際の距離Xlmin又はXrmin(図7参照)が算出され(ステップ340)、その際の車両速度ベクトルのレーン方向成分V1とそれに垂直な逸脱方向成分(逸脱速度)V2が算出される(ステップ350)。尚、V1及びV2は、制御開始時刻から逸脱回避制御起動時刻までのそれぞれの平均値であってもよい。 First, in step 310, in order to confirm the controllability by the vehicle control device 30, information from the recognition information generation unit 16 at the start of control (distances X10 and Xr0 on the left and right between the white line and a predetermined part of the vehicle body) are obtained. It is captured. Next, Xl and Xr are taken at predetermined intervals until the vehicle approaches the white line on one side and departure avoidance control is activated (step 320). When the vehicle is closest to the white line on one side and the departure avoidance control is activated in step 330, the distance Xl min or Xr min (see FIG. 7) at the time of closest approach is calculated (step 340), and the vehicle at that time The lane direction component V1 of the velocity vector and the departure direction component (deviation velocity) V2 perpendicular thereto are calculated (step 350). V1 and V2 may be average values from the control start time to the departure avoidance control start time.

次いで、制御パラメータ修正判定部34は、上記ステップ310,340,350で取得・算出された初期値Xl0,Xr0、速度V1、V2、及び、最接近距離Xlmin又はXrminに対して所定の判定条件を適用して、逸脱回避能力を判断し、制御パラメータ(例えば、ゲイン)を修正すべきか否かを判断する(ステップ360)。例えば、Xl0,Xr0及び速度V1、V2に応じて予め設定された目標最接近距離に対して最接近距離Xlmin又はXrminを比較することで、逸脱回避能力を判断してよい。制御パラメータの修正が不要であると判断された場合、正常に制御が実行されていると判断でき、処理が終了される。 Then, the control parameter correction determining unit 34 obtains, calculated initial values in step 310, 340, 350 XL0, xr0, speed V1, V2, and, given determined for the distance of closest approach Xl min or Xr min The condition is applied to determine the departure avoidance ability, and it is determined whether or not the control parameter (for example, gain) should be corrected (step 360). For example, the deviation avoidance ability may be determined by comparing the closest approach distance Xl min or Xr min with a target closest approach distance set in advance according to X10, Xr0 and the speeds V1, V2. If it is determined that the control parameter need not be corrected, it can be determined that the control is being executed normally, and the process is terminated.

一方、上記ステップ360において、制御パラメータを修正すべきである判断すると、制御パラメータ修正判定部34は、制御パラメータの必要な修正が適正範囲内であるか否かを判断し(ステップ370)、その結果、適正範囲内であると判断できる場合、制御パラメータの必要な修正を要求する。これに応じて、車両制御装置30の制御部36は、制御パラメータを修正・更新し(ステップ380)、以後、当該更新された制御パラメータに基づいて車両制御を実行する。一方、制御パラメータの必要な修正が適正範囲外であると判断した場合、制御システムに異常の可能性があるため、制御パラメータ修正判定部34は、制御部36に対して警告の出力若しくは制御停止を要求する。これに応じて、制御部36は、警告の出力若しくは制御停止を実行する(ステップ390)。   On the other hand, if it is determined in step 360 that the control parameter should be corrected, the control parameter correction determination unit 34 determines whether the required correction of the control parameter is within an appropriate range (step 370). As a result, if it can be determined that the value is within the appropriate range, the control parameter is required to be corrected. In response to this, the control unit 36 of the vehicle control device 30 corrects / updates the control parameter (step 380), and thereafter executes vehicle control based on the updated control parameter. On the other hand, if it is determined that the necessary correction of the control parameter is outside the proper range, the control system may determine that the control system is abnormal, and the control parameter correction determination unit 34 outputs a warning to the control unit 36 or stops the control. Request. In response to this, the control unit 36 outputs a warning or stops control (step 390).

尚、以上の説明から明らかなように、上述の各実施例によれば、各車両の制御システムにおいてゲインを一定量変化させた場合の車両に及ぼす影響を定量的に計測することができるので、調整ゲイン量の変化基準、即ちゲインを変化させる際の増加量を最適化することもできる。また、上述の各実施例は、車両完成後の実際の走行時のみならず、車両の出荷検査や開発段階等においても利用することができる。   As is clear from the above description, according to each of the above-described embodiments, it is possible to quantitatively measure the influence on the vehicle when the gain is changed by a certain amount in the control system of each vehicle. It is also possible to optimize the change reference of the adjustment gain amount, that is, the increase amount when changing the gain. Further, each of the above-described embodiments can be used not only at the time of actual travel after completion of the vehicle, but also at a vehicle shipment inspection, a development stage, and the like.

また、上述の各実施例では、認識情報生成部16からの情報(白線と車体の所定部位との間の左右それぞれの距離Xl,Xr等)をフィードバック制御に用いられているが、フィードフォワード制御に用いることも可能である。   Further, in each of the above-described embodiments, information from the recognition information generation unit 16 (left and right distances X1, Xr, etc. between the white line and a predetermined part of the vehicle body) is used for feedback control. It can also be used.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

本発明による車両走行状況認識装置10の一実施例を示す構成図である。It is a block diagram which shows one Example of the vehicle travel condition recognition apparatus 10 by this invention. 車両制御装置30の一実施例により実現されるロール角及びピッチ角の計測及び補正制御処理のフローチャートである。4 is a flowchart of roll angle and pitch angle measurement and correction control processing realized by an embodiment of the vehicle control device 30. 図2に示すフローチャートの処理の説明図である。It is explanatory drawing of the process of the flowchart shown in FIG. 車両制御装置30の一実施例により実行されるレーン維持制御のフローチャートである。4 is a flowchart of lane maintenance control executed by an embodiment of the vehicle control device 30. 図4に示すフローチャートの処理の説明図である。It is explanatory drawing of the process of the flowchart shown in FIG. 車両制御装置30の一実施例により実行されるレーン逸脱回避制御のフローチャートである。4 is a flowchart of lane departure avoidance control executed by an embodiment of the vehicle control device 30. 図6に示すフローチャートの処理の説明図である。It is explanatory drawing of the process of the flowchart shown in FIG.

符号の説明Explanation of symbols

10 車両走行状況認識装置
12 撮像手段
14 画像処理部
16 認識情報生成部
30 車両制御装置
32 状態量算出部
34 制御パラメータ修正判定部
36 制御部
40 車速センサ
42 舵角センサ
DESCRIPTION OF SYMBOLS 10 Vehicle traveling condition recognition apparatus 12 Imaging means 14 Image processing part 16 Recognition information generation part 30 Vehicle control apparatus 32 State quantity calculation part 34 Control parameter correction determination part 36 Control part 40 Vehicle speed sensor 42 Rudder angle sensor

Claims (4)

車両周辺を撮像するように車体に取り付けられ、撮像エリアの一部に車体の所定部を含む撮像手段と、
前記撮像手段の撮像画像に対して画像認識処理を実行し、撮像画像中の前記車体の所定部及び所定の認識対象物を認識する画像処理手段と、
前記画像処理手段による画像認識結果に基づいて、撮像画像中の前記認識対象物に関する情報を、同撮像画像中の前記車体の所定部位に関する情報を基準として相対的に導出する認識情報生成手段とを含むことを特徴とする、車両走行状況認識装置。
An imaging means attached to the vehicle body so as to image the periphery of the vehicle and including a predetermined part of the vehicle body in a part of the imaging area;
Image processing means for executing an image recognition process on a captured image of the imaging means, and recognizing a predetermined part of the vehicle body and a predetermined recognition object in the captured image;
Recognition information generation means for relatively deriving information on the recognition object in the captured image on the basis of information on the predetermined part of the vehicle body in the captured image based on the image recognition result by the image processing means. A vehicle travel situation recognition device comprising:
前記撮像手段は、車両前後軸を基準にして対称に左右2個設けられ、前記所定の認識対象物は、車両側方の道路上の車線である、請求項1記載の車両走行状況認識装置。   2. The vehicle travel state recognition device according to claim 1, wherein the imaging means is provided in two symmetrically with respect to a vehicle longitudinal axis, and the predetermined recognition object is a lane on a road on a side of the vehicle. 前記認識情報生成手段により生成される前記認識対象物に関する情報は、該認識対象物の前記車体の所定部位に対する相対的な位置及び/又は方向に関する情報である、請求項1記載の車両走行状況認識装置。   The vehicle travel state recognition according to claim 1, wherein the information related to the recognition object generated by the recognition information generating means is information related to a relative position and / or direction of the recognition object with respect to a predetermined part of the vehicle body. apparatus. 請求項1乃至3の何れかに記載の車両走行状況認識装置の認識情報生成手段により生成される前記認識対象物に関する情報を用いて車両制御を行うことを特徴とする、車両制御装置。
A vehicle control device that performs vehicle control using information on the recognition object generated by the recognition information generation means of the vehicle travel situation recognition device according to any one of claims 1 to 3.
JP2004045406A 2004-02-20 2004-02-20 Device for recognizing vehicle traveling state Pending JP2005235017A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004045406A JP2005235017A (en) 2004-02-20 2004-02-20 Device for recognizing vehicle traveling state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004045406A JP2005235017A (en) 2004-02-20 2004-02-20 Device for recognizing vehicle traveling state

Publications (1)

Publication Number Publication Date
JP2005235017A true JP2005235017A (en) 2005-09-02

Family

ID=35017900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004045406A Pending JP2005235017A (en) 2004-02-20 2004-02-20 Device for recognizing vehicle traveling state

Country Status (1)

Country Link
JP (1) JP2005235017A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257681A (en) * 2007-03-30 2008-10-23 Hyundai Motor Co Ltd Lane departure prevention method for automobile
US7605056B2 (en) 2005-05-31 2009-10-20 Semiconductor Energy Laboratory Co., Ltd. Method of manufacturing a semiconductor device including separation by physical force

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7605056B2 (en) 2005-05-31 2009-10-20 Semiconductor Energy Laboratory Co., Ltd. Method of manufacturing a semiconductor device including separation by physical force
US8508027B2 (en) 2005-05-31 2013-08-13 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and manufacturing method thereof
US8928131B2 (en) 2005-05-31 2015-01-06 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and manufacturing method thereof
JP2008257681A (en) * 2007-03-30 2008-10-23 Hyundai Motor Co Ltd Lane departure prevention method for automobile

Similar Documents

Publication Publication Date Title
JP6996353B2 (en) Object recognition device and vehicle travel control system
US8611609B2 (en) Lane line estimating apparatus
JP5906272B2 (en) Stereo image processing apparatus for vehicle
US10007998B2 (en) Image processor, apparatus, and control system for correction of stereo images
US20190382008A1 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
JP6302519B2 (en) Vehicle driving support device
JP6602982B2 (en) In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system
JP5513327B2 (en) Lane estimation device
JP2005209019A (en) Apparatus, method and program for obstacle detection
JP6209648B1 (en) Stereo camera installation parameter calibration method
JP5065210B2 (en) Lane recognition device
JP7119724B2 (en) Shaft deviation detector and vehicle
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP2006011570A (en) Camera calibration method and camera calibration device
JP6450530B2 (en) In-vehicle camera mounting angle adjustment processing, mounting angle detection device
JP7137464B2 (en) Camera calibration device, camera calibration method, and program
KR102343020B1 (en) Apparatus for calibrating position signal of autonomous vehicle using road surface image information
JP6015276B2 (en) Camera mounting error correction apparatus and camera mounting error correction method
JP6322024B2 (en) Outside monitoring device
JP6314655B2 (en) Marking line detection device, marking line detection method
KR101424636B1 (en) Automatic parking system for vehicle
KR20140029794A (en) Image stabilization method and system using curve lane model
JP2018136739A (en) Calibration device
JP2005235017A (en) Device for recognizing vehicle traveling state
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program